Año XXIX - Edición Nro 358 - Octubre 2025

El debate legislativo de IA, ante el dilema de ir por un enfoque horizontal integral o vertical específico

El proyecto de Daniel Gollán reavivó la discusión entre unas 50 iniciativas. La diputada por Córdoba, Alejandra Torres, planteó a Convergencia que las reuniones con especialistas en la Comisión de Ciencia, Tecnología e Innovación Productiva tuvieron un sesgo opuesto al desarrollo tecnológico.

Para lo que resta de octubre está prevista una nueva reunión de la Comisión de Ciencia, Tecnología e Innovación Productiva de Diputados, que en su capítulo de septiembre propició un nuevo debate alrededor de la posibilidad de regular la IA. Se enfrentan dos posturas: la que apuesta por un enfoque integral horizontal, con una única ley de IA para el país, en línea con la Unión Europea; y la que se inclina por la promoción del desarrollo tecnológico y prefiere normativas especificas y verticales que atiendan puntos como la propiedad intelectual, la defensa del consumidor, entre otras.

La iniciativa "Ley Marco Normativo y de Desarrollo de los Sistemas de IA llegó a rozar la instancia de dictamen por diversos motivos, ligados a la coyuntura política y la enormidad de proyectos ligados a IA en danza. Sobre el primer punto, hasta el 7 de septiembre -es decir, las elecciones legislativas en Provincia de Buenos Aires-, no se habían dado avances certeros en el debate. Según pudo saber Convergencia, el espaldarazo a Fuerza Patria en los comicios fue lo que impulsó la reactivación en el seno de la Comisión, incluso de manera repentina y sorpresiva para sus integrantes.

El debate volvió al centro de la escena el 16 de septiembre en Diputados, en torno al proyecto de ley de Daniel Gollán, diputado por la Provincia de Buenos Aires (Unión por la Patria). Ese día podría haberse emitido dictamen, de no ser por un hervidero de oposiciones a que avanzara la iniciativa, en particular en voz de Martín Yeza, también legislador por la Provincia de Buenos Aires, pero de las filas del PRO. La postura crítica fue secundada, incluso, por el secretario de Innovación, Ciencia y Tecnología, Darío Genua, desde la red social X.

Uxp. El proyecto de "Ley Marco Normativo y de Desarrollo de los Sistemas de IA" (presentado por Unión por la Patria) es producto del trabajo de un año, con más de 7 sesiones informativas, el aporte de 61 expertos, y un análisis comparativo con las regulaciones de Brasil, Colombia, Chile, Australia, Canadá y la Unión Europea.

Sus cuatro objetivos centrales son: regular el desarrollo y uso de la IA bajo principios éticos y de derechos humanos; fomentar la innovación sin descuidar la seguridad jurídica y la protección de los ciudadanos; establecer una gobernanza efectiva mediante una Agencia especializada que supervise su implementación; y armonizar el marco legal para prevenir discriminación, proteger la privacidad y garantizar la transparencia algorítmica.

Propone designar una autoridad de aplicación, la Agencia de Gestión del Conocimiento (AGC, ver funciones abajo), como entidad autárquica en el ámbito de la Secretaría de Innovación, Ciencia y Tecnología (o el ente que se determine). A esta figura -criticada por sus cualidades de "todopoderosa" por los detractores del proyecto- se le endilga competencia exclusiva en la certificación de sistemas de IA que operen en el territorio nacional; la imposición de sanciones por incumplimiento de la normativa aplicable; y la emisión de recomendaciones y guías técnicas para el desarrollo y uso de los sistemas de IA. Además, se le asignan mecanismos de fomento como financiamiento e incentivos fiscales.

Funciones de la Agencia de Gestión del Conocimiento

-Diseñar y proponer políticas públicas y estrategias nacionales para el desarrollo de sistemas de IA

-Establecer estándares técnicos y éticos para el uso de IA en los sectores público y privado.

-Asistir y asesorar a las entidades públicas, estatales y no estatales, en la formulación de planes y políticas de implementación de los sistemas de IA

-Elaborar las políticas, los planes y la estrategia nacional en materia de gobernanza, integración, interoperabilidad, arquitectura empresarial de gobierno, capital humano y adquisiciones vinculadas con las TIC en las entidades públicas donde se utilicen Sistemas de IA.

-Recomendar normas y procedimientos relativos a la contratación administrativa de bienes y servicios informáticos o a su desarrollo para la implementación de IA en la administración pública

-Supervisar y auditar los sistemas de IA para garantizar su cumplimiento normativo.

-Promover la I+D de tecnologías de IA con universidades, centros de investigación y empresas

-Fomentar la formación y capacitación de profesionales en el ámbito de la IA

- Colaborar con organismos internacionales en materia de IA

-Ofrecer programas de capacitación en IA para funcionarios públicos, desarrolladores y ciudadanos

-Gestionar un registro nacional de sistemas de IA de alto impacto

-Desarrollar campañas de concienciación sobre beneficios y riesgos de la IA

-Aplicar regulaciones proporcionales al nivel de riesgo de cada aplicación de IA.

-Crear canales para que los ciudadanos presenten quejas o reclamos.

-Garantizar que las decisiones tomadas por sistemas de IA puedan ser revisadas por un tribunal o autoridad competente.

El proyecto adopta un enfoque basado en riesgos, y categoriza sistemas según su impacto (inaceptable, alto riesgo, limitado, ver abajo). Esta mirada está presente en la legislación aprobada por la Unión Europea (Reglamento de IA - Consejo de la Unión Europea) y constituye uno de los puntos en pugna, por los que se aplazó el debate en Diputados.

Gollán argumentó que la propuesta de normativa busca crear "un entorno jurídico seguro y predecible que proteja a las personas frente a abusos tecnológicos (por ejemplo, deepfakes o discriminación algorítmica); fomentar la innovación responsable al establecer reglas claras para desarrolladores y empresas; y evitar litigios futuros sobre propiedad intelectual y responsabilidad civil derivada del uso de IA".

Pro. Yeza, vicepresidente 2º de la Comisión de Ciencia, Tecnología e Innovación Productiva de Diputados, calificó al proyecto de Gollán como "un Frankenstein jurídico", en referencia al intento de sintetizar distintas iniciativas en una sola. "El proyecto de Gollán sobre IA no es regulación: es un manual para espantar talento y capital de la propia industria tecnológica nacional, porque la de afuera ni vendría con algo así", planteó desde su cuenta en X.

Genua, en tanto, se alineó con Yeza y sostuvo en una publicación en redes sociales que "copiar modelos regulatorios de otros países que ya fracasaron, y que además no se adaptan a nuestra realidad, solo genera burocracia y trabas para potenciar talento y atraer inversiones". El funcionario consideró que la legislación vigente en Europa asfixió al sector privado en torno a avances en IA, y comparó: "Argentina tiene un ecosistema emprendedor y sectores estratégicos (Agroindustria, Energía, Economía del Conocimiento, Salud) listos para aprovechar la IA. El desafío es acompañarlos, no frenarlos".

Clasificación de sistemas de IA según su riesgo De riesgo inaceptable: Se los define como "incompatibles con el respeto y garantía de los derechos fundamentales de las personas, por lo que su introducción en el mercado o puesta en servicio se encuentra prohibida". El texto prohíbe la implementación de aquellos sistemas que emplean técnicas subliminales que tengan por objetivo o efecto inducir a la persona natural a comportarse de forma perjudicial o peligrosa para su salud o seguridad; exploten cualquier vulnerabilidad de grupos específicos de personas naturales; generen un trato perjudicial o desfavorable hacia determinadas personas físicas o colectivos enteros. De alto riesgo: Agrupa a aquellos que pueden afectar negativamente a la salud y la seguridad de las personas, sus derechos fundamentales o el medio ambiente, así como los derechos de trabajadores. Alude a los usados para aplicación como dispositivos de seguridad en la gestión y el funcionamiento de infraestructuras críticas (control de tráfico y redes de abastecimiento de agua y electricidad); educación y formación profesional; reclutamiento, selección, filtrado, evaluación de candidatos, toma de decisiones sobre promociones o terminaciones de relaciones contractuales de trabajo; evaluación de la capacidad de endeudamiento de las personas o establecimiento de su calificación crediticia; entre otros. De riesgo limitado: Su uso presenta un riesgo no significativo de manipulación, engaño o error, o sus consecuencias no son graves, producto de su interacción con personas naturales.

Entre otros legisladores que integran la Comisión mencionada, Alejandra Torres (Encuentro Federal, Córdoba, bloque Federal liderado por Miguel Pichetto) dialogó con Convergencia sobre el camino del último año en torno a la discusión de IA. Para la diputada, las reuniones con especialistas mantuvieron un sesgo opuesto al desarrollo tecnológico, y el producto final -en referencia al proyecto de Gollán- resulta excesivo y restrictivo. "Se intentó difundir un mensaje de miedo ante la pérdida de puestos de trabajo, en lugar de considerar otras normativas, como la de Japón (ver recuadro), más dirigidas a promover la innovación", opinó.

Torres se posicionó a favor de regulaciones para mitigar ciertos riesgos asociados a la IA, pero alejadas de una inhibición del desarrollo. Tras el impasse decidido el 16 de septiembre, trabaja para consensuar otra propuesta, aunque reconoce que la mayoría de integrantes de Unión por la Patria en la Comisión (13 legisladores) resulta una balanza difícil de inclinar.

Consolidación. En paralelo a este vaivén político, el intento por consolidar los proyectos múltiples y dispares en una regulación transversal condujo a un mal resultado, opinó Esteban Lescano, director de la Comisión de Legales y Políticas Públicas de la Cámara Argentina de Internet (Cabase), en conversación con Convergencia.

Entre los más de 50 proyectos que buscan regular distintos aspectos de la IA, hay iniciativas que sugieren modificar el Código Penal ante casos de deepfakes, suplantación de identidad o acoso generado por la IA; otras que van por el fomento, en lugar de la regulación, creando incentivos, sandboxes regulatorios y observatorios de aplicación; las estrictamente regulatorias y afines a la presentada por Gollán; y las centradas en aspectos de propiedad intelectual (registro de producciones sintéticas creadas por la IA), entre otras. "Argentina tiene la posibilidad de ser un hub de IA, con capital humano y empresas, pero falta generar un ecosistema y para eso no puede haber prohibiciones, análisis de impacto, creación de agencias", consideró Lescano.

Cabase participó del proceso de debate de la Comisión y, tras el cruce de septiembre, envió un documento a su presidente (Gollán), con observaciones donde cuestiona, entre otros aspectos, la modificación de "leyes tan disímiles como el Código Penal, el Código Civil y Comercial y la Ley de Protección de Datos Personales, sin enfocar en una cuestión o desafío concreto necesario para impulsar el desarrollo de la IA". También advierte que el proyecto parte de una visión negativa de la IA, y por eso incorpora la categoría de "Persona Afectada" por el uso de la tecnología.

El proyecto, según interpreta Cabase, identifica algunos actores del ecosistema de la IA y aplica un sistema de responsabilidad objetiva, "desestimando la presencia de factores de negligencia o dolo y omitiendo además el rol de los usuarios, así como el de los desarrolladores de las distintas aplicaciones de IA". Para la Cámara, sería preferible pensar en un concepto abierto de actores con atribución de responsabilidad bajo criterios de conducta culposa o dolosa conforme a la legislación de fondo: de esta manera se evitaría generar clasificaciones que no reflejan la realidad tecnológica y que generen barreras de entrada o de implementación de tecnología en el país.

La propuesta de Cabase frente a la posibilidad de regular la IA es analizar las legislaciones actuales y determinar qué debe ser actualizado por la incorporación de IA, en lugar de una ley general. En una suerte de regulación "quirúrgica", uno de los modelos del mundo que podría emularse es el de Japón (ver abajo) que optó por una normativa horizontal pero con una aproximación no regulatoria, sino de fomento.

El desenlace deberá esperar, según lo decidido por la Comisión de Diputados, para profundizar el análisis del proyecto, y tras las repercusiones en la escena política. Este stand-by se produce a un año de que la discusión local -y no ajena a debates en el resto del mundo (ver abajo)- se encontrara con casi 20 proyectos y ante la necesidad de uno único que los hiciera confluir (ver Convergencia Telemática nº 345, de septiembre de 2024).

Perú y Japón, en los dos extremos de la discusión

Entre los países que avanzaron en regulación de IA durante 2025, dos casos sirven de muestra sobre enfoques opuestos entre sí que están en en vías de adopción en el mundo.

El 28 de mayo de 2025, el Parlamento japonés promulgó la "Ley de Promoción de la Investigación, el Desarrollo y la Utilización de Tecnologías Relacionadas con la IA", que establece un Centro de Estrategia de IA y un Plan Fundamental. Si bien no prevé sanciones ni multas por falta de cooperación, le otorga al gobierno facultades para tomar medidas en base a sus investigaciones. Entre los principios fundamentales de la ley, está promover la productividad competitiva, garantizar la transparencia y fomentar la productividad. No define categorías de riesgo específicas, sino que fija Directrices para las Empresas, como eliminación de prejuicios y discriminación injustos y perjudiciales; protección de la privacidad y transparencia.

Al otro extremo se ubica Perú, que el 9 de septiembre de 2025 publicó el reglamento de la Ley N° 31814 ("Ley que promueve el uso de la inteligencia artificial en favor del desarrollo económico y social del país"). La normativa replica la ley europea de IA, con obligaciones dependiendo del riesgo identificado en diferentes categorías de sistemas. Además, establece que la Secretaría de Gobierno y Transformación Digital realizará un monitoreo con enfoque preventivo sobre el desarrollo e implementación de sistemas basados en IA considerados de uso indebido (prohibido) y de riesgo alto. Se crea a su vez el Centro Nacional de Innovación Digital e IA, para poner a disposición de las entidades públicas los servicios que permitan diseñar y entrenar sistemas basados en IA.

Esta nota habla de: