Antecedentes normativos de la inteligencia artificial: evolución y regulación jurídica de la IA

 

Antecedentes normativos de la inteligencia artificial: evolución y regulación jurídica de la IA

Más contenido jurídico en  elDial.com 

Por Emiliano Zito


La inteligencia artificial se erige como la herramienta tecnológica paradigmática de nuestro tiempo, capaz de intervenir tanto en actividades simples como en procesos de elevada complejidad. Aquellas cuestiones que durante décadas permanecieron confinadas al ámbito de la ciencia ficción hoy emergen como una realidad tecnológica incipiente pero efectiva, cuya proyección práctica ha comenzado a traducirse en problemas jurídicos concretos, desafiando las categorías tradicionales del Derecho y la capacidad regulatoria de los ordenamientos vigentes.”


“En el presente artículo presentaremos los antecedentes normativos regulatorios de la utilización de la IA tanto a nivel internacional como en nuestro país iniciando con un breve recorrido sobre la evolución de la IA, su conceptualización y el avance normativo internacional y nacional en su regulación actual.”

“… el fenómeno al ámbito empresarial, la IA también está transformando la manera en la que el sector privado está llevando la interacción con clientes, los esfuerzos para garantizar una experiencia satisfactoria, analizando su comportamiento, creando nuevos productos y servicios, abriendo nuevos canales de venta utilizando y contribuyendo a una gestión de negocio más eficaz, anticipando los principales indicadores financieros mediante la identificación de patrones basados en datos, entre otros usos.”

“El proceso actual sobre la Inteligencia Artificial, si bien ha presentado una evolución sideral en los últimos años, es un fenómeno de larga data, muchos autores consideran que un científico clave en el desarrollo de la IA fue Alan Turing, denominado el padre de la informática moderna, quien en sus investigaciones propuso una prueba para medir si una máquina podía pensar como un humano...”

“Es importante resaltar también los principios que ha determinado la UNESCO para la incorporación ética de estos sistemas de IA...”

“Con respecto a la forma de funcionar, en el proceso de imitar funcionalidades, sus más destacables son la autonomía y el autoaprendizaje, lo que significa que la IA toma decisiones absolutamente independientes de su creador o diseñador y, además, tiene la capacidad de seguir aprendiendo una vez puesta en circulación. Además de todo ello, tiene la habilidad de procesar enormes cantidades de datos, convirtiéndola en una valiosa herramienta que se utiliza en las más diversas áreas, para ello se nutre de datos, algoritmos y modelos que le permiten tomar ese conocimiento e iniciar con uno de los algoritmos más importantes que es el aprendizaje automático, sin esos datos, el sistema de IA resulta ineficaz para la realización de una determinada tarea independientemente de la complejidad que tenga. “

“… la IA tiene la capacidad de resolución de problemas y razonamiento, en estas como señala el autor, la máquina simula, y utilizan datos, algoritmos y probabilidades para tomar sus decisiones, en la actualidad el sistema ChatGPT tiene la función de razonar y no solo su actividad se circunscribe únicamente a la búsqueda de datos. Así, otra de las funciones es la perceptiva donde se utilizan sensores para percibir situaciones del mundo real y comunicar percepciones e información a los humanos.”

“...la IA es una tecnología que funciona a través del procesamiento de grandes cantidades de datos para identificar patrones y relaciones, utilizando algoritmos que en términos generales pueden ser definidos como un conjunto de reglas y procesos diseñados para permitir que una máquina pueda aprender y tomar decisiones por sí misma sin la intervención humana, en base a la recopilación, procesamiento, entrenamiento, validación de esos datos.”

“...la regulación normativa de la inteligencia artificial se manifiesta como un proceso en formación, atravesado por tensiones entre la promoción de la innovación tecnológica por un lado y por el otro la protección de los derechos fundamentales y la preservación de la seguridad jurídica.”

“... el derecho está operando mayormente de manera reactiva, intentando adaptar categorías preexistentes a este fenómeno tecnológico que desafía los esquemas tradicionales regulatorios, en este sentido se presentan por un lado una combinación de instrumentos de soft law tales como principios, guías y recomendaciones, con regulaciones de hard law de carácter general que se destacan por ser parciales, sectoriales y en proceso de consolidación como la Ley de Inteligencia Artificial de la Unión Europea...”

“...La supervisión y decisión humana resulta crítica, ya que un sistema de IA nunca puede reemplazar la responsabilidad final de las personas ni su obligación de rendir cuentas. Asimismo, se manifiesta que la equidad y la no discriminación buscan combatir sesgos algorítmicos y garantizar que los beneficios de la tecnología sean accesibles para grupos vulnerables y países con menores infraestructuras.”

“...la evolución normativa de nuestro país respecto a la IA no existe un cuerpo normativo de carácter general que la regule de manera exhaustiva tal como se ha realizado en el ámbito de la Unión Europea, Italia o Perú…

Las raíces legales de la revolución digital: antecedentes normativos regulatorios de la IA

I.Introducción.

 

La inteligencia artificial se erige como la herramienta tecnológica paradigmática de nuestro tiempo, capaz de intervenir tanto en actividades simples como en procesos de elevada complejidad. Aquellas cuestiones que durante décadas permanecieron confinadas al ámbito de la ciencia ficción hoy emergen como una realidad tecnológica incipiente pero efectiva, cuya proyección práctica ha comenzado a traducirse en problemas jurídicos concretos, desafiando las categorías tradicionales del Derecho y la capacidad regulatoria de los ordenamientos vigentes.

 

En el presente artículo presentaremos los antecedentes normativos regulatorios de la utilización de la IA tanto a nivel internacional como en nuestro país iniciando con un breve recorrido sobre la evolución de la IA, su conceptualización y el avance normativo internacional y nacional en su regulación actual.

 

 

II. La inteligencia artificial. Breves consideraciones de su evolución e historia y su definición.

 

Numerosos autores sostienen que la inteligencia artificial configura una nueva revolución industrial, en tanto su desarrollo y expansión generan un impacto profundo en la organización social, económica y jurídica, cuyo alcance, en sus efectos positivos como negativos aún no puede determinarse con certeza científica.

 

La llegada de la Inteligencia Artificial y su utilización en distintas actividades se caracteriza por una gran velocidad, no sólo se utiliza en actividades complejas desarrolladas en organizaciones públicas y/o privadas sino también en tareas diarias no complejas que desarrollamos como humanidad. Tal como lo destacara Romero, el uso de la inteligencia artificial se encuentra en una constante expansión ya que cerca del 80% de las personas en algunos países utilizan inteligencia artificial, incluso sin darse cuenta; siendo sólo la tercera parte consciente de ello[1].

 

Así llevado el fenómeno del ámbito empresarial, la IA también está transformando la manera en la que el sector privado está llevando la interacción con clientes, los esfuerzos para garantizar una experiencia satisfactoria, analizando su comportamiento, creando nuevos productos y servicios, abriendo nuevos canales de venta utilizando y contribuyendo a una gestión de negocio más eficaz, anticipando los principales indicadores financieros mediante la identificación de patrones basados en datos, entre otros usos[2].

 

El proceso actual sobre la Inteligencia Artificial, si bien ha presentado una evolución sideral en los últimos años, es un fenómeno de larga data, muchos autores consideran que un científico clave en el desarrollo de la IA fue Alan Turing, denominado el padre de la informática moderna quien en sus investigaciones propuso una prueba para medir si una máquina podía pensar como un humano. El test consistía en un juego de imitación, en el que un interrogador debía averiguar quién era una máquina y quién era una persona solo mediante preguntas escritas. Si el interrogador no podía distinguir a la máquina de la persona, se consideraba que la máquina había pasado el test. Las contribuciones de Turing a la ciencia de la computación sentaron las bases para la investigación moderna en IA.

 

Maguregui realiza una evolución sobre los antecedentes destacando a la Conferencia de Dartmouth, Estados Unidos de 1956 que reunió a todos los que trabajaban en el campo de la IA, en ella se acuñó el término inteligencia artificial, se establecieron los objetivos y los métodos de esa disciplina.

 

Desde entonces, la IA ha avanzado gracias al desarrollo de la computación, la programación y el aprendizaje automático (machine learning), que es la capacidad de los sistemas de aprender por sí mismos a partir de entrenamientos con datos masivos y experiencias. Así en 1997, Deep Blue, la supercomputadora de IBM, derrotó al campeón mundial de ajedrez, el ruso Garry Kasparov, utilizando una combinación de altísima capacidad de cómputo y algoritmos de búsqueda para evaluar millones de posiciones por segundo. Aunque algunos argumentan que no fue una verdadera IA, la victoria de Deep Blue marcó un hito importante en la relación entre humanos y máquinas.

 

En 2016, AlphaGo, una inteligencia artificial desarrollada por DeepMind de Google, venció al surcoreano Lee Sedol, uno de los mejores jugadores de go en el mundo. El go es un juego milenario de origen chino que diferencia del ajedrez, tiene un espacio de búsqueda mucho más amplio, lo que hace que la victoria de AlphaGo sea aún más impresionante[3]. A partir del perfeccionamiento de los llamados grandes modelos de lenguaje, como el GPT2 y GPT3 hasta llegar al famoso ChatGPT de la empresa tecnológica OpenAI, la inteligencia artificial dio un salto enorme con el desarrollo de una interfaz muy accesible, fácil de usar, y fue acompañado por distintos aportes efectuados en nuestra aldea global, que comenzaron a interesarse por el fenómeno y presentaron una definición sobre lo que se entiende por inteligencia artificial.

 

Respecto a este proceso, no existe consenso en cuanto a una única definición. Por un lado, la Real Academia Española la define como una disciplina científica que se ocupa de crear programas informáticos que ejecutan operaciones comparables a las que realiza la mente humana, como el aprendizaje o el razonamiento lógico Por otro lado, la propuesta de regulación de la IA de la Unión Europea, definió a la inteligencia artificial como el software que se desarrolla empleando una o varias de las técnicas y estrategias y que puede, para un conjunto determinado de objetivos definidos por seres humanos, generar información de salida como contenidos, predicciones, recomendaciones o decisiones que influyan en los entornos con los que interactúa lógicamente[4].

 

Se destaca también la definición efectuada por la UNESCO quien la ha definido como, máquinas capaces de imitar ciertas funcionalidades de la inteligencia humana incluyendo la percepción, el aprendizaje, el razonamiento, la resolución de problemas, la interacción del lenguaje e incluso la producción creativa[5].

 

Es importante resaltar también los principios que ha determinado la UNESCO para la incorporación ética de estos sistemas de IA entre los que encuentran los siguientes:

 

                    Principio de proporcionalidad: La decisión de utilizar sistemas de IA y la elección del método de IA deberían justificarse de las siguientes maneras: a) el método de IA elegido debería ser adecuado y proporcional para lograr un objetivo legítimo determinado; b) el método de IA elegido no debería vulnerar los valores fundamentales enunciados en el presente documento, en particular, su utilización no debe constituir una violación o un abuso de los derechos humanos; y c) el método de IA elegido debería ser adecuado al contexto y basarse en fundamentos científicos rigurosos. En los casos en que se entienda que las decisiones tienen un impacto irreversible o difícil de revertir o que pueden implicar decisiones de vida o muerte, la decisión final debería ser adoptada por un ser humano. En particular, los sistemas de IA no deberían utilizarse con fines de calificación social o vigilancia masiva.

 

                    Principio de seguridad y discriminación: Los daños no deseados (riesgos de seguridad) y las vulnerabilidades a los ataques (riesgos de protección) deberían ser evitados y deberían tenerse en cuenta, prevenirse y eliminarse a lo largo del ciclo de vida de los sistemas de IA para garantizar la seguridad y la protección de los seres humanos, del medio ambiente y de los ecosistemas. La seguridad y la protección de la IA se propiciarán mediante el desarrollo de marcos de acceso a los datos que sean sostenibles, respeten la privacidad y fomenten un mejor entrenamiento y validación de los modelos de IA que utilicen datos de calidad.

 

                    Principio de equidad y no discriminación: Los actores de la IA deberían promover la justicia social, salvaguardar la equidad y luchar contra todo tipo de discriminación, de conformidad con el derecho internacional. Ello supone adoptar un enfoque inclusivo para garantizar que los beneficios de las tecnologías de la IA estén disponibles y sean accesibles para todos, teniendo en cuenta las necesidades específicas de los diferentes grupos de edad, los sistemas culturales, los diferentes grupos lingüísticos, las personas con discapacidad, las niñas y las mujeres y las personas desfavorecidas, marginadas y vulnerables o en situación de vulnerabilidad.

 

                    Principio de sostenibilidad: El desarrollo de sociedades sostenibles depende del logro de un complejo conjunto de objetivos relacionados con distintas dimensiones humanas, sociales, culturales, económicas y ambientales. La llegada de las tecnologías de la IA puede beneficiar los objetivos de sostenibilidad o dificultar su consecución, dependiendo de la forma en que se apliquen en países con diferentes niveles de desarrollo. Por consiguiente, la evaluación continua de los efectos humanos, sociales, culturales, económicos y ambientales de las tecnologías de la IA debería llevarse a cabo con pleno conocimiento de las repercusiones de dichas tecnologías en la sostenibilidad.

 

                    Derecho a la intimidad y protección de datos: La privacidad, que constituye un derecho esencial para la protección de la dignidad, la autonomía y la capacidad de actuar de los seres humanos, debe ser respetada, protegida y promovida a lo largo del ciclo de vida de los sistemas de IA. Es importante que los datos para los sistemas de IA se recopilen, utilicen, compartan, archiven y supriman de forma coherente con el derecho internacional y acorde con los valores y principios enunciados en la presente Recomendación, respetando al mismo tiempo los marcos jurídicos nacionales, regionales e internacionales pertinentes.

 

                    Supervisión y decisión humanas: Los Estados Miembros deberían velar por que siempre sea posible atribuir la responsabilidad ética y jurídica, en cualquier etapa del ciclo de vida de los sistemas de IA, así como en los casos de recursos relacionados con sistemas de IA, a personas físicas o a entidades jurídicas existentes. La supervisión humana se refiere, por tanto, no solo a la supervisión humana individual, sino también a la supervisión pública inclusiva, según corresponda.

 

                    Principio de Transparencia y explicabilidad: La transparencia y la explicabilidad de los sistemas de IA suelen ser condiciones previas fundamentales para garantizar el respeto, la protección y la promoción de los derechos humanos, las libertades fundamentales y los principios éticos. La transparencia es necesaria para que los regímenes nacionales e internacionales pertinentes en materia de responsabilidad funcionen eficazmente. La falta de transparencia también podría mermar la posibilidad de impugnar eficazmente las decisiones basadas en resultados producidos por los sistemas de IA y, por lo tanto, podría vulnerar el derecho a un juicio imparcial y a un recurso efectivo, y limita los ámbitos en los que estos sistemas pueden utilizarse legalmente.

 

                    Principio de responsabilidad y rendición de cuentas. Deberían elaborarse mecanismos adecuados de supervisión, evaluación del impacto, auditoría y diligencia debida, incluso en lo que se refiere a la protección de los denunciantes de irregularidades, para garantizar la rendición de cuentas respecto de los sistemas de IA y de su impacto a lo largo de su ciclo de vida. Dispositivos tanto técnicos como institucionales deberían garantizar la auditabilidad y la trazabilidad (del funcionamiento) de los sistemas de IA, en particular para intentar solucionar cualquier conflicto con las normas relativas a los derechos humanos y las amenazas al bienestar del medio ambiente y los ecosistemas.

 

                    Principio de sensibilización y educación. La sensibilización y la comprensión del público respecto de las tecnologías de la IA y el valor de los datos deberían promoverse mediante una educación abierta y accesible, la participación cívica, las competencias digitales y la capacitación en materia de ética de la IA, la alfabetización mediática e informacional y la capacitación dirigida conjuntamente por los gobiernos, las organizaciones intergubernamentales, la sociedad civil, las universidades, los medios de comunicación, los dirigentes comunitarios y el sector privado, y teniendo en cuenta la diversidad lingüística, social y cultural existente, a fin de garantizar una participación pública efectiva, de modo que todos los miembros de la sociedad puedan adoptar decisiones informadas sobre su utilización de los sistemas de IA y estén protegidos de influencias indebidas.

 

                    Principio de gobernanza y colaboración adaptativas y de múltiples partes interesadas. En la utilización de datos deben respetarse el derecho internacional y la soberanía nacional. Esto significa que los Estados, en cumplimiento del derecho internacional, pueden regular los datos generados dentro de sus territorios o que pasan por ellos y adoptar medidas para la regulación efectiva de los datos, en particular su protección, sobre la base del respeto del derecho a la privacidad, de conformidad con el derecho internacional y otras normas relativas a los derechos humanos La participación de las diferentes partes interesadas a lo largo del ciclo de vida de los sistemas de IA es necesaria para garantizar enfoques inclusivos de la gobernanza de la IA, de modo que los beneficios puedan ser compartidos por todos, y para contribuir al desarrollo sostenible[6].

 

Con respecto a la forma de funcionar, en el proceso de imitar funcionalidades, sus más destacables son la autonomía y el autoaprendizaje; lo que significa que la IA toma decisiones absolutamente independientes de su creador o diseñador y, además, tiene la capacidad de seguir aprendiendo una vez puesta en circulación. Además de todo ello, tiene la habilidad de procesar enormes cantidades de datos convirtiéndola en una valiosa herramienta que se utiliza en las más diversas áreas[7], para ello se nutre de datos, algoritmos y modelos que le permiten tomar ese conocimiento e iniciar con uno de los algoritmos más importantes que es el aprendizaje automático, sin esos datos, el sistema de IA resulta ineficaz para la realización de una determinada tarea independientemente de la complejidad que tenga.

 

Los distintos procesos que realiza la máquina incluyen las siguientes técnicas de procesamiento de datos que son clasificados de la siguiente manera: Aprendizaje automático (Machine learning), que se refiere a la capacidad de las máquinas para aprender por sí solas y mejorar su rendimiento con el tiempo sin necesidad de una intervención humana basándose en datos, Aprendizaje profundo (Deep learning) este tipo de aprendizaje profundo utiliza redes neuronales multicapa para analizar datos y realizar tareas. La diferencia entre ambos es que el sistema automático es más amplio y se refiere a las técnicas generales que permiten a las máquinas aprender por sí mismas, el profundo es un enfoque específico que hace uso de redes neuronales para completar una tarea similar a la humana, como ver, escribir o crear arte), las redes neuronales, o redes neuronales artificiales (RNA), son un componente del aprendizaje profundo que imita el procesamiento de datos del cerebro humano. Una red neuronal está formada por múltiples capas de neuronas artificiales (llamadas nodos), que se utilizan para procesar todos esos datos[8].Otro de los métodos es el procesamiento del lenguaje natural (PLN), que permite a las máquinas comprender, procesar e imitar el lenguaje humano, la visión artificial que implica que las computadoras pueden entender datos visuales como fotos y videos para tomar decisiones.

 

También la IA tiene la capacidad de resolución de problemas y razonamiento, en estas como señala el autor, la máquina simula, y utilizan datos, algoritmos y probabilidades para tomar sus decisiones, en la actualidad el sistema ChatGPT tiene la función de razonar y no solo su actividad se circunscribe únicamente a la búsqueda de datos. Así, otra de las funciones es la perceptiva donde se utilizan sensores para percibir situaciones del mundo real y comunicar percepciones e información a los humanos.

 

Finalmente, la función cognitiva donde la IA imita los procesos del pensamiento humano al utilizar algoritmos y datos, tomar decisiones, hacer predicciones y proporcionar información. Estos sistemas no pueden imitar a la perfección el pensamiento humano, pero están entrenados para entender el contexto además del contenido[9]. Como vemos de los antecedentes presentados la IA es una tecnología que funciona a través del procesamiento de grandes cantidades de datos para identificar patrones y relaciones, utilizando algoritmos que en términos generales pueden ser definidos como un conjunto de reglas y procesos diseñados para permitir que una máquina pueda aprender y tomar decisiones por sí misma sin la intervención humana, en base a la recopilación, procesamiento, entrenamiento, validación de esos datos[10].

 

Por este fenómeno de realizar diversas actividades sin intervención humana, diversos autores como expresáramos al inicio de este acápite hablan de una nueva revolución industrial, ya que, por primera vez en la historia de la humanidad, una máquina tiene la capacidad de realizar actividades que, hasta el momento de su creación, y posterior auge, estaban reservadas únicamente al hombre como especie.

 

Este avance tecnológico tiene la principal característica de mutar y avanzar a pasos agigantados; semana a semana surgen en las noticias nuevos usos sobre la IA, lamentablemente la regulación normativa mundial no se ha desarrollado con esa velocidad siendo escasos los marcos jurídicos que la regulan su uso.

 

Así, la regulación normativa de la inteligencia artificial se manifiesta como un proceso en formación, atravesado por tensiones entre la promoción de la innovación tecnológica por un lado y por el otro la protección de los derechos fundamentales y la preservación de la seguridad jurídica.

 

En este contexto, el derecho está operando mayormente de manera reactiva, intentando adaptar categorías preexistentes a este fenómeno tecnológico que desafía los esquemas tradicionales regulatorios, en este sentido se presentan por un lado una combinación de instrumentos de soft lawtales como principios, guías y recomendaciones, con regulaciones de hard law de carácter general que se destacan por ser parciales, sectoriales y en proceso de consolidación como la Ley de Inteligencia Artificial de la Unión Europea (Reglamento UE Nº 2024/1689) que fue aprobada en el año 2024 y determinaba una vigencia diferida en alguna de sus regulaciones para el año en 2026.

 

No obstante, nuevamente fue pospuesta por la Comisión Europea para el año 2027[11], en relación a los requisitos más exigentes establecidos en la Ley de Inteligencia Artificial Europea, lo que pone de manifiesto las dificultades prácticas de implementación de un régimen regulatorio de alta densidad normativa. La postergación, que alcanza especialmente a los sistemas considerados de alto riesgo, revela la tensión persistente entre los objetivos de protección de derechos y la necesidad de no obstaculizar la innovación o generar la existencia de obligaciones que difícilmente puedan ser cumplimentadas en sectores en pleno auge tecnológico.

 

 

III. Antecedentes Internacionales de regulación de IA.

 

En cuanto a los antecedentes y/o intentos internacionales regulatorios de la IA, podemos mencionar en primer a la Conferencia de Asilomar, celebrada en California en el año 2017, que reunió a investigadores, desarrolladores, juristas y referentes del sector tecnológico con el objetivo de identificar los riesgos asociados al desarrollo de la inteligencia artificial avanzada y establecer principios orientadores para su diseño, implementación y gobernanza. Como resultado de dicho encuentro se formularon los denominados Principios de Asilomar, un conjunto de veintitrés directrices de carácter no vinculante que abordan cuestiones relativas a la investigación responsable, la seguridad, la transparencia, el control humano y el impacto social de la IA. Los Principios de Asilomar, si bien no fueron adoptados en Organismos Multilaterales Internacionales, y carecen de fuerza jurídica, su relevancia radica en haber anticipado muchas de las preocupaciones que hoy estructuran los marcos normativos actuales.

 

En los apartados siguientes se desarrollarán los esquemas normativos que revisten mayor importancia en la regulación de la inteligencia artificial a nivel internacional, europeo y latinoamericano.

 

III. a. Organización para la Cooperación y el Desarrollo Económicos (OCDE)

 

El primer estándar normativo impulsado por el consenso de distintas nacionales fue realizado en el seno de la OCDE[12] en el año 2019, mediante la impulsión de la Recomendación sobre la Inteligencia Artificial[13] que fue aprobada originalmente por 42 países, resultando un instrumento jurídico no vinculante que representó el compromiso de los países adherentes, determinando distintas definiciones conceptuales tales como sistema de IA, ciclo de vida del sistema de IA, determinando que comprende fases entre las que se encuentran, la planificación y diseño; recopilación y tratamiento de datos; creación o adaptación de modelos; prueba y validación; despliegue; explotación, supervisión; y finalmente, su retirada o desmantelamiento.

 

Dentro de ese marco, se definió también a los actores de la IA como aquellos con un papel activo en dicho ciclo, y se define el concepto de conocimientos sobre IA, que abarca desde competencias técnicas y algoritmos hasta la gobernanza y las buenas prácticas necesarias para la gestión de riesgos.

 

Se establecieron cinco principios que deben considerarse como un conjunto complementario para garantizar una IA fiable:

 

• Crecimiento inclusivo y desarrollo sostenible: Los actores deben buscar activamente resultados beneficiosos para las personas y el planeta, estimulando la creatividad, reduciendo las desigualdades de género, sociales y económicas, y protegiendo el medio ambiente.

 

• Valores centrados en el ser humano y equidad: Es obligatorio respetar el Estado de derecho, los derechos humanos y los valores democráticos, incluyendo la dignidad, la libertad y la justicia social. En el documento, se hace especial énfasis en implementar mecanismos de intervención y supervisión humana para mitigar riesgos derivados de usos indebidos, ya sean intencionados o no.

 

• Transparencia y explicabilidad: Se exige una divulgación responsable que permita a las personas entender cuándo interactúan con una IA. Cuando sea viable, los actores deben suministrar información sobre los factores y el razonamiento detrás de los resultados para que los afectados puedan comprenderlos y, en caso de efectos negativos, tengan la capacidad de cuestionarlos y desafiarlos.

 

• Solidez, seguridad y protección: Los sistemas deben ser robustos y seguros durante toda su vida útil, funcionando adecuadamente incluso en condiciones adversas o de uso indebido. Deben existir protocolos para invalidar o desmantelar de forma segura aquellos sistemas que muestren comportamientos indeseados o representen daños indebidos.

 

• Responsabilidad: Los actores son responsables del funcionamiento de los sistemas y del cumplimiento de los principios mencionados. Para ello, deben asegurar la trazabilidad de los datos, procesos y decisiones, aplicando un enfoque sistemático de gestión de riesgos que considere sesgos dañinos, derechos laborales y propiedad intelectual[14].

 

Asimismo, contiene distintas políticas nacionales en aras de crear una IA fiable a desarrollarse por los gobiernos y sus ejes son los siguientes:

 

• Inversión y ecosistema: Los Estados deben fomentar la inversión pública y privada a largo plazo en I+D y ciencia abierta, priorizando herramientas de código fuente abierto y conjuntos de datos representativos que respeten la privacidad. Se recomienda promover mecanismos como los "data trusts" (administradores de datos) para garantizar una difusión de datos segura, justa y legal.

 

• Gobernanza ágil: Se propone el uso de la experimentación en entornos controlados (sandboxes) para probar sistemas antes de su escala masiva, adoptando marcos regulatorios flexibles basados en resultados que fomenten la competencia sin frenar el avance tecnológico.

 

• Transformación laboral: Un eje clave es la preparación para los cambios en el mercado de trabajo mediante el diálogo social, la formación continua y la protección social para los trabajadores afectados, asegurando que los beneficios de la IA se repartan de forma justa.

 

Finalmente, el documento instó a la cooperación global para armonizar normas técnicas internacionales y desarrollar indicadores comparables que permitan medir el despliegue de la IA a escala mundial. La responsabilidad de supervisar estos avances recae en el Comité de Política Digital de la OCDE, que tiene como principal misión el desarrollo de marcos de medición basados en datos empíricos, elaborar orientaciones prácticas para la implementación de la Recomendación y presentar informes periódicos al Consejo de la OCDE sobre la pertinencia y aplicación de estas directrices en el tiempo.

 

Es importante señalar que la Recomendación fue revisada por el Consejo de la OCDE el 8 de noviembre de 2023 donde se actualizaron distintas definiciones con el fin de garantizar que siga siendo técnicamente precisa y refleje los avances tecnológicos, incluso en lo que respecta a la IA generativa.

 

En mayo de 2024, nuevamente fue revisada por el Consejo de la OCDE donde se reforzaron y aclararon puntos claves en cuanto a la seguridad de los sistemas de IA, introduciendo mecanismos y salvaguardias para gestionar los sistemas de IA en cuanto puedan causar daños indebidos o exhibir comportamientos no deseados, reflejando la importancia de abordar el problema de la desinformación y la manipulación de los datos en el contexto de la IA generativa, enfatizando la necesidad que las empresas que desarrollan, implementan o utilizan sistemas de IA lo hagan de manera ética, legal y socialmente responsable, cooperando con los distintos actores implicados y respetando los derechos de las personas afectadas por la IA.

 

Asimismo, en esa revisión se aclaró también que los sistemas de IA deben desarrollarse en el marco de la transparencia, divulgación responsable, la sostenibilidad ambiental y subrayó la conveniencia que las jurisdicciones trabajen para promover entornos normativos y regulatorios compatibles y coherentes para la IA, que faciliten la innovación y la cooperación internacional. 

 

III. b. Organización de las Naciones Unidas (ONU).

 

La Organización de las Naciones Unidas[15] ha adoptado un enfoque multilateral para la regulación normativa de la inteligencia artificial, centrado en principios de derechos humanos, equidad tecnológica, cooperación internacional y sostenibilidad.

 

Principalmente se han adoptado distintas Resoluciones en la Asamblea General[16] que constituye el órgano principal de la ONU donde se encuentran representados los 193 países.

 

Con respecto a la inteligencia artificial, consideramos que el punto de partida en cuanto a su tratamiento por la Asamblea General de las Naciones Unidas fue la Resolución Nº A/77/320, aprobada el 25 de julio de 2023, que si bien no establece cuestiones específicas sobre la IA, la menciona y brinda un marco para entender el contexto multilateral en el que se inserta el tratamiento de la IA en los mecanismos que cuenta la ONU establecidos en su Carta, estableciendo que el cambio tecnológico rápido es un instrumento poderoso para cumplir la Agenda 2030, ya que permite mejorar los ingresos reales y difundir soluciones a problemas económicos, sociales y ambientales que se presentan en la actualidad. Esta Resolución expresa una grave preocupación por el hecho de que un tercio de la población mundial carece de acceso a Internet, lo que obliga a los Estados a priorizar el cierre de las brechas digitales, especialmente la de género, promoviendo el uso de software de código y estándares abiertos para garantizar que nadie quede atrás en la utilización de las nuevas herramientas tecnológicas[17].

 

Hacia fines de 2023, la Resolución A/78/213 de la Asamblea General[18] impulsada el 19 de diciembre de ese año profundizó los postulados relativos a la protección de los derechos humanos en el contexto digital, reafirmando el principio de que los mismos derechos que las personas tienen fuera de línea deben ser protegidos en línea. Este documento determinó que la responsabilidad primordial de proteger estos derechos recae en el Estado, mientras que las empresas deben ejercer la debida diligencia para evitar impactos negativos. Asimismo, exhortó a los Estados a utilizar técnicas como cortes de internet y vigilancia arbitraria, destacando que tecnologías como el cifrado y el anonimato son vitales para la libertad de expresión y la labor de los periodistas.

 

En 2024, se dictaron distintas resoluciones relacionadas a la Inteligencia Artificial, el 21 de marzo la Resolución A/78/L49[19] sentó a las bases para una gobernanza global de la inteligencia artificial (IA) centrada en el desarrollo sostenible y el respeto irrestricto a los derechos humanos determinando un marco conceptual y de definiciones relacionados a los sistemas de IA que deben ser seguros, protegidos y fiables centrados en las personas, siendo de vital importancia la explicación en su funcionamiento y manteniendo la privacidad con el objetivo de cerrar la brecha digital debiendo respetarse los derechos humanos y las libertades de las personas. Asimismo, determinó un lineamiento doctrinario clave, que resulta ser la promoción de la transparencia y la previsibilidad en los algoritmos, especialmente en aquellos sistemas que apoyan la toma de decisiones que afectan a los usuarios finales, también fomenta la supervisión humana y la provisión de alternativas o medios de reparación para quienes se vean afectados negativamente por decisiones automatizadas. Finalmente, realiza un llamado urgente a analizar y mitigar los sesgos algorítmicos para evitar que la IA perpetúe formas de discriminación o desigualdad racial, de género o hacia personas con discapacidad.

 

La Resolución A/78/265[20], dictada el 01 de abril de ese año, introdujo el marco global para el aprovechamiento de sistemas de inteligencia artificial seguros y fiables orientados al desarrollo sostenible. Esta Resolución determina que tales sistemas deben estar centrados en las personas, ser éticos, inclusivos y respetar plenamente el derecho internacional durante todo su ciclo de vida. La precitada norma, expresó la urgencia de alcanzar un consenso mundial para evitar la fragmentación de la gobernanza y solicita fortalecer la asistencia técnica y financiera a los países en desarrollo para cerrar la brecha de inteligencia artificial. Además, se declara la promoción del uso de herramientas técnicas como el etiquetado de contenidos generados por IA para proteger la integridad de la información.

 

Posteriormente, la Resolución A/78/311[21], del 1 de julio de 2024, se enfocó principalmente en expresar la necesidad del aumento de la cooperación internacional para la creación de capacidad en IA, aclarando el alcance de sus postulados que se limita al ámbito no militar. En esta Resolución se expresó también que se debe fomentar un entorno empresarial justo, abierto e inclusivo en todo el ciclo de vida de los sistemas de IA, promoviendo la transferencia de tecnología en condiciones mutuamente acordadas. Determina que las Naciones Unidas deben desempeñar un papel central y coordinador en esta cooperación, facilitando la participación equitativa de los países en desarrollo en los foros de gobernanza internacional.

 

El marco estratégico se consolidó el 22 de septiembre de 2024 con la Resolución A/79/1[22], conocida como el Pacto para el Futuro, que incluye el Pacto Digital Global. Este documento integral refleja el compromiso de las naciones en conectar a toda la humanidad a Internet para 2030 y establece principios para una gobernanza de datos responsable e interoperable.

 

El Pacto para el Futuro, expresa la necesidad de mejorar la gobernanza internacional de la IA en beneficio de la humanidad, buscando que la tecnología sea un motor para la sostenibilidad ambiental y los derechos humanos, siempre bajo una supervisión humana eficaz. También establece que las decisiones actuales deben salvaguardar los intereses de las generaciones futuras, garantizando un entorno tecnológico ético y equitativo.

 

Poco después de emitida esa declaración, la Resolución A/79/194[23], del 19 de diciembre de 2024, actualizó los compromisos sobre las TIC para el desarrollo sostenible, enfatizando que el acceso no debe ser solo una conexión, sino una calidad de acceso multidimensional que incluya velocidad, asequibilidad e idioma. Esta norma resalta la importancia vital del multilingüismo en la IA, instando a proteger la diversidad lingüística y cultural en los datos utilizados para entrenar grandes modelos de lenguaje. Asimismo, reconoce que la economía digital es una parte creciente de la economía mundial y solicita apoyo para que los países en desarrollo aprovechen los datos en pro del crecimiento económico y la inclusión financiera digital.

 

Finalmente, la Resolución más reciente fue la A/79/325[24], aprobada el 26 de agosto de 2025, la que establece el Panel Científico Internacional Independiente sobre IA y el Diálogo Mundial sobre la Gobernanza de la IA. El Panel estará compuesto por 40 miembros multidisciplinarios que actuarán a título personal para emitir evaluaciones científicas anuales sobre riesgos y oportunidades de la IA. Por su parte, el Panel se configura como una plataforma anual para que Gobiernos y otras partes interesadas debatan sobre la cooperación internacional, la interoperabilidad de los enfoques de gobernanza y la reducción de las disparidades tecnológicas. Esta Resolución exige transparencia absoluta a los expertos del panel sobre posibles conflictos de interés para asegurar la integridad científica en la regulación global de la tecnología.

 

III. c. UNESCO.

 

La UNESCO[25] en el año 2021, impulsó la Recomendación sobre la Ética de la Inteligencia Artificial que fue adoptada por sus 193 Estados miembros en noviembre de 2021. Esta Recomendación es el primer instrumento global de este tipo que ofrece un marco ético universal aplicable a la IA, basada en un marco integral, global, multicultural y evolutivo de valores, principios y acciones interdependientes, que puede guiar a las sociedades a la hora de afrontar de manera responsable los efectos conocidos y desconocidos de las tecnologías de la IA en los seres humanos, las sociedades y el medio ambiente, ofreciendo una base para aceptar o rechazar las tecnologías de la IA.

 

Considera a la ética como una base dinámica para la evaluación y la orientación normativas regulatorias de las tecnologías de la IA, tomando como referencia la dignidad humana, el bienestar y la prevención de daños y apoyándose en la ética de la ciencia y la tecnología[26].

 

Entre los principios que deben regir la IA, la Recomendación menciona a la proporcionalidad y la inocuidad, que exigen que los procesos no excedan lo necesario para alcanzar objetivos legítimos y que las decisiones de vida o muerte nunca se cedan a sistemas automáticos. La supervisión y decisión humana resulta crítica, ya que un sistema de IA nunca puede reemplazar la responsabilidad final de las personas ni su obligación de rendir cuentas. Asimismo, se manifiesta que la equidad y la no discriminación buscan combatir sesgos algorítmicos y garantizar que los beneficios de la tecnología sean accesibles para grupos vulnerables y países con menores infraestructuras.

 

En cuanto a los ámbitos de acción política, el documento establece la necesidad de implementar evaluaciones de impacto ético para analizar beneficios y riesgos, especialmente en poblaciones marginadas. La gobernanza de la IA debe ser inclusiva, multidisciplinaria y transparente, contando con mecanismos de aplicación que permitan investigar y reparar daños causados por estos sistemas. Respecto a la política de datos, los estados deben garantizar la privacidad y la seguridad total de la información sensible, promoviendo marcos legislativos que protejan los derechos de las personas sobre sus datos personales.

 

Los lineamientos sectoriales establecidos priorizan áreas como la igualdad de género, buscando que la IA no exacerbe las brechas salariales ni los estereotipos, y la educación, fomentando competencias digitales y el pensamiento crítico desde niveles elementales. En el ámbito de la cultura, el documento promueve el uso de la IA para preservar el patrimonio y las lenguas indígenas, evitando la concentración del mercado cultural en unos pocos actores. En salud y bienestar social, exige que el desarrollo de soluciones de predicción médica sea seguro y eficaz, manteniendo siempre la decisión médica final en manos de seres humanos.

 

Finalmente, la Recomendación insta a los Estados a gestionar el impacto en la economía y el trabajo, mediante programas de reconversión profesional para empleados en riesgo de desplazamiento por la automatización. Para asegurar la aplicación efectiva de estos lineamientos, la UNESCO propone herramientas de seguimiento como la metodología de evaluación del estadio de preparación y el fortalecimiento de la cooperación internacional para cerrar brechas geotecnológicas. Finalmente, la Recomendación subraya que la responsabilidad ética y jurídica debe ser atribuible a personas físicas o entidades jurídicas, y nunca debe otorgarse personalidad jurídica a los sistemas de IA.

 

III.d. Unión Europea.

 

La Unión Europea en el año 2024 impulsó su marco normativo comunitario denominado Ley de Inteligencia Artificial (Reglamento UE Nº 2024/1689) que sentó las bases para la regulación de la IA en la Comunidad y que no obstante de haberse impulsado, tiene una vigencia diferida que se encontraba prevista para el 2026, pero nuevamente fue pospuesta para el año 2027 en algunos de sus postulados.

 

El sistema normativo desarrollado respecto a la Inteligencia Artificial en el ámbito de la Unión Europea constituye el faro a seguir a la hora de diseñar un sistema normativo atento a la gran exhaustividad que caracteriza al diseño regulatorio.

 

Así las cosas, la Ley de Inteligencia Artificial Europea, estableció un marco jurídico armonizado para el desarrollo, comercialización y uso de sistemas de inteligencia artificial (IA), siendo su objetivo principal garantizar que la IA se utilice de manera segura y respetuosa con los derechos fundamentales, promoviendo al mismo tiempo la innovación y la competitividad mediante el establecimiento de un marco jurídico uniforme, en particular para el desarrollo, la introducción en el mercado, la puesta en servicio y la utilización de sistemas de inteligencia artificial en la Unión, de conformidad con sus valores, con la finalidad de promover la adopción de una inteligencia artificial (IA) centrada en el ser humano y fiable, y, garantizando al mismo tiempo un elevado nivel de protección de la salud, la seguridad y los derechos consagrados en la Carta de los Derechos Fundamentales de la Unión Europea.

 

Es importante señalar que, esta normativa respondió a la necesidad de evitar la fragmentación normativa entre los Estados de la Comunidad Europea, estableciendo reglas comunes que aseguren un nivel elevado y coherente de protección jurídica, especialmente en lo relativo a la transparencia, la supervisión y la responsabilidad de los operadores de sistemas de IA.

 

La Ley de Inteligencia Europea adopta un enfoque basado en el riesgo, categorizando los sistemas de inteligencia artificial según el nivel de amenaza que puedan representar para los derechos y libertades fundamentales de las personas, prohibiéndose aquellos sistemas que manipulan el comportamiento humano, permiten la categorización biométrica sin base jurídica clara o la puntuación social por parte de autoridades públicas.

 

Por otro lado también, se regulan de manera estricta los sistemas de alto riesgo, que comprenden aplicaciones en sectores sensibles como la educación, la salud, el empleo, la migración, la seguridad pública y la administración de justicia. Para estos últimos, el reglamento impone obligaciones de registro, evaluación de conformidad, supervisión humana, trazabilidad y transparencia en su funcionamiento.

 

Las obligaciones determinadas por la norma europea alcanzan tanto a proveedores como a usuarios de sistemas de IA, quienes deben garantizar que dichos sistemas cumplan con los requisitos técnicos, éticos y jurídicos establecidos, exigiéndose la elaboración de documentación técnica detallada, la implementación de sistemas de gestión de riesgos, y la garantía de explicabilidad de los resultados obtenidos por los algoritmos. Además, se refuerzan los mecanismos de supervisión ex ante y ex post mediante autoridades competentes designadas en cada Estado miembro, bajo la coordinación de una nueva Oficina Europea de Inteligencia Artificial.

 

Asimismo, en la Ley se prevén sanciones proporcionales y disuasorias en caso de incumplimiento, con multas que pueden alcanzar hasta 35 millones de euros o el 7 % del volumen de negocios anual global de la empresa infractora, dependiendo de la gravedad de la infracción y el tipo de obligación vulnerada y se determina que las plataformas de IA deben contar con un sistema de control fidedigno de trazabilidad particularmente en lo que se refiere a cuestiones relacionadas a la opacidad y complejidad exigiendo la norma, transparencia antes de su introducción en el mercado o puesta de servicio de modo que permitan comprender como ese sistema funciona.

 

El Capítulo VII de la Ley de IA, determina la creación de un órgano comunitario que se encargará de la supervisión y aplicabilidad de la normativa en todo el ámbito de la Comunidad Europea, creándose una Oficina de IA dentro de la Comisión Europea, que será la autoridad central encargada de coordinar, controlar y garantizar que la ley se aplique de forma uniforme en todos los Estados miembros. Esta oficina pública, que se encuentra en funcionamiento, tiene un rol clave en varios frentes como identificar riesgos en los modelos de IA de propósito general, participar en investigaciones por posibles infracciones, administrar sanciones, y trabajar para fomentar la innovación y el desarrollo de una IA segura y confiable.

 

En su diseño la Oficina de IA, está integrada por distintas unidades especializadas: una unidad de Regulación y Cumplimiento, otra de Seguridad de la IA, una dedicada a la Excelencia en IA y Robótica, otra para promover la IA con fines sociales, y una más orientada a la innovación y coordinación de políticas. Además, apoya la creación de espacios de prueba controlados, colabora con centros de innovación digital, impulsa proyectos y representa a la UE en el escenario internacional.

 

Independientemente de la existencia de esta Oficina, en el artículo 65, se crea el Consejo Europeo de Inteligencia Artificial, que resulta un organismo clave para coordinar la aplicación de la ley en toda la Unión. En ese sentido, cada Estado Miembro debe designar un representante con un mandato de tres años, renovable una vez, que posea las competencias necesarias para contribuir activamente a las tareas del Consejo, como se detalla en el artículo 66. Estos representantes también tendrán la misión de actuar como punto de contacto único ante el Consejo y facilitarán la coherencia y coordinación entre las autoridades nacionales competentes de su país. El Consejo será presidido por uno de los representantes de los Estados miembros y contará con el apoyo de la Oficina de IA, que se encargará de la secretaría, convocará las reuniones y preparará el orden del día conforme a las tareas del Consejo y su reglamento interno. Además, los representantes designados aprobarán el reglamento interno del Consejo por mayoría de dos tercios. Esta estructura busca asegurar una aplicación coherente y efectiva de la ley en toda la Unión Europea

 

Finalmente, el artículo 70, establece que cada Estado Miembro debe designar una o más autoridades nacionales que se encarguen de aplicar la ley a nivel local, y también un punto de contacto único para facilitar la comunicación con la Oficina y con otros países. En resumen, esta estructura busca que la regulación de la inteligencia artificial en Europa sea fuerte, coordinada y adaptada a los desafíos técnicos y éticos que plantea esta tecnología.

 

 

III. Situación de regulación en los países

 

Con respecto a las regulaciones normativas internas de los países, el fenómeno principalmente se destaca por impulsarse normas donde se determinan principios, recomendaciones, declaraciones relativas al uso de la inteligencia artificial pero no se regulan con marcos generales exhaustivos como el modelo europeo.

 

No obstante Italia y Perú, han impulsado en el seno de sus Poderes Legislativos, normas de carácter general regulatorias del uso de la IA.

 

Italia en línea a la Ley de Inteligencia Artificial Europea, en el año 2025, impulsó su propia regulación de IA que principalmente expresa distintos fundamentos de carácter antropocéntrico y de respeto a los derechos humanos.

 

Entre los principios reconocidos en la ley italiana, se destaca la supervisión humana sobre decisiones automatizadas, la transparencia, la prevención de discriminación y sesgos, la proporcionalidad en la aplicación de sistemas de IA, la sostenibilidad y la seguridad, así como la protección de la privacidad de los individuos. La ley también establece un marco institucional de gobernanza, asignando competencias específicas a autoridades nacionales como la Agenzia per l’Italia Digitale (AgID), responsable de la acreditación y monitoreo de sistemas de IA, y la Agenzia per la Cybersicurezza Nazionale (ACN), encargada de supervisar la seguridad y aplicar sanciones frente a infracciones.

 

La Ley Nº 132/2025 regula sectores clave de interés público, imponiendo restricciones y obligaciones específicas. En materia de cumplimiento y sanciones, la ley italiana incorpora obligaciones de trazabilidad, documentación y control de sistemas automatizados, incluso en ámbitos que el AI Act europeo no regula expresamente. Se introducen medidas penales para conductas nocivas, como la difusión no autorizada de deepfakes, fraudes o estafas cometidas mediante IA, estableciendo penas proporcionales a la gravedad del daño.

 

En cuanto a la regulación en América, las regulaciones normativas se encuentran en pleno auge, principalmente el uso de lA se encuentra regulado a través de normas, recomendaciones o directrices de soft law[27] pero que, no incluyen en sus ordenamientos sistemas exhaustivos de su definición, uso o sanciones establecidos por una ley debatida en el seno de sus poderes legislativos

 

La República del Perú avanzó con un marco legal pionero en la región, que se materializó con la sanción de la Ley Nº 31814[28] en el año 2023, la norma se centró en impulsar la transformación digital, asegurando que la IA se adopte de manera ética, responsable, segura y transparente, siempre respetando los derechos humanos y los valores fundamentales de la sociedad. Lejos de limitarse a promover únicamente la adopción tecnológica, la ley establece principios rectores para todos los actores involucrados: entidades públicas, sector privado, sociedad civil y demás participantes en el diseño, desarrollo y uso de sistemas de IA. Entre estos principios se destacan la gestión de riesgos asociados a tecnologías automatizadas, la inclusión de diversos actores en la elaboración de políticas y decisiones, y la valorización de la información generada por la tecnología para el bienestar social y económico. Además, enfatiza la importancia de fomentar la seguridad, la identidad digital, la conectividad, la educación y la innovación, entendiendo que estos elementos son fundamentales para un uso responsable de la IA en el país.

 

La ley peruana de IA asigna a la Secretaría de Gobierno y Transformación Digital de la Presidencia del Consejo de Ministros, la función de dirigir, evaluar y supervisar el desarrollo de la inteligencia artificial, promoviendo el respeto a los principios éticos, garantizando la infraestructura de datos necesaria y fomentando la colaboración entre entidades públicas, privadas y académicas.

 

Posteriormente, el Poder Ejecutivo aprobó el Reglamento de la Ley N.° 31814 mediante el Decreto Supremo N.º 115-2025-PCM[29], publicado en septiembre de 2025. Este reglamento detalla cómo debe implementarse la ley en la práctica, incorporando una clasificación de riesgos inspirada en estándares internacionales y prohibiendo usos indebidos de la IA, como la vigilancia masiva sin base legal, la manipulación de decisiones humanas, la predicción de delitos a partir de perfiles o el reconocimiento biométrico en tiempo real sin las debidas salvaguardas.

 

El Decreto Supremo, introduce mecanismos de transparencia algorítmica y establece que, en sistemas de alto riesgo, siempre debe haber supervisión humana. Se aplican especialmente a sectores como salud, educación, justicia, finanzas y servicios básicos. Además, impone la obligación de proteger los datos personales desde el diseño de los sistemas de IA, evitando cualquier discriminación o daño a los derechos fundamentales. Paralelamente, fomenta la formación de competencias en IA desde la educación básica hasta la universitaria, promoviendo la participación de los diferentes actores en la construcción de un ecosistema digital seguro y responsable.

 

 

IV. La Regulación normativa de la Inteligencia Artificial en nuestro país.

 

Respecto a la evolución normativa de nuestro país respecto a la IA, no existe un cuerpo normativo de carácter general que la regule de manera exhaustiva tal como se ha realizado en el ámbito de la Unión Europea, Italia o Perú. Empero, existen aproximadamente 35 proyectos de ley que fueron presentados en el ámbito del Congreso de la Nación que buscaron regular el desarrollo y uso de la inteligencia artificial, abordando diferentes aspectos, como la protección de datos personales, la transparencia en los sistemas de IA y la prevención de riesgos asociados con su uso; lamentablemente ninguno ha adquirido estado parlamentario[30].

 

No obstante, ello existen distintos antecedentes normativos que donde se menciona a la IA o brindan un marco respecto a su uso.

 

En cuanto a normas impulsadas en el ámbito del Poder Legislativo Nacional, la Ley Nº 27.506 sancionada en el 2019, constituye la única norma impulsada en el seno del Congreso de la Nación que en el marco del Régimen de Promoción de la Economía del Conocimiento reconoció a la inteligencia artificial como una actividad estratégica para el desarrollo económico nacional[31].

 

Ese mismo año desde el Poder Ejecutivo Nacional, se impulsó el Plan Nacional de Inteligencia Artificial que definió líneas prioritarias para la implementación de la IA estableciendo las siguientes: formación de talento humano; impulso al desarrollo científico-tecnológico; aplicación de la IA en sectores sociales clave; construcción de un marco ético; y proyección internacional del país como actor en la gobernanza global de la tecnología. La estrategia se enmarca en los principios de explicabilidad algorítmica, control humano significativo, transparencia, equidad y sostenibilidad[32].

 

En el año 2023, mediante la Disposición Nº 2/2023 emitida por la entonces Subsecretaría de Tecnologías de la Información, dependiente de la Jefatura de Gabinete de Ministros se aprobaron las Recomendaciones para una Inteligencia Artificial Fiable, el propósito de la norma fue encauzar el potencial de la IA tendiente a mejorar la eficiencia del Estado y la prestación de servicios esenciales, asegurando que la tecnología sea transparente, equitativa y responsable. En este sentido, el Estado asumió la responsabilidad de proteger la soberanía tecnológica y promover un ecosistema que priorice el bien común y los derechos humanos, siguiendo las recomendaciones internacionales de organismos como la UNESCO y la OCDE, la norma asimismo incluye distintas definiciones y propone una distinción crucial entre ejecución y responsabilidad, estableciendo que la IA es un medio que realiza tareas de forma reactiva a una instrucción humana, pero que carece de discernimiento, intención, libertad o autodeterminación.

 

Así las cosas, la Agencia de Acceso a la Información Pública mediante el dictado de la Resolución Nº 161/2023, creó el Programa de transparencia y protección de datos personales en el uso de la Inteligencia Artificial con la finalidad de impulsar procesos de análisis, regulación y fortalecimiento de capacidades estatales necesarias para acompañar el desarrollo y uso de la Inteligencia Artificial (IA), tanto en el sector público como en el ámbito privado.

 

La Jefatura de Gabinete de Ministros mediante el dictado de la Decisión Administrativa Nº 750/2023, impulsó una Mesa Interministerial de IA como ámbito transversal para abordar el avance y aplicación de la inteligencia artificial en diversos sectores de la economía y de la sociedad, conforme a un marco ético, de desarrollo sostenible, transformación digital, y con la finalidad de diseñar una estrategia integral que sea aplicada por el PEN.

 

Esta Mesa Interministerial, fue modificada por imperio de la Decisión Administrativa Nº 899/24 por la que se estableció como organismo rector a la Secretaría de Innovación, Ciencia y Tecnología, estableciéndose que se encuentra integrada por las siguientes jurisdicciones: la Jefatura de Gabinete, el Ministerio de Defensa, el Ministerio de Economía, el Ministerio de Relaciones Exteriores, Comercio Internacional y Culto, el Ministerio de Salud, el Ministerio de Seguridad, el Ministerio de Capital Humano, el Ministerio de Justicia, el Ministerio de Desregulación y Transformación del Estado, y la Secretaría de Asuntos Estratégicos y la Secretaría de Innovación, Ciencia y Tecnología.

 

En el ámbito provincial se destacan por un lado la legislación de la Provincia de Buenos Aires y Santa Fe que han impulsado distintos protocolos de uso particularmente en el ámbito de la Administración Pública Provincial.

 

Mediante el dictado de la Resolución Nº 9/2025 de la Subsecretaría de Gobierno Digital del Ministerio de Gobierno promulgada el 14/11/2025[33], que determina un marco normativo para el uso de Inteligencia Artificial dentro de la Administración Pública de la Provincia de Buenos Aires que determina en cabeza de la Subsecretaría de Gobierno Digital la supervisión sobre las herramientas de IA que respeten los derechos humanos y la privacidad de los ciudadanos. Se definen principios éticos fundamentales como la transparencia, la seguridad y la supervisión humana obligatoria para evitar decisiones automatizadas injustas. Además, la norma clasifica los sistemas de IA según su nivel de riesgo, prohibiendo aquellos que representen una amenaza inaceptable para la sociedad. Finalmente, se exige la creación de un Registro de Inteligencia Artificial para garantizar que todo desarrollo estatal sea rastreable y rinda cuentas ante la ley.

 

Por otro lado, la Provincia de Santa Fe mediante el Decreto Nº 2726/2025 aprobó el Protocolo para la Adopción y Uso de Tecnologías de Inteligencia Artificial Generativa en el ámbito de la Administración Pública de esa provincia. Para su impulsión se tuvo en cuenta el avance exponencial de las tecnologías de inteligencia artificial generativa. Entre sus principales lineamientos se determina como el establecimiento de principios, derechos, obligaciones y el marco de gobernanza para el uso y la interacción responsable, ético, transparente y seguro de las herramientas de IAG por parte de los agentes públicos en el ejercicio de sus funciones en la Provincia de Santa Fe, estableciéndose como autoridad de aplicación a la Secretaría de Tecnologías para la Gestión.

 

El Protocolo santafesino se centra en regular a la IA como herramienta de asistencia y apoyo al ciclo administrativo, no en su desarrollo, diseño, entrenamiento o despliegue institucional, estableciendo distintas definiciones, determinando los principios rectores donde se destaca el principio de centralidad y supervisión humana resaltándose que la herramienta tiene carácter de insumo o propuesta preliminar vinculante, requiriéndose validación expresa y el juicio profesional del agente público para adquirir eficacia jurídica o ser utilizada en un procedimiento administrativo. Con respecto a la responsabilidad se determina que los agentes públicos son individualmente responsables por el uso de la IAG y por los resultados que validan e incorporan a los actos administrativos determinándose de forma expresa introducir datos personales, información sensible, clasificada o confidencial en herramientas no institucionales. Finalmente se establece que el incumplimiento o transgresión de las prohibiciones del Protocolo da lugar a las sanciones disciplinarias que correspondan[34].

 

 

VI. Conclusiones.

 

Como hemos analizado a lo largo del presente artículo, la inteligencia artificial no representa meramente un avance técnico, sino un cambio de paradigma que desafía los cimientos mismos de nuestro ordenamiento jurídico. En la actualidad existe una brecha evidente entre la velocidad de la innovación tecnológica que tiene la IA y la capacidad de respuesta normativa que se presenta por los Estados. Mientras que la Unión Europea ha tomado el liderazgo con un enfoque basado en el riesgo (Reglamento 2024/1689), el resto del mundo —incluida la Argentina— transita aún mayoritariamente por la senda del soft law, basándose en recomendaciones éticas de organismos como la UNESCO y la OCDE.

 

Nuestro país presenta un panorama fragmentado. A nivel nacional, carecemos de un marco general impulsado en el Congreso de la Nación que sea producto del consenso de las distintas fuerzas políticas, limitándose la regulación a diversas disposiciones de carácter administrativo y ético.

 

El desafío actual, inminente para los operadores jurídicos y el legislador argentino radica en consolidar una ley nacional que no asfixie la innovación, pero que garantice la transparencia, la explicabilidad y la seguridad jurídica de manera tal que la inteligencia artificial sea una herramienta al servicio exclusivo de la humanidad.

 

 

 



(*) Abogado y Procurador. Magíster en Defensa Nacional, Especialista en Abogacía del Estado, Profesor Universitario de la Enseñanza Media y Superior, Diplomado en Saneamiento de Titulaciones Dominiales, Género y Gestión Institucional, Posgrado en Prevención de Lavado de Activos (UBA). Profesor de Derecho Penal “A” y “B”, Universidad Blas Pascal. Profesor de Práctica Profesional de Abogacía e Integración Profesional de Martillero Público, Universidad Siglo 21. Fue Abogado de la Organización de las Naciones Unidas en Chipre (UNFICYP) y ocupó distintos cargos en el Estado Nacional, Ejército Argentino, Colegio Militar de la Nación, Unidad de Información Financiera (UIF), entre otros organismos. emilianozito@hotmail.com ORCID 0009-0004-1602-2009

[1] Romero, L., “Cerca del 80 por ciento de las personas utiliza IA sin darse cuenta”, México, Editorial Revista de la Universidad Autónoma de México (UNAM), 2023, p1 Disponible en: https://www.gaceta.unam.mx/cerca-del-80-por-ciento-de-las-personas-utiliza-ia-sindarsecuenta/#:~:text=Seg%C3%BAn%20estudios%2C%20cerca%20del,parte%20est%C3%A1%20consciente%20de%20ello

[2]García, V., “La Revolución de la Inteligencia Artificial”, España, Editorial Revista Byte, 2023, p. 2 Disponible en: https://revistabyte.es/tendencias-tic/inteligencia-artificial-10/

[3]Mauregui, C., “Inteligencia artificial: de la ciencia ficción a la realidad”, Buenos Aires, Editorial Revista Educ.ar, 2023. p.1 Disponible en: https://www.educ.ar/recursos/159014/inteligencia-artificial-de-la-ciencia-ficcion-a-la-realidad

[4]Danesi, C., “Influencia algorítmica e inmutabilidad de los Smart contacts: ¿cómo impactan estas tecnologías en la asimetría contractual?”, Madrid, Editorial Actualidad Jurídica Iberoamericana, 2021, p. 1273/1274 Disponible en: https://revista-aji.com/wp-content/uploads/2022/04/54.-Cecilia-Celeste-Danesi-1270-1287.pdf

[5]UNESCO., “Recomendación sobre la Ética de la Inteligencia Artificial”. Paris, Editorial UNESCO, 2021, p. 5. Disponible en: https://unesdoc.unesco.org/ark:/48223/pf0000381137.

[6]Ibídem ps. 71-76

[7]Danesi, C., Ob.cit. p. 1273

[8]Salinas Islas, D., “Cómo funciona la IA: todo lo que necesitas saber”, 2024. p.3 Disponible en: https://es.wix.com/blog/como-funciona-la-ia#viewer-wwunq35080

[9]Ibídem p. 4

[11]Comisión Europea., “Regulation of the European Parliament and of the Council Amending Regulations (EU) 2024/1689 and (EU) 2018/1139 as regards the simplification of the implementation of harmonised rules on artificial intelligence (digital omnibus on ai)”, Brusuelas, 2025. Disponible en: https://digital-strategy.ec.europa.eu/en/library/digital-omnibus-ai-regulation-proposal?utm_source=chatgpt.com

[12] La Organización para la Cooperación y el Desarrollo Económicos (OCDE) es una organización internacional que trabaja para construir mejores políticas que fomenten la prosperidad, la igualdad, las oportunidades y el bienestar para todos. Disponible en: https://www.oecd.org/en/topics/policy-issues/consumer-policy.html

[13] OCDE., “Recomendación sobre la inteligencia artificial”, 2019 Disponible en: https://legalinstruments.oecd.org/api/download/?uri=/public/db5053b5-93e0-4cf5-a7cf-edce5ee6e893.pdf

[14] Ibídem ps. 4/5

[15]La Organización de las Naciones Unidas nació oficialmente el 24 de octubre de 1945, después de que la mayoría de los 51 Estados Miembros signatarios del documento fundacional de la Organización, la Carta de la ONU, la ratificaran. En la actualidad, 193 Estados son miembros de las Naciones Unidas, que están representados en el órgano deliberante, la Asamblea General. Disponible en: https://www.un.org/es/about-us

[16]LAsamblea General es el órgano representante, normativo y deliberativo de la ONU, y el único que cuenta con representación universal al estar representados sus 193 Estados Miembros. Estos se reúnen cada año, en septiembre, durante la sesión anual, que tiene lugar en el Salón de la Asamblea General en Nueva York. Durante sus primeros días se realiza un debate general en el que participan y hablan numerosos Jefes de Estado. La toma de decisiones en la Asamblea General requiere una mayoría de dos tercios cuando se trata de asuntos de vital importancia; como aquellos referidos a la paz y la seguridad, la admisión de nuevos miembros y los asuntos presupuestarios. Las decisiones en otras cuestiones se toman por mayoría simple. Cada año, se elige a un Presidente, que ejerce el cargo durante un año. Disponible en https://www.un.org/es/ga/

[17]ONU., “Resolución A/RES/77/320”, Asamblea General de las Naciones Unidas, 2023. Disponible en: https://docs.un.org/es/A/RES/77/320

[18]ONU., “Resolución A/RES/78/213”, Asamblea General de las Naciones Unidas, 2023. Disponible en: https://docs.un.org/es/a/res/78/213

[19] ONU., “Resolución A/RES/78/49”, Asamblea General de las Naciones Unidas. Disponible en: https://docs.un.org/es/A/78/L49

[20]ONU., “Resolución A/RES/78/265”, Asamblea General de las Naciones Unidas. Disponible en: https://docs.un.org/es/A/RES/78/265

[21] ONU., “Resolución A/RES/78/311”, Asamblea General de las Naciones Unidas, 2024 Disponible en: https://docs.un.org/es/A/RES/78/311

[22] ONU., “Resolución A/RES/79/1”, Asamblea General de las Naciones Unidas, 2024. Disponible en: https://docs.un.org/es/a/res/79/1

[23] ONU., “Resolución A/RES/79/194 Asamblea General de las Naciones Unidas, 2024. Disponible en: https://docs.un.org/es/A/RES/79/194

[24] ONU., “Resolución A/RES/79/325”, Asamblea General de las Naciones Unidas, 2025 Disponible en: https://docs.un.org/es/A/RES/79/325

[25] La UNESCO es la organización de las Naciones Unidas que promueve la cooperación en educación, ciencia, cultura y comunicación para fomentar la paz en todo el mundo. La Organización ofrece servicios clave a sus Estados miembros, estableciendo normas y estándares globales, desarrollando herramientas para la cooperación internacional, generando conocimiento para las políticas públicas y construyendo redes globales de sitios e instituciones inscritas en sus listas. Disponible en: https://www.unesco.org/es

[26] UNESCO., “Recomendación sobre la ética de la inteligencia artificial”, 2021 Disponible en: https://www.unesco.org/es/articles/recomendacion-sobre-la-etica-de-la-inteligencia-artificial

[27]soft law. 1. Conjunto de normas o reglamentaciones no vigentes que pueden ser consideradas por los operadores jurídicos en materias de carácter preferentemente dispositivo y que incluye recomendaciones, dictámenes, códigos de conducta, principios, etc. Influyen asimismo en el desarrollo legislativo y pueden ser utilizadas como referentes específicos en la actuación judicial o arbitral. 2. Int. púb. 2. Actos jurídicos que sin tener fuerza vinculante obligatoria contienen las pautas inspiradoras de una futura regulación de una materia, abriendo paso a un posterior proceso de formación normativa.

Disponible en: https://dpej.rae.es/lema/soft-law

[29]Perú., “Decreto Nº 115-2025-PCM”, Lima, 2025. Disponible en https://www.gob.pe/institucion/pcm/normas-legales/7133522-115-2025-pcm

[30]Congreso de la Nación., “Dossier Legislativo-Inteligencia Artificial Año XII, Nº 312”, Buenos Aires, Editorial Biblioteca del Congreso de la Nación, 2025. p. 10 Disponible en: https://bcn.gob.ar/uploads/adjuntos/Dossier-312-legis-nacional-inteligencia-artificial-abr-2025.pdf

[31] Ley Nº 27.506 B. O 22/05/2019. Art. 2° - Actividades promovidas. El presente Régimen de Promoción de la Economía del Conocimiento tiene como objeto la creación, diseño, desarrollo, producción e implementación o adaptación de productos y servicios y su documentación técnica asociada, tanto en su aspecto básico como aplicado, incluyendo el que se elabore para ser incorporado a procesadores y/u otros dispositivos tecnológicos, promoviendo los siguientes rubros: (..) i) Fabricación, puesta a punto, mantenimiento e introducción de bienes y servicios orientados a soluciones de automatización en la producción que incluyan ciclos de retroalimentación de procesos físicos a digitales y viceversa, estando en todo momento, exclusivamente caracterizado por el uso de tecnologías de la industria 4.0, tales como inteligencia artificial, robótica e internet industrial, internet de las cosas, sensores, manufactura aditiva, realidad aumentada y virtual. Disponible en: https://www.argentina.gob.ar/normativa/nacional/ley-27506-324101/actualizacion

[32] Presidencia de la Nación Argentina., “Plan Nacional de Inteligencia Artificial”, Argentina, 2019, p. 1. Disponible en: https://oecd-opsi.org/wp-content/uploads/2021/02/Argentina-National-AI-Strategy.pdf

[33] Gobierno de la Provincia de Buenos Aires., “Resolución Nº 9/2025”, La Plata, 2025. Disponible en: https://normas.gba.gob.ar/ar-b/resolucion/2025/9/549972

[34]Gobierno de la Provincia de Santa Fe., “Decreto Nº 2726/2025. Protocolo para la Adopción y Uso de Tecnologías de Inteligencia Artificial Generativa en el ámbito de la Administración Pública”, Santa Fe, 2025 B.O 03/11/2025 Disponible en: https://www.saij.gob.ar/S20250002726