Regulación de Energía Atómica vs. Inteligencia Artificial: Análisis Comparativo y Lecciones para el Futuro
Más contenido jurídico en elDial.com
Por Horacio R. Granero
Este informe presenta un análisis comparativo de los marcos regulatorios que rigen el uso pacífico de la energía atómica y el desarrollo de la inteligencia artificial (IA), con un enfoque particular en los riesgos inherentes a su uso. Ambas tecnologías, si bien son transformadoras y ofrecen un inmenso potencial para el progreso humano, conllevan peligros sistémicos y existenciales que exigen regulación de su uso correcto. El análisis revela similitudes fundamentales en la motivación para regular ambas esferas, impulsada por su carácter de "doble uso" y la necesidad de mitigar riesgos catastróficos. Sin embargo, existen divergencias significativas en sus enfoques regulatorios, atribuibles a las diferencias intrínsecas en su naturaleza. La energía atómica se caracteriza por riesgos físicos y una infraestructura centralizada y de desarrollo lento, lo que ha permitido un marco de gobernanza maduro y basado en la inspección. En contraste, la IA presenta riesgos intangibles y difusos, una naturaleza descentralizada y una velocidad de evolución sin precedentes, lo que genera un panorama regulatorio fragmentado y en constante adaptación.”“Las lecciones extraídas de la regulación nuclear, como la adopción de un enfoque basado en riesgos, la importancia de la cooperación internacional y la necesidad de una supervisión independiente, son conceptualmente transferibles a la IA. No obstante, la aplicación de estos principios a la IA requiere la adaptación de los mecanismos, priorizando: la gobernanza de datos, la transparencia algorítmica y la integración de la ética en el diseño tecnológico.”
“El informe concluye que, si bien la experiencia nuclear ofrece una hoja de ruta conceptual valiosa, la regulación de la IA demanda paradigmas novedosos, flexibles y tecnológicamente informados para abordar sus desafíos únicos y asegurar un desarrollo responsable a nivel global.”
SUMARIO: Resumen Ejecutivo. 1. Introducción: La necesidad imperativa de la regulación en tecnologías transformadoras. 2. Marco regulatorio del uso pacífico de la energía atómica. a. Orígenes históricos y la creación de la gobernanza nuclear. b. Principios fundamentales: seguridad, salvaguardias, no proliferación y gestión de residuos. c. Mecanismos de control, verificación y cooperación internacional. d. Desafíos y la madurez de la regulación nuclear. 3. Marco regulatorio de la inteligencia artificial. a. Contexto actual y la urgencia de la regulación de la IA. b. Riesgos clave del uso no regulado de la IA: sesgo, privacidad, rendición de cuentas y disrupción social. c. Enfoques regulatorios globales. d. Mecanismos propuestos para la mitigación de riesgos de la IA. 4. Análisis comparativo: paralelismos y divergencias en el manejo de los riesgos. a. Similitudes en la naturaleza de los riesgos y la necesidad de su regulación. b. Diferencias fundamentales. 5. Lecciones aprendidas de la regulación nuclear aplicables a la IA. 6. Conclusiones.
Análisis comparativo de la regulación del uso pacífico de la energía atómica y de la inteligencia artificial
Índice
Resumen Ejecutivo
1. Introducción: La necesidad imperativa de la regulación en tecnologías transformadoras
2. Marco regulatorio del uso pacífico de la energía atómica
a. Orígenes históricos y la creación de la gobernanza nuclear
b. Principios fundamentales: seguridad, salvaguardias, no proliferación y gestión de residuos
c. Mecanismos de control, verificación y cooperación internacional
d. Desafíos y la madurez de la regulación nuclear
3. Marco regulatorio de la inteligencia artificial
a. Contexto actual y la urgencia de la regulación de la IA
b. Riesgos clave del uso no regulado de la IA: sesgo, privacidad, rendición de cuentas y disrupción social
c. Enfoques regulatorios globales
d. Mecanismos propuestos para la mitigación de riesgos de la IA
4. Análisis comparativo: paralelismos y divergencias en el manejo de los riesgos
a. Similitudes en la naturaleza de los riesgos y la necesidad de su regulación.
b. Diferencias fundamentales
5. Lecciones aprendidas de la regulación nuclear aplicables a la IA
6. Conclusiones
Resumen Ejecutivo
Este informe presenta un análisis comparativo de los marcos regulatorios que rigen el uso pacífico de la energía atómica y el desarrollo de la inteligencia artificial (IA), con un enfoque particular en los riesgos inherentes a su uso.
Ambas tecnologías, si bien son transformadoras y ofrecen un inmenso potencial para el progreso humano, conllevan peligros sistémicos y existenciales que exigen regulación de su uso correcto. El análisis revela similitudes fundamentales en la motivación para regular ambas esferas, impulsada por su carácter de "doble uso" y la necesidad de mitigar riesgos catastróficos. Sin embargo, existen divergencias significativas en sus enfoques regulatorios, atribuibles a las diferencias intrínsecas en su naturaleza:
o La energía atómica se caracteriza por riesgos físicos y una infraestructura centralizada y de desarrollo lento, lo que ha permitido un marco de gobernanza maduro y basado en la inspección.
o En contraste, la IA presenta riesgos intangibles y difusos, una naturaleza descentralizada y una velocidad de evolución sin precedentes, lo que genera un panorama regulatorio fragmentado y en constante adaptación.
Las lecciones extraídas de la regulación nuclear, como la adopción de un enfoque basado en riesgos, la importancia de la cooperación internacional y la necesidad de una supervisión independiente, son conceptualmente transferibles a la IA. No obstante, la aplicación de estos principios a la IA requiere la adaptación de los mecanismos, priorizando:
o la gobernanza de datos,
o la transparencia algorítmica y
o la integración de la ética en el diseño tecnológico.
El informe concluye que, si bien la experiencia nuclear ofrece una hoja de ruta conceptual valiosa, la regulación de la IA demanda paradigmas novedosos, flexibles y tecnológicamente informados para abordar sus desafíos únicos y asegurar un desarrollo responsable a nivel global.
1. Introducción
La necesidad imperativa de la regulación en tecnologías transformadoras
La historia de la humanidad está marcada por la aparición de tecnologías disruptivas que, si bien prometen avances sin precedentes, también plantean dilemas éticos y riesgos existenciales.
La gestión de estas innovaciones ha implicado una tensión constante entre el impulso hacia el progreso y la imperativa necesidad de mitigar los posibles daños.
En este contexto, la energía atómica y la inteligencia artificial emergen como ejemplos paradigmáticos de tecnologías con un potencial inmenso para el beneficio social, pero también con la capacidad de generar consecuencias profundas y sistémicas si se dejan sin una regulación adecuada.
La preocupación central radica en los peligros que puede acarrear su uso sin restricciones.
La historia de la tecnología nuclear, por ejemplo, está intrínsecamente ligada a los "profundos temores y las expectativas" que surgieron con su descubrimiento, lo que impulsó la necesidad de su regulación. De manera similar, la IA hoy en día evoca la "sombra de Oppenheimer" [1], sugiriendo que, al igual que la bomba atómica, la IA puede tanto "potenciar a la humanidad" como "borrarnos del mapa", subrayando su poder transformador y potencialmente destructivo.
El propósito de este análisis es realizar una comparación sistemática entre el marco regulatorio ya consolidado para el uso pacífico de la energía atómica y el incipiente panorama regulatorio de la inteligencia artificial. Al examinar una disciplina con décadas de gobernanza global institucionalizada, se busca identificar principios y estrategias que puedan informar y guiar el desarrollo de una gobernanza efectiva para la IA, un campo en rápida evolución.
El informe se estructurará para comparar el contexto histórico, los principios fundamentales, los mecanismos de control y los desafíos inherentes a la regulación en ambos dominios, ofreciendo una perspectiva integral sobre la gestión de riesgos tecnológicos críticos.
2. Marco regulatorio del uso pacífico de la energía atómica
a. Orígenes históricos y la creación de la gobernanza nuclear
El desarrollo de la energía atómica, especialmente tras los eventos de la Segunda Guerra Mundial, generó una conciencia global inmediata sobre su poder destructivo, lo que impulsó una respuesta internacional sin precedentes. Las Naciones Unidas, en enero de 1946, aprobaron la creación de una Comisión de Energía Atómica para abordar esta nueva realidad. Este contexto de urgencia y temor existencial fue crucial para la rápida centralización de los esfuerzos regulatorios.
Un punto de inflexión fue la propuesta del presidente estadounidense Dwight D. Eisenhower en 1953, conocida como "Átomos para la Paz". Esta iniciativa no solo buscaba promover el uso pacífico de la energía nuclear, sino también establecer una estructura internacional que previniera su desvío hacia fines bélicos. Esta visión dual condujo directamente a la creación del Organismo Internacional de Energía Atómica (OIEA) en 1957, bajo los auspicios de la ONU. El OIEA fue concebido con el mandato explícito de garantizar el uso seguro y pacífico de la tecnología nuclear.
Sobre esta base, se forjó el Tratado sobre la No Proliferación de las Armas Nucleares (TNP), abierto a la firma en 1968 y en vigor desde 1970. El TNP se convirtió en la piedra angular del régimen global de no proliferación, y su prórroga indefinida en 1995 reafirmó su papel a largo plazo.
El Tratado se asienta sobre tres pilares interdependientes: la no proliferación (evitar la propagación de armas nucleares), el desarme (trabajar hacia la eliminación de los arsenales nucleares) y la promoción del uso pacífico de la energía nuclear.[2]
La inmediatez y la tangibilidad de la amenaza existencial que representaban las armas nucleares demostraron ser un catalizador poderoso. Esta percepción de un peligro claro, universalmente reconocido y catastrófico impulsó a los Estados a superar las preocupaciones de soberanía y a actuar de manera concertada, lo que resultó en una arquitectura de gobernanza global robusta, aunque no exenta de imperfecciones.
Esta respuesta contrasta marcadamente con la evolución regulatoria de la IA, donde la ausencia de un evento singular y catastrófico ha llevado a un paisaje regulatorio más fragmentado y lento. La naturaleza física y el impacto directo de la amenaza nuclear facilitaron una respuesta global más rápida y centralizada. [3]
b. Principios fundamentales: seguridad, salvaguardias, no proliferación y gestión de residuos
Lo que se ha dado en llamar gobernanza nuclear se ha desarrollado sobre un conjunto de principios interconectados que abordan las múltiples dimensiones de riesgo de la tecnología.
La seguridad nuclear se rige por los "Principios Fundamentales de Seguridad" del OIEA (SF-1), cuyo objetivo principal es proteger a las personas y el medio ambiente de los efectos nocivos de la radiación ionizante. Estos principios son aplicables a todas las instalaciones y actividades nucleares con fines pacíficos a lo largo de su vida útil. Un mecanismo central para la prevención y mitigación de accidentes es la "defensa en profundidad", que implica múltiples niveles de protección consecutivos e independientes, como diseños robustos, sistemas de control y barreras físicas, para asegurar que ninguna falla individual conduzca a efectos perjudiciales. Aunque la regulación de la seguridad nuclear es una responsabilidad nacional, muchos Estados Miembros adoptan las normas de seguridad del OIEA en sus legislaciones internas, lo que garantiza un nivel de protección coherente y elevado a nivel mundial.
La seguridad física nuclear se centra en la "prevención, detección y respuesta a actos delictivos o intencionales no autorizados que involucren o estén dirigidos a material nuclear, otro material radiactivo, instalaciones asociadas o actividades asociadas". Los Estados tienen la plena responsabilidad de establecer, implementar y mantener un régimen nacional de seguridad nuclear eficaz. Es crucial que las medidas de seguridad física nuclear se diseñen e implementen de manera integrada con las medidas de seguridad nuclear, para que no se comprometan mutuamente. Los elementos esenciales de un régimen nacional de seguridad nuclear incluyen un marco legislativo y regulatorio sólido, una clara identificación de responsabilidades, evaluaciones exhaustivas de amenazas y objetivos, enfoques basados en el riesgo, sistemas de detección efectivos y planes de respuesta bien desarrollados.
La no proliferación es un pilar fundamental, con el TNP como instrumento principal. Este tratado obliga a los Estados no poseedores de armas nucleares a no fabricarlas ni adquirirlas, y a los Estados poseedores a no asistir a otros en su fabricación. El OIEA desempeña un papel central al implementar un sistema de acuerdos de salvaguardias integrales, realizando inspecciones para verificar el cumplimiento de estas obligaciones y asegurando que la energía nuclear no se desvíe de usos pacíficos a armas nucleares.
La gestión de residuos radiactivos se basa en principios del OIEA diseñados para proteger la salud humana y el medio ambiente, tanto en el presente como para las generaciones futuras, sin imponerles cargas indebidas. Las prácticas clave incluyen la minimización de la generación de residuos, la caracterización y segregación exhaustiva de los mismos, y métodos seguros de almacenamiento y disposición final. La disposición geológica profunda es un método crítico para aislar los residuos de alta actividad durante miles de años.
La delineación de estos principios y objetivos demuestra un enfoque integral y multicapa para la gestión de riesgos en el ámbito nuclear. Este marco aborda dimensiones de riesgo distintas pero interconectadas: daño accidental, actos maliciosos intencionales, militarización a nivel estatal y gestión ambiental a largo plazo. El énfasis en la "defensa en profundidad" y los "enfoques basados en el riesgo" ilustra una comprensión sofisticada de las fallas en cascada y la asignación de recursos basada en la gravedad. Este modelo de categorización holística de riesgos y el desarrollo de principios adaptados para cada vector de riesgo ofrecen una plantilla valiosa para la gobernanza de la IA, que aún se enfrenta al desafío de definir y categorizar sus diversos riesgos (por ejemplo, sesgo, privacidad, uso indebido, amenazas existenciales).[4]
c. Mecanismos de control, verificación y cooperación internacional
La efectividad del régimen nuclear se sustenta en sólidos mecanismos de control, verificación y cooperación internacional.
La función central del OIEA incluye la concertación y realización de inspecciones en los Estados Miembros. Estas inspecciones implican la revisión de instalaciones, la toma de muestras y la verificación de que no existan actividades nucleares no declaradas o desvíos de material nuclear para fines no pacíficos. Estas salvaguardias son esenciales para verificar el cumplimiento del TNP.
El OIEA también tiene el mandato de establecer normas de seguridad para proteger la salud y minimizar los peligros. Se han publicado más de 200 de estas normas, que reflejan un consenso internacional sobre altos niveles de seguridad. Estas normas proporcionan un marco de principios fundamentales, requisitos y orientación, y son frecuentemente adoptadas por los organismos reguladores nacionales. El OIEA también ofrece asistencia legislativa a los Estados para el desarrollo de sus marcos nacionales.
Más allá del control, el OIEA promueve activamente los usos pacíficos de la energía nuclear. Ofrece amplios servicios de cooperación técnica, coordinación de investigaciones y misiones de asesoramiento. Estas actividades apoyan a los Estados Miembros en diversos sectores, como la seguridad energética, la salud humana, la seguridad alimentaria, la gestión de recursos hídricos y las aplicaciones industriales, contribuyendo a los Objetivos de Desarrollo Sostenible. Programas como "Átomos para los Alimentos" ejemplifican esta faceta cooperativa.
La descripción detallada de las funciones del OIEA revela una estrategia deliberada para fomentar la confianza y garantizar la transparencia entre los Estados. Al proporcionar un organismo internacional neutral y experto para supervisar el cumplimiento mediante inspecciones verificables y establecer normas de seguridad comunes y de alto nivel, el régimen nuclear ha institucionalizado la rendición de cuentas y ha reducido la probabilidad de programas militares encubiertos. Al mismo tiempo, sus programas de cooperación técnica demuestran un compromiso con el fomento de los aspectos beneficiosos de la tecnología bajo una estricta supervisión. Para la IA, el establecimiento de mecanismos similares, independientes y verificables, para la transparencia (por ejemplo, auditorías algorítmicas, procedencia de datos, evaluaciones de impacto) y el fomento de la confianza a través de la cooperación internacional es fundamental. Sin embargo, la naturaleza de "caja negra" de la IA hace que la "inspección" directa de su funcionamiento interno sea mucho más desafiante que la verificación de material nuclear físico.
d. Desafíos y la madurez de la regulación nuclear
A pesar de su alcance global y su madurez, el marco regulatorio nuclear enfrenta desafíos persistentes.
Un desafío fundamental es la universalidad y la soberanía. Aunque el TNP es el tratado con el mayor número de adhesiones (191 Estados partes), no es universal. Algunos Estados con capacidad nuclear, como India, Pakistán e Israel, nunca lo han firmado o ratificado, mientras que Corea del Norte se retiró formalmente, lo que cuestiona su universalidad y credibilidad. La priorización explícita de la soberanía nacional por parte de Corea del Norte sobre las regulaciones internacionales ilustra la tensión persistente entre los intereses de seguridad nacional y la gobernanza global.
La percepción pública y los temores históricos también representan un desafío. La aceptación pública de la energía nuclear sigue siendo un problema en muchas partes del mundo, a menudo debido a temores históricos (por ejemplo, Chernóbil, Fukushima) y la desinformación, a pesar de su historial de seguridad y sus beneficios potenciales.
No obstante, el marco regulatorio nuclear es notablemente maduro, habiendo evolucionado durante más de siete décadas. Cuenta con organismos internacionales bien establecidos (OIEA), tratados legalmente vinculantes (TNP) y principios y mecanismos integrales. Esta madurez proporciona una vasta experiencia en la gestión de riesgos tecnológicos de alto impacto.
La continua existencia de Estados no signatarios o que se han retirado del TNP, y la abierta desafianza de Corea del Norte, revelan una tensión fundamental y duradera. Incluso con una amenaza existencial clara y un marco internacional sofisticado, los intereses de seguridad nacional y la afirmación de la soberanía pueden, y de hecho lo hacen, prevalecer sobre el consenso internacional y las obligaciones legales.
Esta es una consideración crítica para la gobernanza de la IA: si una amenaza tan tangible y universalmente reconocida como la proliferación nuclear lucha por lograr la adhesión universal y la aplicación contra Estados recalcitrantes, la gobernanza de la IA, con sus riesgos más difusos y menos inmediatamente catastróficos, enfrentará dificultades aún mayores para lograr un consenso global verdaderamente vinculante, especialmente dada la intensa competencia geopolítica entre las principales potencias de IA y los avances tecnológicos de su uso como es la fisión nuclear, por ejemplo.[5]
3. Marco regulatorio de la inteligencia artificial
a. Contexto actual y la urgencia de la regulación de la IA
La inteligencia artificial ha experimentado una rápida evolución y proliferación masiva en los últimos años. El lanzamiento de herramientas de IA generativa como ChatGPT de OpenAI en noviembre de 2022 marcó una aceleración significativa en la adopción pública de la IA y su rápida transformación de los ecosistemas de información.
Esta difusión acelerada ha generado una necesidad urgente de gobernanza.
1. La IA posee un carácter dual de beneficios y riesgos. Ofrece un potencial inmenso para el avance social, incluyendo mejoras en la atención médica, transporte más seguro y limpio, manufactura más eficiente y energía más barata y sostenible. Sin embargo, su despliegue rápido y en gran medida no regulado también plantea riesgos profundos, evocando paralelismos con la "sombra de Oppenheimer" y el doble potencial de la bomba atómica para un progreso sin precedentes o una destrucción generalizada.[6]
2. El desarrollo de la IA impone una demanda energética considerable. El crecimiento exponencial de la IA, particularmente el entrenamiento y la operación de grandes modelos de lenguaje (LLM), requiere cantidades masivas de energía. Esto ha llevado a discusiones e inversiones en fuentes de energía como la nuclear para sostener el crecimiento de la IA, destacando la inmensa huella infraestructural de la IA. Esta creciente demanda crea su propio conjunto de desafíos regulatorios relacionados con la sostenibilidad y la asignación de recursos.
3. Un desafío primordial para la gobernanza de la IA es la velocidad de la tecnología. El avance de la IA a menudo supera el proceso legislativo tradicional. Como señaló Sam Altman, CEO de OpenAI, la tecnología puede avanzar más rápido de lo que las normativas pueden seguir, lo que lleva a un panorama regulatorio fragmentado y reactivo. La velocidad sin precedentes del desarrollo de la IA y su integración omnipresente en diversos sectores sociales son factores distintivos. A diferencia de la energía nuclear, que se limita a instalaciones específicas e identificables, los riesgos de la IA son difusos y están incrustados en numerosas aplicaciones y actores.
4. La naturaleza de "caja negra" de muchos sistemas de IA añade otra capa de complejidad, dificultando la comprensión de sus procesos internos de toma de decisiones. Este desafío de "velocidad-ubicuidad-opacidad" implica que los procesos legislativos tradicionales, lentos y orientados a lo físico, son a menudo inadecuados para la IA.
Todo esto hace que la regulación de la IA necesita ser ágil, prospectiva, tecnológicamente informada y capaz de adaptarse a aplicaciones imprevistas y propiedades emergentes, a diferencia de la regulación nuclear, que es más estática y centrada en la infraestructura y requiere un cambio hacia modelos de gobernanza más dinámicos.
b. Riesgos clave del uso no regulado de la IA: sesgo, privacidad, rendición de cuentas y disrupción social
El uso no regulado de la IA plantea una serie de riesgos complejos y multifacéticos, predominantemente no físicos y sistémicos.
1. El sesgo algorítmico y la discriminación son preocupaciones centrales. Los modelos de IA, especialmente aquellos entrenados con grandes conjuntos de datos históricos, pueden replicar e incluso amplificar sesgos humanos y desigualdades sociales existentes. Esto puede conducir a resultados discriminatorios en áreas sensibles como la contratación (ej. Amazon), la calificación crediticia, la atención médica (ej. menor precisión para pacientes negros) y la generación de imágenes (ej. estereotipos de género/edad). Este problema genera debates éticos urgentes sobre la equidad, la justicia y la toma de decisiones automatizada.
2. Los riesgos de privacidad son inherentes al procesamiento de grandes volúmenes de datos por parte de los sistemas de IA, que a menudo incluyen información personal altamente sensible (datos de salud, redes sociales, financieros, biométricos). Esta gestión de datos a gran escala aumenta el riesgo de exposición de datos, recopilación sin consentimiento explícito (ej. LinkedIn) o uso no autorizado para fines distintos a los inicialmente divulgados (ej. fotos quirúrgicas en conjuntos de datos de entrenamiento). La posibilidad de una vigilancia descontrolada, exacerbada por las capacidades analíticas de la IA, también es una preocupación significativa.[7]
3. La falta de rendición de cuentas es un desafío importante debido a la naturaleza de "caja negra" de muchos sistemas complejos de aprendizaje automático y profundo, donde el proceso detrás de un resultado no puede explicarse o interpretarse completamente. Esta opacidad dificulta enormemente la asignación de responsabilidades y la exigencia de cuentas a las partes responsables por resultados perjudiciales. La aparición de agentes de IA autónomos, capaces de tomar decisiones con mínima intervención humana, complica aún más la cadena de responsabilidad.
4. La disrupción social y la desinformación son amenazas tangibles. Las herramientas de IA no reguladas tienen el potencial de causar una disrupción social generalizada. Pueden facilitar la difusión rápida y a gran escala de deepfakes y desinformación altamente convincentes, lo que amenaza directamente los procesos democráticos, erosiona la confianza pública en la información y exacerba la polarización social. Además del impacto en la información, la IA también plantea preocupaciones significativas sobre el empleo y la fuerza laboral.
Los riesgos identificados para la IA son predominantemente no físicos y sistémicos. Se relacionan con conceptos abstractos como la equidad, los derechos individuales, la confianza social y la integridad democrática, en lugar de la destrucción física inmediata o la contaminación.
El problema de la "caja negra" es intrínseco a la naturaleza algorítmica de la IA y no tiene un equivalente directo en la física nuclear. Esto contrasta fuertemente con los riesgos tangibles, a menudo localizados y más fácilmente atribuibles de la energía nuclear (por ejemplo, una fusión de reactor, una detonación de bomba).
La regulación de estos riesgos intangibles y difusos de la IA requiere herramientas fundamentalmente diferentes: un enfoque en la gobernanza de datos, la transparencia algorítmica, los principios de diseño ético y las evaluaciones de impacto social, en lugar de centrarse únicamente en la contención física o las inspecciones de sitios.[8]
c. Enfoques regulatorios globales
El panorama regulatorio de la IA está emergiendo con diversos enfoques a nivel global, reflejando diferentes prioridades nacionales.
1. La Ley de IA de la UE se posiciona como la primera ley integral de IA del mundo. Adopta un enfoque basado en el riesgo, clasificando los sistemas de IA en cuatro niveles: riesgo inaceptable (prácticas prohibidas como la puntuación social y la identificación biométrica en tiempo real en espacios públicos), alto riesgo (por ejemplo, IA en infraestructuras críticas, educación, empleo, aplicación de la ley, migración, justicia), riesgo limitado y riesgo mínimo. Los sistemas de alto riesgo están sujetos a obligaciones estrictas, que incluyen sistemas adecuados de evaluación y mitigación de riesgos, alta calidad de los conjuntos de datos de entrenamiento, registro de actividad para la trazabilidad, documentación detallada, información clara para el implementador, supervisión humana adecuada y altos niveles de robustez, ciberseguridad y precisión. También incluye requisitos de transparencia para el contenido generado por IA.[9]
2. En Estados Unidos, la Orden Ejecutiva 14110 de la Administración Biden (octubre de 2023) estableció un esfuerzo gubernamental para guiar el desarrollo y despliegue responsable de la IA. Aborda ocho áreas políticas generales, que incluyen seguridad, innovación, derechos civiles (por ejemplo, mitigación del sesgo de la IA), protección del consumidor, privacidad y liderazgo internacional. Dicha orden fue expresamente derogada por Donald Trump en enero 2025 [10]
3. China ha emergido como pionera en la regulación del contenido generado por IA. Sus "Medidas para el Etiquetado de Contenido Generado por Inteligencia Artificial" (efectivas a partir de septiembre de 2025) exigen el etiquetado explícito (indicadores visibles) e implícito (metadatos, marcas de agua digitales) para todo tipo de contenido sintético (texto, imagen, audio, video). Las plataformas están obligadas a detectar y reforzar este etiquetado. China también impone reglas estrictas sobre la obtención legal de datos de entrenamiento, requiriendo el consentimiento del usuario para la información personal, y enfatiza respuestas sólidas a los incidentes de seguridad de datos.[11]
4. Las iniciativas de las Naciones Unidas han abogado consistentemente por una regulación global de la IA, expresando máxima preocupación por el potencial de la IA para transgredir los derechos humanos, facilitar armas autónomas y exacerbar el sesgo, la vigilancia y la desinformación. Las recomendaciones incluyen el establecimiento de un panel científico internacional sobre IA, el fomento del diálogo intergubernamental y la creación de un fondo global para la IA. La Asamblea General de la ONU adoptó su primera resolución sobre la regulación de la IA en marzo de 2024, enfatizando la necesidad de una IA segura y confiable para el desarrollo sostenible, destacando la responsabilidad de las empresas privadas y subrayando la importancia de cerrar las brechas digitales.[12]
La evidencia demuestra que, si bien los principales actores globales reconocen la necesidad imperativa de regular la IA, sus enfoques son significativamente distintos, reflejando diferentes prioridades y valores nacionales.
El enfoque humanocéntrico basado en el riesgo de la UE contrasta con las órdenes ejecutivas de EE. UU. centradas en la innovación y la seguridad nacional, y el énfasis de China en el control de contenido y la seguridad de los datos.
Los esfuerzos de la ONU son aspiracionales para el consenso global, pero reconocen las disparidades existentes en la participación y las prioridades. Esta fragmentación implica que actualmente no existe un marco global único y universalmente aceptado para la IA, a diferencia del régimen de no proliferación nuclear.
Esto plantea desafíos significativos para la coordinación internacional, el establecimiento de estándares comunes y la prevención del "arbitraje regulatorio", donde el desarrollo de la IA podría gravitar hacia jurisdicciones con una supervisión más débil.
Esta falta de un frente unificado podría obstaculizar la gobernanza global efectiva y exacerbar los riesgos. [13]
d. Mecanismos propuestos para la mitigación de riesgos de la IA
Para abordar los riesgos inherentes a la IA, se están desarrollando y proponiendo una variedad de mecanismos técnicos y marcos de gobernanza.
1. La mitigación de sesgos algorítmicos es crucial. Las estrategias incluyen asegurar el uso de conjuntos de datos diversos y representativos, implementar técnicas robustas de preprocesamiento de datos (como anonimización, estandarización, remuestreo y reponderación) para abordar desequilibrios, diseñar y seleccionar cuidadosamente algoritmos que minimicen los sesgos, incorporar revisión y supervisión humana (enfoques de "humano en el bucle"), promover la transparencia en el funcionamiento de los sistemas de IA, monitorear y auditar continuamente el sesgo, establecer pautas y marcos éticos, invertir en la capacitación de desarrolladores de IA y fomentar equipos de desarrollo diversos para identificar puntos ciegos.[14]
2. Para abordar los riesgos de privacidad, se están desarrollando diversas tecnologías y procedimientos. Las tecnologías clave incluyen la anonimización de datos, la computación multipartita segura (SMC), el cifrado homomórfico (que permite computar sobre datos cifrados), la privacidad diferencial (que añade ruido a los datos para proteger a los individuos manteniendo la utilidad estadística), la minimización de datos, el aprendizaje federado (que entrena modelos sobre datos descentralizados sin compartir los datos brutos) y los enclaves seguros (regiones de memoria aisladas por hardware). Las mejores prácticas también implican la realización de evaluaciones de riesgos de privacidad, la limitación de la recopilación de datos, la búsqueda y confirmación del consentimiento explícito y la adhesión a protocolos de seguridad robustos.[15]
3. Los esfuerzos para establecer marcos de rendición de cuentas para la IA buscan asegurar que la responsabilidad por los resultados negativos pueda ser asignada. Esto implica desarrollar IA explicable (XAI) para que las decisiones de la IA sean comprensibles para los humanos, realizar evaluaciones de impacto algorítmico antes de implementar sistemas, implementar herramientas de monitoreo continuo para detectar comportamientos inesperados y mantener registros de auditoría completos de los procesos de decisión de la IA. Se están desarrollando marcos legales para abordar específicamente la IA autónoma, incluyendo reglas de responsabilidad que reflejen la naturaleza distribuida del desarrollo y despliegue de la IA, y exigiendo requisitos de transparencia proporcionales al nivel de riesgo del sistema de IA.[16]
Los mecanismos detallados propuestos para la mitigación de riesgos de la IA implican consistentemente una combinación de soluciones técnicas y medidas legales/políticas. Esto indica un reconocimiento fundamental de que las reglas legales por sí solas son insuficientes para gobernar la IA; la tecnología misma debe diseñarse con consideraciones éticas y de seguridad incorporadas.
Esto significa que la regulación efectiva de la IA no puede depender únicamente de instrumentos legales tradicionales o de la aplicación ex post, sino que debe integrar profundamente la experiencia técnica y los principios de "diseño para la seguridad" en el ciclo de vida del desarrollo. [17] Esto hace que la gobernanza de la IA sea inherentemente más compleja y requiere un nuevo tipo de reguladores y formuladores de políticas que comprendan tanto los marcos legales como la informática avanzada, un desafío menos pronunciado en la regulación nuclear, que trata con sistemas más físicamente restringidos y controlados por humanos.
4. Análisis comparativo: paralelismos y divergencias en el manejo de los riesgos
a. Similitudes en la naturaleza de los riesgos y la necesidad de su regulación
Tanto la energía atómica como la IA son ejemplos arquetípicos de tecnologías de doble uso. Poseen un inmenso potencial para el beneficio social, como la energía limpia, los avances en la atención médica y el aumento de la eficiencia en diversas industrias. Sin embargo, también conllevan riesgos significativos de uso indebido (por ejemplo, proliferación nuclear, armas autónomas) o de daño sistémico no intencionado (por ejemplo, accidentes de reactor, discriminación algorítmica, desinformación generalizada).
Ambas son percibidas como tecnologías con el poder de transformar profundamente la sociedad humana, para bien o para mal, lo que exige una gobernanza para prevenir el "uso incontrolado" y asegurar que los beneficios superen los daños.
El reconocimiento de que los riesgos planteados por ambas tecnologías trascienden las fronteras nacionales impulsa un llamado universal a la cooperación internacional y al establecimiento de marcos globales para gestionarlas eficazmente.
La motivación compartida para la regulación en ambos dominios, evidenciada por los "profundos temores y expectativas" en torno a la tecnología nuclear apunta a una respuesta humana fundamental y recurrente a las tecnologías poderosas y de doble uso. Se trata del impulso innato de aprovechar los beneficios tecnológicos al tiempo que se mitigan el potencial catastrófico o sistémico si se dejan sin control. Esta constante búsqueda humana de control sobre el poder tecnológico sugiere que, si bien los mecanismos de regulación deben diferir significativamente debido a la naturaleza de la tecnología, la intención de garantizar el desarrollo y despliegue responsables de las tecnologías transformadoras sigue siendo un imperativo constante y universal a través de los períodos históricos y los avances tecnológicos.
b. Diferencias fundamentales
A pesar de las similitudes en la motivación regulatoria, las diferencias intrínsecas entre la energía atómica y la IA han dado lugar a paradigmas regulatorios distintos.
En cuanto a la tangibilidad de los riesgos:
● Para la energía atómica, los riesgos son principalmente físicos, tangibles y a menudo localizados o contenidos (por ejemplo, fugas de radiación, explosiones nucleares, contaminación por residuos radiactivos). El daño es directamente medible, atribuible a eventos o sitios específicos, y a menudo implica barreras físicas y contención.
● Para la inteligencia artificial, los riesgos son a menudo intangibles, sistémicos y difusos (por ejemplo, sesgo algorítmico que conduce a discriminación, violaciones de la privacidad por uso indebido de datos, erosión de procesos democráticos a través de la desinformación, desplazamiento de empleos). Los daños pueden ser indirectos, acumulativos, difíciles de rastrear hasta un único punto de falla y pueden perpetuar o exacerbar las desigualdades sociales existentes.
Respecto a la centralización y el control:
● La energía atómica implica materiales finitos y físicamente controlables (por ejemplo, uranio, plutonio) e infraestructuras grandes, intensivas en capital y centralizadas (centrales nucleares, reactores de investigación, depósitos de residuos). Esta centralización inherente facilita las salvaguardias físicas, las inspecciones, la concesión de licencias y el monitoreo de un número relativamente limitado de entidades estatales y comerciales identificables.
● La inteligencia artificial se basa fundamentalmente en software, es omnipresente y puede ser desarrollada, desplegada y adaptada por una multitud de actores descentralizados, que van desde grandes corporaciones tecnológicas hasta pequeñas startups, investigadores académicos e incluso individuos con recursos informáticos personales. Esta descentralización inherente y la facilidad de distribución hacen que la regulación tradicional de mando y control, basada en la supervisión física, sea excepcionalmente desafiante.
En cuanto a la velocidad de desarrollo:
● La energía atómica ha tenido una evolución relativamente lenta, particularmente el desarrollo y despliegue de infraestructura a gran escala como las centrales eléctricas. Se caracteriza por ciclos largos de investigación y desarrollo, pruebas extensas y períodos de construcción de varios años. Esto permitió décadas de desarrollo y adaptación regulatoria gradual.
● La inteligencia artificial se caracteriza por avances extremadamente rápidos, con nuevas capacidades, modelos y aplicaciones que surgen constantemente, a menudo en cuestión de meses o incluso semanas. Este ritmo acelerado hace inherentemente difícil que los procesos legislativos y regulatorios, que suelen ser más lentos, sigan el ritmo de la evolución tecnológica. El consumo energético de la IA para el hardware es notable, pero la IA en sí misma es software, inherentemente más fluido y menos restringido físicamente. La velocidad a la que la tecnología puede superar la regulación es una preocupación explícita.
La comparación de estas tres dimensiones (tangibilidad, centralización, velocidad) revela que las características inherentes de cada tecnología dictan paradigmas regulatorios muy diferentes.
La naturaleza física, centralizada y lenta de la energía nuclear permitió un régimen robusto, de arriba hacia abajo y basado en la inspección, centrado en la contención física y el control de materiales.
La naturaleza digital, descentralizada y rápida de la IA, junto con sus riesgos intangibles, exige un enfoque más ágil, distribuido y técnicamente integrado.
Aplicar directamente los modelos regulatorios nucleares a la IA sin una adaptación significativa sería ineficaz y podría sofocar la innovación. La gobernanza de la IA requiere un cambio fundamental de enfoque: de la contención física a la gobernanza de datos, de la contabilidad de materiales a la transparencia algorítmica, de las inspecciones de sitios al monitoreo continuo del comportamiento del sistema, y de una legislación rígida y lenta a marcos flexibles y adaptables.
5. Lecciones aprendidas de la regulación nuclear aplicables a la IA
Aunque las diferencias en la naturaleza de las tecnologías exigen enfoques regulatorios distintos, la experiencia en la gobernanza nuclear ofrece lecciones conceptuales valiosas para la IA.
a. La adopción de un enfoque basado en riesgos es un principio clave. La experiencia nuclear de categorizar y gestionar sistemáticamente distintos tipos de riesgos (seguridad, seguridad física, no proliferación, residuos) y aplicar controles graduados basados en los niveles de riesgo proporciona un modelo valioso. La regulación de la IA, como se observa en la Ley de IA de la UE, ya está adoptando un enfoque similar, basado en el riesgo y graduado, lo que demuestra la transferibilidad de este principio.
b. La importancia de la cooperación internacional y los marcos globales es innegable. El establecimiento del OIEA y el TNP demuestra la necesidad crítica de marcos globales robustos y una cooperación internacional sostenida para gestionar eficazmente las tecnologías con riesgos transnacionales. Los repetidos llamamientos de las Naciones Unidas a una gobernanza global unificada de la IA se hacen eco directamente de esta lección, enfatizando que los esfuerzos nacionales por sí solos son insuficientes.
c. La gestión del doble uso y el equilibrio entre promoción y control ofrecen una perspectiva crucial. El régimen nuclear ha logrado durante mucho tiempo equilibrar la promoción de los usos pacíficos con controles estrictos para prevenir aplicaciones militares. Esto proporciona que implica fomentar la innovación al mismo tiempo que se implementan salvaguardias sólidas contra el uso indebido y los daños no intencionados.
d. La necesidad de supervisión independiente y mecanismos de verificación es otra lección fundamental. El papel del OIEA como organismo de verificación independiente y experto, que lleva a cabo salvaguardias e inspecciones, subraya la importancia de establecer mecanismos de supervisión imparciales para la IA. Esto es vital para generar confianza, garantizar el cumplimiento y proporcionar evaluaciones creíbles de la seguridad, la equidad y la protección de los sistemas de IA.
e. Finalmente, el establecimiento de marcos de responsabilidad claros es esencial. El marco nuclear enfatiza la clara asignación de responsabilidades entre los Estados, los operadores y los organismos reguladores. Para la IA, esto se traduce en la necesidad imperativa de desarrollar marcos de rendición de cuentas sólidos que aborden el problema de la "caja negra" y la naturaleza distribuida de las responsabilidades en el desarrollo y despliegue de la IA.
En resumen, si bien los principios fundamentales de gestión de riesgos, cooperación internacional, supervisión independiente y gestión de doble uso del ámbito nuclear son altamente relevantes y transferibles a la gobernanza de la IA, los mecanismos para su implementación deben adaptarse a la naturaleza digital, descentralizada y de rápida evolución de la IA.
La experiencia nuclear proporciona una hoja de ruta conceptual, pero la IA requiere soluciones innovadoras y tecnológicamente informadas.
6. Conclusiones
El análisis comparativo de la regulación del uso pacífico de la energía atómica y la inteligencia artificial revela que, si bien ambas tecnologías han impulsado la necesidad de una gobernanza rigurosa debido a su potencial transformador y sus riesgos inherentes, la naturaleza de estos riesgos ha dictado trayectorias regulatorias fundamentalmente diferentes.
La energía atómica, con sus riesgos físicos tangibles y su infraestructura centralizada y de desarrollo lento, permitió la creación de un marco de gobernanza maduro, basado en tratados vinculantes y una supervisión internacional centralizada a través del OIEA. Este modelo ha demostrado la eficacia de la cooperación global para contener una amenaza existencial clara y universalmente reconocida.
En contraste, la inteligencia artificial presenta un desafío regulatorio de una complejidad sin precedentes. Sus riesgos son a menudo intangibles (sesgo, privacidad, desinformación), su desarrollo es descentralizado y su evolución es extraordinariamente rápida, lo que supera la capacidad de los marcos legislativos tradicionales. El panorama regulatorio de la IA es actualmente fragmentado, con enfoques divergentes en la UE, EE. UU. y China, lo que dificulta la armonización global.
A pesar de estas diferencias, la experiencia nuclear ofrece lecciones valiosas. La adopción de un enfoque basado en riesgos, la imperativa de la cooperación internacional, la gestión del doble uso y la necesidad de una supervisión y rendición de cuentas independientes son principios que deben guiar la gobernanza de la IA.
Sin embargo, los mecanismos para implementar estos principios en la IA deben ser innovadores y adaptados a su naturaleza digital. Esto implica un énfasis en la gobernanza de datos, la transparencia algorítmica, la integración de la ética en el diseño tecnológico y el desarrollo de marcos legales que aborden la responsabilidad en sistemas complejos y autónomos.
En última instancia, el éxito de la regulación de la IA dependerá de la capacidad de la comunidad internacional para forjar un consenso sobre principios comunes, desarrollar mecanismos de gobernanza ágiles y tecnológicamente informados, y fomentar una colaboración genuina que equilibre la innovación con la protección de los derechos humanos y la estabilidad social.
(*) Abogado. Doctor en Ciencias Jurídicas. Profesor Emérito de la Facultad de Derecho (UCA). Presidente de Albrematica SA y Líder del Departamento de Inteligencia Artificial de la empresa.
[1] https://www.infobae.com/america/cultura/2023/07/23/la-sombra-de-oppenheimer-lecciones-de-la-bomba-atomica-para-la-era-de-la-inteligencia-artificial/
[2] https://www.iaea.org/publications/documents/treaties/npt
[3] https://www-pub.iaea.org/MTCD/publications/PDF/rwmp-3/INTRODUCTION.pdf
[4] https://www.numberanalytics.com/blog/ultimate-guide-radioactive-waste-nuclear-law-regulation
[6] Ya citado https://www.infobae.com/america/cultura/2023/07/23/la-sombra-de-oppenheimer-lecciones-de-la-bomba-atomica-para-la-era-de-la-inteligencia-artificial/
[8] https://www.brennancenter.org/es/our-work/analysis-opinion/inteligencia-artificial-pone-en-riesgo-elecciones-medidas-proteger-democracia
[9] https://www.europarl.europa.eu/topics/es/article/20230601STO93804/ley-de-ia-de-la-ue-primera-normativa-sobre-inteligencia-artificial
[10] https://www.latimes.com/espanol/eeuu/articulo/2025-01-22/trump-revoca-orden-de-biden-sobre-seguridad-en-ia-para-diferenciarse-de-su-antecesor
[11] https://www.insideprivacy.com/international/china/china-releases-new-labeling-requirements-for-ai-generated-content/