Estado actual de la regulación de la IA en la República Argentina y propuestas de análisis de soluciones de otros países

Estado actual de la regulación de la IA en la República Argentina y propuestas de análisis de soluciones de otros países - elDial.com


La regulación de la inteligencia artificial (IA) en Argentina se encuentra en pleno debate, con 19 proyectos de ley en análisis. La discusión se centra en encontrar un marco flexible y adaptado a los rápidos avances tecnológicos. En este artículo, exploramos las propuestas locales y las mejores prácticas internacionales, como las de Reino Unido e Italia, que buscan equilibrar la innovación con la protección de derechos fundamentales y la ética en el uso de IA.



a.   Las propuestas de regulación argentina de la IA

 Como tuve oportunidad de exponer en la reunión del 20 de agosto 2024 de la Comisión de Ciencia y Tecnología de la Honorable Cámara de Diputados para la regulación de la IA [1], donde actualmente se encuentran analizando 19 proyectos de ley -4 de la Cámara de Senadores y 15 de la Cámara de Diputados- [2] considero ésta debería regirse por los principios de soft law en razón de las características propias del objeto a regular y en base a los siguientes argumentos:

 

1.   Flexibilidad y Adaptabilidad: buscar un marco regulatorio flexible que se adapta a la rápida evolución de la tecnología. En lugar de imponer reglas rígidas que podrían volverse obsoletas rápidamente, se basa en principios generales y guías que permiten a las organizaciones innovar mientras siguen siendo responsables de las implicaciones éticas y legales de sus tecnologías.

 

2.   Enfoque Basado en Riesgos: en base a lo prescripto en el art. 1757 Código Civil y Comercial de la Nación priorizar la regulación en áreas donde el uso de la IA presente mayores riesgos, como en la protección de datos y la toma de decisiones automatizadas que afectan a los derechos individuales, lo que permite una regulación más eficiente y focalizada, evitando la sobrecarga regulatoria en sectores donde los riesgos son menores. El Juez, en cada caso analizará la consideración de si la aplicación de IA encuadraría dentro de las actividades peligrosas previstas en la norma citada.

 

3.   Énfasis en la Ética y la Responsabilidad: Partir de principios éticos claros para guiar el desarrollo y uso de la IA, lo que fomenta una cultura de responsabilidad en las organizaciones. Esto no solo protege a los individuos y a la sociedad, sino que también contribuye a crear un entorno de confianza pública en las tecnologías de IA.

 

4.   Colaboración Público-Privada: Fomentar una estrecha colaboración entre el sector público y privado. Esta colaboración asegura que las regulaciones y guías éticas estén alineadas con las necesidades de la industria, facilitando la innovación mientras se garantiza que se respeten los estándares de seguridad y ética.

 

5.   Transparencia y Supervisión: El énfasis en la transparencia y la supervisión activa permite que los sistemas de IA sean más comprensibles y responsables. La implementación de comités de supervisión y la promoción de la transparencia en el desarrollo y uso de la IA ayudan a mitigar los riesgos asociados con la opacidad en las decisiones automatizadas.

 

6.   Educación y Concienciación: Incluir iniciativas educativas tanto para desarrolladores como para el público en general, lo que asegura que las personas estén mejor informadas sobre el uso de la IA, sus beneficios y riesgos, lo que a su vez fomenta un uso más informado y ético de estas tecnologías.

 

7.   Innovación Responsable: Favorecer el uso de “sandboxes regulatorios” y otros programas de apoyo a la innovación permite a las empresas probar nuevas tecnologías en un entorno controlado. Esto facilita la innovación responsable, permitiendo a las organizaciones experimentar con nuevas aplicaciones de IA mientras cumplen con los estándares regulatorios y éticos. [3]

 

8.   Respaldo Institucional y Político: Demostrar un fuerte compromiso institucional y político hacia el desarrollo responsable de la IA

 

9.   Protección de los Derechos de los Individuos: Reformular la Ley de Protección de Datos Personales asegurando que los derechos de los individuos sean protegidos, especialmente en lo que respecta a la privacidad y el tratamiento de datos personales, lo que es crucial en un contexto donde las tecnologías de IA tienen un acceso creciente a información sensible.

 

10.   Analizar el “desarrollo normativo de países líderes”: como el reciente proyecto italiano de regulación de la IA [4] o las propuestas británicas enunciadas en el apartado siguiente. La propuesta italiana tiene como objetivo establecer principios y regulaciones para la investigación, desarrollo y aplicación de sistemas y modelos de inteligencia artificial, no regulando temas nuevos sino las consecuencias del uso de la IA en distintos ámbitos. Los puntos clave del proyecto son la promoción del uso de la IA para mejorar la productividad y competitividad del sistema económico nacional, facilitando el acceso a datos de alta calidad para empresas y la comunidad científica, declarando de interés público la investigación y experimentación científica en IA con fines médicos y de salud pública, con la novedad que los contenidos generados o modificados por IA deben ser claramente identificables y que las obras creadas con IA deben ser reconocidas como resultado del trabajo intelectual humano. Introduciendo, por ejemplo, como novedad agravantes penales para delitos cometidos mediante el uso de IA, incluyendo la difusión ilícita de contenidos alterados con IA. El proyecto busca, en definitiva, equilibrar el desarrollo y la adopción de la IA con la protección de derechos fundamentales y la seguridad, promoviendo un uso ético y responsable de esta tecnología en diversos sectores.

 

En resumen, considero útil proponer un esquema que se caracterice por su flexibilidad, enfoque ético, colaboración público-privada, y compromiso con la transparencia y la responsabilidad.

 

Estos aspectos positivos contribuyen a un entorno regulatorio que promueve la innovación responsable y protege los derechos de las personas, estableciendo un modelo a seguir en el ámbito internacional.

 

 

b.   Regulación de la Inteligencia Artificial en el Reino Unido

 

En el documento "Implementación de los principios regulatorios de IA del Reino Unido" [5] de febrero de 2024 se proporciona una guía para los reguladores en la aplicación de los principios regulatorios relacionados con la inteligencia artificial y establece orientaciones voluntarias para que los reguladores del Reino Unido implementen de acuerdo a los cinco principios regulatorios clave de IA delineados en el Libro Blanco del Reino Unido sobre la Regulación de la IA, publicado en marzo de 2023, y están diseñados para ser interpretados y aplicados según las competencias de cada regulador.

 

El enfoque del Reino Unido en la regulación de la IA es favorable a la innovación, y se basa en la idea de que los reguladores deben tener la flexibilidad de aplicar estos principios de acuerdo con las necesidades específicas de sus sectores. El documento no es prescriptivo y reconoce que los reguladores pueden estar en diferentes etapas en su consideración de los riesgos de la IA.

 

El principal objetivo de este documento es apoyar a los reguladores del Reino Unido en la implementación de dichos principios regulatorios de IA. Es una guía no estatutaria, es decir, su adopción es voluntaria y no vinculante y se centra en proporcionar herramientas y orientación que los reguladores pueden utilizar para desarrollar sus propios marcos y procedimientos, adaptados a sus necesidades específicas.

 

El documento también subraya la importancia de la colaboración entre reguladores y menciona la creación de una "función central" dentro del gobierno para apoyar la comprensión de los riesgos de la IA y promover la coherencia en la regulación de la IA en el Reino Unido.

 

Este documento se considera un nuevo paso hacia la implementación coherente y flexible de los principios regulatorios de IA en el Reino Unido, que reconoce la complejidad y la rápida evolución de la tecnología de IA, y busca equipar a los reguladores con las herramientas necesarias para gestionar los riesgos y oportunidades que presenta la IA en diferentes sectores.

 

Al centrarse en la colaboración y el desarrollo gradual de guías y recursos, el Reino Unido pretende mantener un enfoque regulatorio que apoye la innovación mientras protege a la sociedad de los posibles riesgos asociados con la IA.

 

Se enfoca en ayudar a los reguladores a desarrollar herramientas y directrices que se alineen con cinco principios clave establecidos en el Libro Blanco del Reino Unido sobre la regulación de la IA [6] seguridad, transparencia, equidad, rendición de cuentas y gobernanza, e impugnabilidad y recurso.

 

 

1. Propósito y naturaleza de la guía:

 

   Propósito: La guía tiene como objetivo proporcionar a los reguladores del Reino Unido un marco orientativo para la implementación de los principios regulatorios sobre la IA.

 

No busca ser prescriptiva ni obligatoria, sino que ofrece flexibilidad para que cada regulador interprete y aplique los principios según su contexto y necesidades específicas.

 

Se basa en un enfoque voluntario, donde los principios se pueden adaptar a las circunstancias particulares de cada sector regulado.

 

  Naturaleza: Los principios mencionados (seguridad, transparencia, equidad, rendición de cuentas, e impugnabilidad) son voluntarios y su aplicación depende de la discreción de los reguladores.

 

La guía reconoce que algunos reguladores ya tienen un enfoque “independiente de la tecnología” y que, en tales casos, no todos los aspectos de la guía serán aplicables si los marcos regulatorios existentes ya cubren adecuadamente los desafíos que plantea la IA.

 

 

2. Fondo y contexto:

 

   Libro Blanco sobre Regulación de la IA: Publicado en marzo de 2023 por el Gobierno del Reino Unido, este documento presenta un enfoque favorable a la innovación para la regulación de la IA -de hecho su título oficial “Un enfoque favorable a la innovación en la regulación de la IA”, está centrado en cinco principios clave: seguridad, transparencia, equidad, rendición de cuentas y gobernanza, e impugnabilidad y recurso que están diseñados para ser interpretados y aplicados por los reguladores dentro de sus respectivas competencias.

 

   Ámbito de aplicación: La guía está dirigida principalmente a reguladores cuya labor se ve directamente impactada por el uso de la IA.

 

Sin embargo, también es relevante para cualquier regulador que podría enfrentar impactos de la IA en el futuro. Reconoce que los reguladores se encuentran en diferentes etapas en su consideración de los riesgos y oportunidades de la IA, por lo que el enfoque adoptado debe ser flexible y adaptable.

 

 

3. Función central:

 

   Establecimiento y objetivos: Se ha creado una función central dentro del Departamento de Ciencia, Innovación y Tecnología (DSIT) para apoyar a los reguladores en la comprensión de los riesgos asociados con la IA.

 

Esta función ayuda a realizar evaluaciones de riesgos proporcionando análisis expertos y apoyando la identificación de brechas en la regulación que puedan requerir atención adicional.

 

   Desarrollo de capacidades: La función central también tiene el propósito de desarrollar las capacidades y la experiencia de los reguladores en relación con la IA.

 

Como parte de este esfuerzo, se ha destinado un fondo de 10 millones de libras esterlinas para impulsar estas capacidades. La función central colaborará estrechamente con los reguladores para identificar las oportunidades más prometedoras para utilizar esta financiación.

 

   Coherencia y colaboración: Otra función clave es fomentar la coherencia entre los reguladores, promoviendo el intercambio de información y ayudando a identificar y abordar posibles lagunas en las competencias regulatorias existentes.

 

Se trabaja activamente para desarrollar esta función central, con un enfoque en establecer su papel en la segunda fase de la orientación.

 

 

4. Fases de implementación de la guía:

 

   Primera fase: Esta fase inicial proporciona orientación para que los reguladores consideren los principios y comiencen a desarrollar herramientas y directrices dentro de sus competencias regulatorias. Esta fase establece las consideraciones clave que los reguladores deben tener en cuenta al implementar actividades regulatorias relacionadas con la IA, con el objetivo de cumplir con sus obligaciones, seguir buenas prácticas y mitigar riesgos.

 

   Segunda fase: Prevista para el verano de 2024, esta fase ampliará y perfeccionará la guía inicial, basada en los comentarios de los reguladores y otras partes interesadas. Se proporcionará más detalle sobre los mecanismos y recursos que ofrece la función central, y se trabajará en colaboración con los reguladores para identificar las necesidades adicionales de recursos o aclaraciones.

 

   Tercera fase: Esta fase implicará un trabajo colaborativo con los reguladores para identificar áreas en las que se puedan desarrollar herramientas conjuntas y orientación en todos los ámbitos regulatorios. Se tratará de identificar las áreas donde se necesite información adicional y recursos, y colaborar en soluciones conjuntas, como la emisión de orientaciones de múltiples reguladores.

 

 

5. Desarrollo de herramientas y orientaciones:

 

   Herramientas y orientaciones: Se refiere a cualquier producto que los reguladores puedan emitir para apoyar a los desarrolladores, implementadores y usuarios finales de IA. Estos productos buscan promover una mayor coherencia en la gestión de riesgos de IA en diferentes ámbitos regulatorios. Incluyen desde publicaciones de políticas y campañas de concienciación pública hasta guías técnicas y normativas.

 

   Colaboración y uso de estándares: Se alienta a los reguladores a promover la transparencia, considerando las directrices publicadas por otros reguladores y los beneficios de emitir herramientas o directrices conjuntas cuando se identifican riesgos o problemas transversales. Además, los reguladores pueden considerar el uso de estándares técnicos para ayudar a los desarrolladores e implementadores de IA a implementar los principios regulatorios en la práctica.

 

 

6. Aplicación de los principios individuales:

 

   Seguridad, protección y robustez: Los reguladores deben comunicar el nivel de riesgo relacionado con la seguridad en su ámbito de competencia, subrayando la importancia de que los desarrolladores y desplegadores de IA realicen evaluaciones de riesgos de seguridad e implementen mitigaciones adecuadas. También deben considerar cómo los sistemas de IA pueden mitigar y desarrollar resiliencia ante los riesgos relacionados con la ciberseguridad.

 

   Transparencia y explicabilidad adecuadas: Se enfatiza que la transparencia y la explicabilidad son cruciales para fomentar la confianza en la IA y aumentar su uso. Los reguladores deben alentar a los desarrolladores e implementadores de IA a implementar medidas adecuadas a estos principios y asegurar que los usuarios finales comprendan cómo se toman las decisiones mediante IA y cómo se pueden utilizar los resultados.

 

   Equidad: Los reguladores deben continuar desarrollando y publicando descripciones de equidad aplicables a los resultados de los sistemas de IA dentro de su ámbito de competencia. Deben considerar cómo se diseñan, desarrollan, despliegan y utilizan los sistemas de IA, teniendo en cuenta estas descripciones de equidad, y trabajar para armonizar las descripciones en competencias transversales.

 

   Rendición de cuentas y gobernanza: Los reguladores deben establecer expectativas claras sobre la responsabilidad y la buena gobernanza en la cadena de suministro de IA, asegurando que los desarrolladores y desplegadores de IA comprendan y cumplan con estas expectativas. La rendición de cuentas también implica promover la transparencia y la explicabilidad adecuadas.

 

   Impugnabilidad y recurso: Los reguladores deben asegurar que existan rutas claras para que los usuarios finales, implementadores de IA o cualquier persona afectada por la IA puedan impugnar los resultados. La transparencia y la explicabilidad son esenciales para garantizar que estas rutas sean claras y efectivas.

 

 

7. Comunicación de avances:

 

   Actualización periódica: Se anima a los reguladores a publicar actualizaciones periódicas que describan su enfoque estratégico hacia la IA, incluyendo cómo se aplica la IA en su ámbito de competencias regulatorias, las medidas que están adoptando para implementar los principios de IA, y los avances en la gestión de riesgos relacionados con la IA.

 

   Evaluación y planificación futura: Los reguladores deben evaluar sus capacidades actuales para manejar los riesgos de la IA, comparar estas capacidades con sus necesidades, y comunicar sus planes y actividades para los próximos 12 meses. Esto incluye las acciones para abordar las brechas de capacidad y cualquier otra actividad relacionada con la evaluación de riesgos y la participación de las partes interesadas.

 

 

8. Pasos siguientes:

 

   Segunda fase de la guía: Planeada para el verano de 2024, esta fase involucrará una colaboración más estrecha con los reguladores y partes interesadas para asegurar un mejor flujo de información y un intercambio de conocimientos más eficaz. Se enfocará en identificar las brechas dentro y entre los mandatos regulatorios y apoyará a los reguladores para abordar estos riesgos de manera efectiva.

 

   Función central: Esta función continuará desarrollándose para mejorar la capacidad del gobierno en la identificación de brechas regulatorias, apoyar el análisis de riesgos y asegurar una comprensión común de los problemas transversales relacionados con la IA.

 

Cada uno de estos conceptos amplía la orientación proporcionada en la guía para ayudar a los reguladores a implementar un marco coherente y flexible para la regulación de la IA en el Reino Unido. La guía busca asegurar que los desarrolladores, implementadores y usuarios finales de IA puedan operar dentro de un entorno regulatorio que promueva la innovación, pero que también garantice la seguridad, transparencia y equidad en el uso de la tecnología.

 

c.   La Ley de Regulación de la IA del Parlamento Europeo en comparación con la propuesta británica

 

El desarrollo de la ley de inteligencia artificial del Reino Unido se encuentra actualmente en una encrucijada. La decisión del Parlamento Europeo de un Reglamento de IA, aprobado el 21 de mayo de 2024 [7] , lo que ha generado una reacción negativa de las empresas en las que se utilicen sistemas de IA para tomar decisiones sobre los empleados en la Unión Europea (UE) [8]

 

Muchos consideran el enfoque de la UE como “muy prescriptivo” y se centra en la “mitigación preventiva de riesgos” en un amplio espectro de aplicaciones de IA, con el objetivo de establecer un punto de referencia para la gobernanza mundial de la IA. Esto contrasta con la estrategia más flexible y orientada a la innovación como la que pretende el Reino Unido, que busca adaptar las estructuras regulatorias existentes para acomodar los avances de la IA, particularmente en el sector financiero.

 

En la siguiente tabla se exponen algunas de las principales diferencias en el enfoque de la regulación de la IA.

 

UE

Reino Unido

Marco regulatorio y ámbito de aplicación

La Ley de IA proporciona un marco jurídico detallado y basado en el riesgo dirigido específicamente a varias categorías de aplicaciones de IA, prohibiendo algunas e introduciendo normas estrictas para los sistemas de "alto riesgo".

También describe las obligaciones tanto para los proveedores como para los implementadores, incluidos los requisitos de documentación, transparencia y supervisión exhaustivos.

El Reino Unido tiene un enfoque sectorial más basado en principios que hace hincapié en la flexibilidad y la innovación, especialmente en el sector de los servicios financieros.

No tiene una ley de IA independiente y completa, sino que integra las consideraciones de IA dentro de los marcos regulatorios existentes.

Prácticas prohibidas e IA de alto riesgo

La Ley de Inteligencia Artificial especifica prácticas prohibidas que incluyen la IA emocionalmente manipuladora, la IA utilizada para la vigilancia indiscriminada y la IA que categoriza a las personas de manera sensible.

Las categorías de alto riesgo incluyen la IA en infraestructuras críticas, educación, empleo y aplicación de la ley.

Si bien no se describen prohibiciones específicas sobre las prácticas de IA, se hace hincapié en la gestión de riesgos dentro de los límites de las leyes existentes, y los reguladores sectoriales como la Autoridad de Conducta Financiera (FCA) desempeñan un papel importante en la supervisión de las aplicaciones de IA.

Efectos extraterritoriales

La Ley de IA tiene un amplio alcance extraterritorial, similar al RGPD de la UE, y afecta a cualquier entidad que interactúe con ciudadanos de la UE o que comercialice sistemas de IA dentro de la UE.

El enfoque del Reino Unido se dirige principalmente a las entidades que operan dentro de su jurisdicción, con menos atención al alcance internacional, a menos que las empresas con sede en el Reino Unido participen en actividades que se extiendan a la UE.

Implementación y cumplimiento

Existen estrictos mecanismos de cumplimiento, incluidas las evaluaciones de conformidad y los registros de los sistemas de IA de alto riesgo.

Los proveedores también deben garantizar la transparencia y mantener una supervisión rigurosa de la implementación de la IA.

El cumplimiento está más integrado con los marcos regulatorios existentes y los principios establecidos por las autoridades pertinentes, con énfasis en mantener un régimen flexible que pueda adaptarse rápidamente a los avances tecnológicos.

 

Con posterioridad a las elecciones de julio 2024 el nuevo gobierno laborista británico afirmó que estudiará cómo regular eficazmente los modelos de inteligencia artificial, pero se ha abstenido de proponer una ley específica, si bien indicó que intentaría establecer la legislación adecuada para imponer requisitos a quienes trabajan en el desarrollo de "los modelos de inteligencia artificial más potentes", pero el gobierno está adoptando un enfoque prudente a la hora de ponerlas en marcha. [9]

 

 

d.   Conclusión:

 

En resumen, la regulación de la IA en el Reino Unido y la Ley de IA del Parlamento Europeo reflejan dos enfoques distintos hacia la gobernanza de la inteligencia artificial, siendo conveniente su análisis para la regulación que se desea elaborar para nuestro país.

 

El Reino Unido adopta un enfoque más flexible y pro-innovación, basado en principios generales que pueden adaptarse a diferentes sectores y contextos. Por otro lado, la UE ha optado por un enfoque más estructurado y precautorio, con una clasificación de riesgos detallada y requisitos específicos para asegurar la protección de los derechos fundamentales y la seguridad.

 

Ambos enfoques tienen sus ventajas y desafíos. El enfoque del Reino Unido podría permitir una mayor innovación y adaptabilidad, pero con el riesgo de que algunas aplicaciones de IA puedan no ser suficientemente reguladas. En contraste, el enfoque de la UE garantiza altos estándares de seguridad y ética, pero podría imponer barreras más altas a la innovación, especialmente para las startups y las pequeñas empresas.

 

Corresponde tener en consideración lo anunciado recientemente por el Poder Ejecutivo en el sentido que se propone a la República Argentina como “centro de IA de baja regulación” [10] a efectos de atraer la radicación de capitales de empresas tecnológicas del área de IA [11] recordando que este enfoque intermedio fue el aceptado recientemente por los líderes del G7 [12] y convertido en la solución elegida a nivel global con el fin de establecer estándares internacionales para una IA “digna de confianza”, e incluye principios como la transparencia, la mitigación de riesgos y la protección de datos personales [13]

 

Sugiero, por lo tanto:

 

a. Intentar una convivencia normativa como el Sandbox legal con las leyes tradicionales, y poder ir evolucionando nuestros marcos legales en la medida que evolucionan las tecnologías emergentes.

 

c. Sabiendo que lo único constante en la innovación y el desarrollo tecnológico de tecnologías disruptivas son los cambios, se necesita tener en cuenta que estas tecnologías tienen ciclos de vida, por lo que debe ser factible poder corregir estos ciclos de vida para que evolucionen hacia la protección de los valores humanos, de la biodiversidad y del medio ambiente.

 

e.   Es imperativo evitar que prevalezcan situaciones de discriminación, sesgos y violaciones a otros derechos humanos que atenten contra una vida digna, en lo individual y en lo colectivo y que además garanticen el respecto a nuestro entorno y su sostenibilidad futura, evaluando periódicamente los riesgos y evolucionar las regulaciones a que sean más flexibles y oportunas.

 

 

 

 

Citar: elDial DC34B3
copyright © 1997 - 2024 Editorial Albrematica S.A. - Tucumán 1440 (CP 1050) - Ciudad Autónoma de Buenos Aires - Argentina



[3] GRANERO, Horacio R. “Viabilidad y oportunidad del dictado de una legislación de IA en la República Argentina”, elDial.com del 16/07/2024 (elDial.com - DC3482); “La imperiosa necesidad de regular -bien- la Inteligencia Artificial (segunda parte) (Con motivo de la reunión del G7 en Italia en Junio 2024)”, elDial del 07/06/2024 (elDial.com - DC3452); “Ley de Inteligencia Artificial en Europa. Un paso más hacia la meta final y un desafío a la investigación” en elDial del 15/03/2024 (elDial.com - DC33B8)

[9] COULTER, Martin “El nuevo gobierno británico pretende regular los modelos de IA más potentes” publicado en La Nación 17 de julio 2024 https://www.lanacion.com.ar/agencias/el-nuevo-gobierno-britanico-pretende-regular-los-modelos-de-ia-mas-potentes-nid17072024/

[11] Ámbito.com, 11 de junio 2024, “Javier Milei: nace un referente mundial de la Inteligencia Artificial” https://www.ambito.com/politica/milei-nace-un-referente-mundial-la-inteligencia-artificial-n6013162 y Perfil “ Celebran en el G7 la oferta de Milei para recibir en Argentina a las empresas de IA” https://www.perfil.com/noticias/modo-fontevecchia/analista-desde-londres-ucrania-y-la-lucha-contra-el-calentamiento-global-ejes-del-g7-modof.phtml

[12] Ámbito.com, 11 de junio 2024, “Javier Milei: nace un referente mundial de la Inteligencia Artificial” https://www.ambito.com/politica/milei-nace-un-referente-mundial-la-inteligencia-artificial-n6013162 y Perfil “ Celebran en el G7 la oferta de Milei para recibir en Argentina a las empresas de IA” https://www.perfil.com/noticias/modo-fontevecchia/analista-desde-londres-ucrania-y-la-lucha-contra-el-calentamiento-global-ejes-del-g7-modof.phtml

[13] ver “El G7 y el "Proceso de IA de Hiroshima": Avanzando hacia una IA Responsable” en https://www.ania.org.mx/post/el-g7-y-el-proceso-de-ia-de-hiroshima-avanzando-hacia-una-iaresponsable