Estado actual de la regulación de la IA en la República Argentina y propuestas de análisis de soluciones de otros países
Más contenido jurídico en elDial.com
La regulación de la inteligencia artificial (IA) en Argentina se encuentra en pleno debate, con 19 proyectos de ley en análisis. La discusión se centra en encontrar un marco flexible y adaptado a los rápidos avances tecnológicos. En este artículo, exploramos las propuestas locales y las mejores prácticas internacionales, como las de Reino Unido e Italia, que buscan equilibrar la innovación con la protección de derechos fundamentales y la ética en el uso de IA.
Por Horacio Granero
a.
Las propuestas de regulación argentina de la IA
1.
Flexibilidad y Adaptabilidad: buscar un marco
regulatorio flexible que se adapta a la rápida evolución de la tecnología. En
lugar de imponer reglas rígidas que podrían volverse obsoletas rápidamente, se
basa en principios generales y guías que permiten a las organizaciones innovar
mientras siguen siendo responsables de las implicaciones éticas y legales de
sus tecnologías.
2.
Enfoque Basado en Riesgos: en base a lo
prescripto en el art. 1757 Código Civil y Comercial de la Nación priorizar la
regulación en áreas donde el uso de la IA presente mayores riesgos, como en la
protección de datos y la toma de decisiones automatizadas que afectan a los
derechos individuales, lo que permite una regulación más eficiente y
focalizada, evitando la sobrecarga regulatoria en sectores donde los riesgos
son menores. El Juez, en cada caso analizará la consideración de si la
aplicación de IA encuadraría dentro de las actividades peligrosas previstas en
la norma citada.
3.
Énfasis en la Ética y la Responsabilidad: Partir de principios éticos claros para guiar el desarrollo y uso de
la IA, lo que fomenta una cultura de responsabilidad en las organizaciones.
Esto no solo protege a los individuos y a la sociedad, sino que también
contribuye a crear un entorno de confianza pública en las tecnologías de IA.
4.
Colaboración Público-Privada: Fomentar una
estrecha colaboración entre el sector público y privado. Esta colaboración
asegura que las regulaciones y guías éticas estén alineadas con las necesidades
de la industria, facilitando la innovación mientras se garantiza que se
respeten los estándares de seguridad y ética.
5.
Transparencia y Supervisión: El énfasis en la
transparencia y la supervisión activa permite que los sistemas de IA sean más
comprensibles y responsables. La implementación de comités de supervisión y la
promoción de la transparencia en el desarrollo y uso de la IA ayudan a mitigar los
riesgos asociados con la opacidad en las decisiones automatizadas.
6.
Educación y Concienciación: Incluir
iniciativas educativas tanto para desarrolladores como para el público en
general, lo que asegura que las personas estén mejor informadas sobre el uso de
la IA, sus beneficios y riesgos, lo que a su vez fomenta un uso más informado y
ético de estas tecnologías.
7.
Innovación Responsable: Favorecer el
uso de “sandboxes regulatorios” y
otros programas de apoyo a la innovación permite a las empresas probar nuevas
tecnologías en un entorno controlado. Esto facilita la innovación responsable,
permitiendo a las organizaciones experimentar con nuevas aplicaciones de IA
mientras cumplen con los estándares regulatorios y éticos.
[3]
8.
Respaldo Institucional y Político:
Demostrar un fuerte compromiso institucional y político hacia el desarrollo
responsable de la IA
9.
Protección de los Derechos de los Individuos: Reformular la Ley de Protección de Datos Personales asegurando que los
derechos de los individuos sean protegidos, especialmente en lo que respecta a
la privacidad y el tratamiento de datos personales, lo que es crucial en un
contexto donde las tecnologías de IA tienen un acceso creciente a información
sensible.
10. Analizar el “desarrollo normativo de países líderes”: como el reciente proyecto italiano de regulación de la IA [4] o las propuestas británicas enunciadas en el apartado siguiente. La propuesta italiana tiene como objetivo establecer principios y regulaciones para la investigación, desarrollo y aplicación de sistemas y modelos de inteligencia artificial, no regulando temas nuevos sino las consecuencias del uso de la IA en distintos ámbitos. Los puntos clave del proyecto son la promoción del uso de la IA para mejorar la productividad y competitividad del sistema económico nacional, facilitando el acceso a datos de alta calidad para empresas y la comunidad científica, declarando de interés público la investigación y experimentación científica en IA con fines médicos y de salud pública, con la novedad que los contenidos generados o modificados por IA deben ser claramente identificables y que las obras creadas con IA deben ser reconocidas como resultado del trabajo intelectual humano. Introduciendo, por ejemplo, como novedad agravantes penales para delitos cometidos mediante el uso de IA, incluyendo la difusión ilícita de contenidos alterados con IA. El proyecto busca, en definitiva, equilibrar el desarrollo y la adopción de la IA con la protección de derechos fundamentales y la seguridad, promoviendo un uso ético y responsable de esta tecnología en diversos sectores.
En resumen, considero útil proponer un esquema
que se caracterice por su flexibilidad, enfoque ético, colaboración
público-privada, y compromiso con la transparencia y la responsabilidad.
Estos aspectos positivos contribuyen a un entorno regulatorio que promueve la innovación responsable y protege los derechos de las personas, estableciendo un modelo a seguir en el ámbito internacional.
b.
Regulación de la Inteligencia Artificial en el Reino Unido
En el documento "Implementación de los principios regulatorios de IA del Reino
Unido"
[5]
de
febrero de 2024 se proporciona una guía para los reguladores en la aplicación
de los principios regulatorios relacionados con la inteligencia artificial y
establece orientaciones voluntarias para que los reguladores del Reino Unido
implementen de acuerdo a los cinco principios regulatorios clave de IA
delineados en el Libro Blanco del Reino Unido sobre la Regulación de la IA,
publicado en marzo de 2023, y están diseñados para ser interpretados y
aplicados según las competencias de cada regulador.
El enfoque del Reino Unido en la regulación de
la IA es favorable a la innovación, y se basa en la idea de que los reguladores
deben tener la flexibilidad de aplicar estos principios de acuerdo con las
necesidades específicas de sus sectores. El documento no es prescriptivo y
reconoce que los reguladores pueden estar en diferentes etapas en su
consideración de los riesgos de la IA.
El principal objetivo de este documento es apoyar a los reguladores del Reino Unido en la implementación de dichos principios regulatorios de IA. Es una guía no estatutaria, es decir, su adopción es voluntaria y no vinculante y se centra en proporcionar herramientas y orientación que los reguladores pueden utilizar para desarrollar sus propios marcos y procedimientos, adaptados a sus necesidades específicas.
El documento también subraya la importancia de la colaboración entre reguladores y menciona la creación de una "función central" dentro del gobierno para apoyar la comprensión de los riesgos de la IA y promover la coherencia en la regulación de la IA en el Reino Unido.
Este documento se considera un nuevo paso hacia la implementación coherente y flexible de los principios regulatorios de IA en el Reino Unido, que reconoce la complejidad y la rápida evolución de la tecnología de IA, y busca equipar a los reguladores con las herramientas necesarias para gestionar los riesgos y oportunidades que presenta la IA en diferentes sectores.
Al centrarse en la colaboración y el desarrollo gradual de guías y recursos, el Reino Unido pretende mantener un enfoque regulatorio que apoye la innovación mientras protege a la sociedad de los posibles riesgos asociados con la IA.
Se enfoca en ayudar a los reguladores a desarrollar herramientas y directrices que se alineen con cinco principios clave establecidos en el Libro Blanco del Reino Unido sobre la regulación de la IA [6] seguridad, transparencia, equidad, rendición de cuentas y gobernanza, e impugnabilidad y recurso.
1. Propósito y
naturaleza de la guía:
●
Propósito: La guía tiene como objetivo proporcionar a los
reguladores del Reino Unido un marco orientativo para la implementación de los
principios regulatorios sobre la IA.
No busca ser prescriptiva ni obligatoria, sino
que ofrece flexibilidad para que cada regulador interprete y aplique los
principios según su contexto y necesidades específicas.
Se basa en un enfoque voluntario, donde los
principios se pueden adaptar a las circunstancias particulares de cada sector
regulado.
● Naturaleza: Los principios mencionados (seguridad, transparencia, equidad, rendición de cuentas, e impugnabilidad) son voluntarios y su aplicación depende de la discreción de los reguladores.
La guía reconoce que algunos reguladores ya tienen un enfoque “independiente de la tecnología” y que, en tales casos, no todos los aspectos de la guía serán aplicables si los marcos regulatorios existentes ya cubren adecuadamente los desafíos que plantea la IA.
2. Fondo y
contexto:
●
Libro Blanco sobre Regulación de la IA:
Publicado en marzo de 2023 por el Gobierno del Reino Unido, este documento
presenta un enfoque favorable a la innovación para la regulación de la IA -de
hecho su título oficial “Un enfoque
favorable a la innovación en la regulación de la IA”, está centrado en
cinco principios clave: seguridad, transparencia, equidad, rendición de cuentas
y gobernanza, e impugnabilidad y recurso que están diseñados para ser
interpretados y aplicados por los reguladores dentro de sus respectivas
competencias.
● Ámbito de aplicación: La guía está dirigida principalmente a reguladores cuya labor se ve directamente impactada por el uso de la IA.
Sin embargo, también es relevante para cualquier regulador que podría enfrentar impactos de la IA en el futuro. Reconoce que los reguladores se encuentran en diferentes etapas en su consideración de los riesgos y oportunidades de la IA, por lo que el enfoque adoptado debe ser flexible y adaptable.
3. Función central:
● Establecimiento y objetivos: Se ha creado una función central dentro del Departamento de Ciencia, Innovación y Tecnología (DSIT) para apoyar a los reguladores en la comprensión de los riesgos asociados con la IA.
Esta función ayuda a realizar evaluaciones de
riesgos proporcionando análisis expertos y apoyando la identificación de
brechas en la regulación que puedan requerir atención adicional.
● Desarrollo de capacidades: La función central también tiene el propósito de desarrollar las capacidades y la experiencia de los reguladores en relación con la IA.
Como parte de este esfuerzo, se ha destinado un
fondo de 10 millones de libras esterlinas para impulsar estas capacidades. La
función central colaborará estrechamente con los reguladores para identificar
las oportunidades más prometedoras para utilizar esta financiación.
● Coherencia y colaboración: Otra función clave es fomentar la coherencia entre los reguladores, promoviendo el intercambio de información y ayudando a identificar y abordar posibles lagunas en las competencias regulatorias existentes.
Se trabaja activamente para desarrollar esta función central, con un enfoque en establecer su papel en la segunda fase de la orientación.
4. Fases de
implementación de la guía:
●
Primera fase: Esta fase inicial proporciona orientación para
que los reguladores consideren los principios y comiencen a desarrollar
herramientas y directrices dentro de sus competencias regulatorias. Esta fase
establece las consideraciones clave que los reguladores deben tener en cuenta
al implementar actividades regulatorias relacionadas con la IA, con el objetivo
de cumplir con sus obligaciones, seguir buenas prácticas y mitigar riesgos.
●
Segunda fase: Prevista para el verano de 2024, esta fase
ampliará y perfeccionará la guía inicial, basada en los comentarios de los
reguladores y otras partes interesadas. Se proporcionará más detalle sobre los
mecanismos y recursos que ofrece la función central, y se trabajará en
colaboración con los reguladores para identificar las necesidades adicionales
de recursos o aclaraciones.
● Tercera fase: Esta fase implicará un trabajo colaborativo con los reguladores para identificar áreas en las que se puedan desarrollar herramientas conjuntas y orientación en todos los ámbitos regulatorios. Se tratará de identificar las áreas donde se necesite información adicional y recursos, y colaborar en soluciones conjuntas, como la emisión de orientaciones de múltiples reguladores.
5. Desarrollo de
herramientas y orientaciones:
●
Herramientas y orientaciones: Se refiere a
cualquier producto que los reguladores puedan emitir para apoyar a los
desarrolladores, implementadores y usuarios finales de IA. Estos productos
buscan promover una mayor coherencia en la gestión de riesgos de IA en
diferentes ámbitos regulatorios. Incluyen desde publicaciones de políticas y
campañas de concienciación pública hasta guías técnicas y normativas.
● Colaboración y uso de estándares: Se alienta a los reguladores a promover la transparencia, considerando las directrices publicadas por otros reguladores y los beneficios de emitir herramientas o directrices conjuntas cuando se identifican riesgos o problemas transversales. Además, los reguladores pueden considerar el uso de estándares técnicos para ayudar a los desarrolladores e implementadores de IA a implementar los principios regulatorios en la práctica.
6. Aplicación de
los principios individuales:
●
Seguridad, protección y robustez: Los reguladores
deben comunicar el nivel de riesgo relacionado con la seguridad en su ámbito de
competencia, subrayando la importancia de que los desarrolladores y
desplegadores de IA realicen evaluaciones de riesgos de seguridad e implementen
mitigaciones adecuadas. También deben considerar cómo los sistemas de IA pueden
mitigar y desarrollar resiliencia ante los riesgos relacionados con la
ciberseguridad.
●
Transparencia y explicabilidad adecuadas: Se enfatiza que la transparencia
y la explicabilidad son cruciales
para fomentar la confianza en la IA y aumentar su uso. Los reguladores deben
alentar a los desarrolladores e implementadores de IA a implementar medidas
adecuadas a estos principios y asegurar que los usuarios finales comprendan
cómo se toman las decisiones mediante IA y cómo se pueden utilizar los
resultados.
●
Equidad: Los reguladores deben continuar desarrollando
y publicando descripciones de equidad aplicables a los resultados de los
sistemas de IA dentro de su ámbito de competencia. Deben considerar cómo se
diseñan, desarrollan, despliegan y utilizan los sistemas de IA, teniendo en
cuenta estas descripciones de equidad, y trabajar para armonizar las
descripciones en competencias transversales.
●
Rendición de cuentas y gobernanza: Los reguladores
deben establecer expectativas claras sobre la responsabilidad y la buena
gobernanza en la cadena de suministro de IA, asegurando que los desarrolladores
y desplegadores de IA comprendan y cumplan con estas expectativas. La rendición
de cuentas también implica promover la transparencia y la explicabilidad
adecuadas.
● Impugnabilidad y recurso: Los reguladores deben asegurar que existan rutas claras para que los usuarios finales, implementadores de IA o cualquier persona afectada por la IA puedan impugnar los resultados. La transparencia y la explicabilidad son esenciales para garantizar que estas rutas sean claras y efectivas.
7. Comunicación
de avances:
●
Actualización periódica: Se anima a los
reguladores a publicar actualizaciones periódicas que describan su enfoque
estratégico hacia la IA, incluyendo cómo se aplica la IA en su ámbito de
competencias regulatorias, las medidas que están adoptando para implementar los
principios de IA, y los avances en la gestión de riesgos relacionados con la
IA.
● Evaluación y planificación futura: Los reguladores deben evaluar sus capacidades actuales para manejar los riesgos de la IA, comparar estas capacidades con sus necesidades, y comunicar sus planes y actividades para los próximos 12 meses. Esto incluye las acciones para abordar las brechas de capacidad y cualquier otra actividad relacionada con la evaluación de riesgos y la participación de las partes interesadas.
8. Pasos
siguientes:
●
Segunda fase de la guía: Planeada para
el verano de 2024, esta fase involucrará una colaboración más estrecha con los
reguladores y partes interesadas para asegurar un mejor flujo de información y
un intercambio de conocimientos más eficaz. Se enfocará en identificar las
brechas dentro y entre los mandatos regulatorios y apoyará a los reguladores
para abordar estos riesgos de manera efectiva.
● Función central: Esta función continuará desarrollándose para mejorar la capacidad del gobierno en la identificación de brechas regulatorias, apoyar el análisis de riesgos y asegurar una comprensión común de los problemas transversales relacionados con la IA.
Cada uno de estos conceptos amplía la
orientación proporcionada en la guía para ayudar a los reguladores a
implementar un marco coherente y flexible para la regulación de la IA en el
Reino Unido. La guía busca asegurar que los desarrolladores, implementadores y
usuarios finales de IA puedan operar dentro de un entorno regulatorio que
promueva la innovación, pero que también garantice la seguridad, transparencia
y equidad en el uso de la tecnología.
c. La Ley de Regulación de la IA del Parlamento Europeo en comparación con la propuesta británica
El desarrollo de la ley de inteligencia artificial del Reino Unido se encuentra actualmente en una encrucijada. La decisión del Parlamento Europeo de un Reglamento de IA, aprobado el 21 de mayo de 2024 [7] , lo que ha generado una reacción negativa de las empresas en las que se utilicen sistemas de IA para tomar decisiones sobre los empleados en la Unión Europea (UE) [8]
Muchos consideran el enfoque de la UE como “muy prescriptivo” y se centra en la “mitigación preventiva de riesgos” en un
amplio espectro de aplicaciones de IA, con el objetivo de establecer un punto
de referencia para la gobernanza mundial de la IA. Esto contrasta con la
estrategia más flexible y orientada a la innovación como la que pretende el
Reino Unido, que busca adaptar las estructuras regulatorias existentes para
acomodar los avances de la IA, particularmente en el sector financiero.
En la siguiente tabla se exponen algunas de las
principales diferencias en el enfoque de la regulación de la IA.
UE |
Reino Unido |
Marco regulatorio y ámbito de aplicación |
|
La Ley de
IA proporciona un marco jurídico detallado y basado en el riesgo dirigido
específicamente a varias categorías de aplicaciones de IA, prohibiendo
algunas e introduciendo normas estrictas para los sistemas de "alto
riesgo". También
describe las obligaciones tanto para los proveedores como para los
implementadores, incluidos los requisitos de documentación, transparencia y
supervisión exhaustivos. |
El Reino
Unido tiene un enfoque sectorial más basado en principios que hace hincapié
en la flexibilidad y la innovación, especialmente en el sector de los
servicios financieros. No tiene
una ley de IA independiente y completa, sino que integra las consideraciones
de IA dentro de los marcos regulatorios existentes. |
Prácticas prohibidas e IA de alto riesgo |
|
La Ley de
Inteligencia Artificial especifica prácticas prohibidas que incluyen la IA
emocionalmente manipuladora, la IA utilizada para la vigilancia
indiscriminada y la IA que categoriza a las personas de manera sensible. Las
categorías de alto riesgo incluyen la IA en infraestructuras críticas,
educación, empleo y aplicación de la ley. |
Si bien
no se describen prohibiciones específicas sobre las prácticas de IA, se hace
hincapié en la gestión de riesgos dentro de los límites de las leyes
existentes, y los reguladores sectoriales como la Autoridad de Conducta
Financiera (FCA) desempeñan un papel importante en la supervisión de las
aplicaciones de IA. |
Efectos extraterritoriales |
|
La Ley de
IA tiene un amplio alcance extraterritorial, similar al RGPD de la UE, y
afecta a cualquier entidad que interactúe con ciudadanos de la UE o que
comercialice sistemas de IA dentro de la UE. |
El
enfoque del Reino Unido se dirige principalmente a las entidades que operan
dentro de su jurisdicción, con menos atención al alcance internacional, a
menos que las empresas con sede en el Reino Unido participen en actividades
que se extiendan a la UE. |
Implementación y cumplimiento |
|
Existen
estrictos mecanismos de cumplimiento, incluidas las evaluaciones de
conformidad y los registros de los sistemas de IA de alto riesgo. Los
proveedores también deben garantizar la transparencia y mantener una
supervisión rigurosa de la implementación de la IA. |
El
cumplimiento está más integrado con los marcos regulatorios existentes y los
principios establecidos por las autoridades pertinentes, con énfasis en
mantener un régimen flexible que pueda adaptarse rápidamente a los avances
tecnológicos. |
Con posterioridad a las elecciones de julio 2024 el nuevo gobierno laborista británico afirmó que estudiará cómo regular eficazmente los modelos de inteligencia artificial, pero se ha abstenido de proponer una ley específica, si bien indicó que intentaría establecer la legislación adecuada para imponer requisitos a quienes trabajan en el desarrollo de "los modelos de inteligencia artificial más potentes", pero el gobierno está adoptando un enfoque prudente a la hora de ponerlas en marcha. [9]
d. Conclusión:
En resumen, la regulación de la IA en el Reino Unido y la Ley de IA del Parlamento Europeo reflejan dos enfoques distintos hacia la gobernanza de la inteligencia artificial, siendo conveniente su análisis para la regulación que se desea elaborar para nuestro país.
El Reino Unido adopta un enfoque más flexible y pro-innovación, basado en principios generales que pueden adaptarse a diferentes sectores y contextos. Por otro lado, la UE ha optado por un enfoque más estructurado y precautorio, con una clasificación de riesgos detallada y requisitos específicos para asegurar la protección de los derechos fundamentales y la seguridad.
Ambos enfoques tienen sus ventajas y desafíos. El enfoque del Reino Unido podría permitir una mayor innovación y adaptabilidad, pero con el riesgo de que algunas aplicaciones de IA puedan no ser suficientemente reguladas. En contraste, el enfoque de la UE garantiza altos estándares de seguridad y ética, pero podría imponer barreras más altas a la innovación, especialmente para las startups y las pequeñas empresas.
Corresponde tener en consideración lo anunciado recientemente por el Poder Ejecutivo en el sentido que se propone a la República Argentina como “centro de IA de baja regulación” [10] a efectos de atraer la radicación de capitales de empresas tecnológicas del área de IA [11] recordando que este enfoque intermedio fue el aceptado recientemente por los líderes del G7 [12] y convertido en la solución elegida a nivel global con el fin de establecer estándares internacionales para una IA “digna de confianza”, e incluye principios como la transparencia, la mitigación de riesgos y la protección de datos personales [13]
Sugiero, por lo tanto:
a. Intentar una convivencia normativa como el Sandbox legal con las leyes tradicionales, y poder ir evolucionando nuestros marcos legales en la medida que evolucionan las tecnologías emergentes.
c. Sabiendo que lo único constante en la innovación y el desarrollo tecnológico de tecnologías disruptivas son los cambios, se necesita tener en cuenta que estas tecnologías tienen ciclos de vida, por lo que debe ser factible poder corregir estos ciclos de vida para que evolucionen hacia la protección de los valores humanos, de la biodiversidad y del medio ambiente.
e. Es imperativo evitar que prevalezcan situaciones de discriminación, sesgos y violaciones a otros derechos humanos que atenten contra una vida digna, en lo individual y en lo colectivo y que además garanticen el respecto a nuestro entorno y su sostenibilidad futura, evaluando periódicamente los riesgos y evolucionar las regulaciones a que sean más flexibles y oportunas.
Citar: elDial DC34B3
copyright © 1997 - 2024 Editorial Albrematica S.A. - Tucumán 1440 (CP 1050) -
Ciudad Autónoma de Buenos Aires - Argentina
[3] GRANERO, Horacio R. “Viabilidad
y oportunidad del dictado de una legislación de IA en la República Argentina”, elDial.com
del 16/07/2024 (elDial.com - DC3482); “La imperiosa necesidad de regular -bien- la
Inteligencia Artificial (segunda parte) (Con motivo de la reunión del G7 en Italia
en Junio 2024)”, elDial del 07/06/2024 (elDial.com - DC3452); “Ley de Inteligencia Artificial en Europa.
Un paso más hacia la meta final y un desafío a la investigación” en elDial
del 15/03/2024 (elDial.com - DC33B8)
[5]https://assets.publishing.service.gov.uk/media/65c0b6bd63a23d0013c821a0/implementing_the_uk_ai_regulatory_principles_guidance_for_regulators.pdf
[6]https://assets.publishing.service.gov.uk/government/uploads/system/uploads/attachment_data/file/1176093/a-pro-innovation-approach-to-ai-regulation-amended-print-ready.pdf
[8] HILTON, Tessa “Nueve preguntas que determinarán el futuro
de la regulación de la IA en el Reino Unido” https://hrcentre.uk.brightmine.com/commentary-and-insights/nine-questions-that-will-determine-the-future-of-ai-regulation-in-the-uk/167216/?gad_source=1&gclid=EAIaIQobChMI-dalkNSTiAMVOCCtBh0GegOUEAAYAiAAEgJJi_D_BwE
[9] COULTER, Martin “El
nuevo gobierno británico pretende regular los modelos de IA más potentes”
publicado en La Nación 17 de julio 2024 https://www.lanacion.com.ar/agencias/el-nuevo-gobierno-britanico-pretende-regular-los-modelos-de-ia-mas-potentes-nid17072024/
[11] Ámbito.com, 11 de junio 2024, “Javier Milei: nace un
referente mundial de la Inteligencia Artificial” https://www.ambito.com/politica/milei-nace-un-referente-mundial-la-inteligencia-artificial-n6013162 y Perfil “ Celebran en el G7 la oferta de Milei para
recibir en Argentina a las empresas de IA” https://www.perfil.com/noticias/modo-fontevecchia/analista-desde-londres-ucrania-y-la-lucha-contra-el-calentamiento-global-ejes-del-g7-modof.phtml
[12] Ámbito.com, 11 de junio 2024, “Javier Milei: nace un
referente mundial de la Inteligencia Artificial” https://www.ambito.com/politica/milei-nace-un-referente-mundial-la-inteligencia-artificial-n6013162 y Perfil “ Celebran en el G7 la oferta de Milei para
recibir en Argentina a las empresas de IA” https://www.perfil.com/noticias/modo-fontevecchia/analista-desde-londres-ucrania-y-la-lucha-contra-el-calentamiento-global-ejes-del-g7-modof.phtml
[13] ver “El G7 y el "Proceso de IA de Hiroshima":
Avanzando hacia una IA Responsable” en https://www.ania.org.mx/post/el-g7-y-el-proceso-de-ia-de-hiroshima-avanzando-hacia-una-iaresponsable
elDial.com: el portal jurídico líder en Argentina.