¿Puede un algoritmo ser justo? Sesgos, riesgos y principios jurídicos en la era de la IA


Más contenido jurídico en 
   elDial.com 

Por Federico Javier Licciardi

Uno de los primeros conflictos que el derecho va a encontrar en la utilización de inteligencia artificial aplicada a la justicia, son los sesgos algorítmicos. La empresa de tecnología International Business Machines (IBM) los define como “El uso de datos de entrenamiento defectuosos puede dar lugar a algoritmos que produzcan repetidamente errores, resultados injustos o incluso amplifiquen el sesgo inherente a los datos defectuosos”. 

A su vez resalta que esto también puede deberse a errores de programación, porque un desarrollador pondere injustamente factores para la toma de decisiones, basándose en sesgos propios. Entonces ello conlleva que los prejuicios con los que ha sido desarrollado el algoritmo terminen produciendo resultados discriminatorios en base a raza, sexo o religión. Uno de los ejemplos más relevantes en esta materia sucedió cuando la Administración de Justicia de los Estados Unidos, utilizó un algoritmo predictivo de aprendizaje automático, llamado COMPAS, en el que se registró una denuncia por mostrar sesgos raciales. Dicho sesgo fue detectado en el año 2016 en el caso Wisconsin Vs Loomis en el cual se utilizó este sistema para evaluar el riesgo de reincidencia y arrojó como resultado, un denominador común, un alto porcentaje de reincidencia en la raza negra. 

Este caso emblemático puso de relieve que los algoritmos, lejos de ser neutrales, pueden reproducir o incluso agravar desigualdades sociales. 

En un contexto donde la inteligencia artificial avanza rápidamente, surge una pregunta clave: ¿puede un algoritmo ser justo? Este trabajo propone que no es suficiente con adoptar tecnología eficiente; es necesario que su uso se adecúe a los valores constitucionales y a los principios del Derecho.

¿Puede un algoritmo ser justo?

Desafíos regulatorios de la inteligencia artificial en el Derecho[1]

1. Introducción

 

Uno de los primeros conflictos que el derecho va a encontrar en la utilización de inteligencia artificial aplicada a la justicia, son los sesgos algorítmicos.

Pero, ¿qué son los sesgos algorítmicos?; ¿por qué pueden producir conflictos? La empresa de tecnología International Business Machines (IBM), los define como “El uso de datos de entrenamiento defectuosos puede dar lugar a algoritmos que produzcan repetidamente errores, resultados injustos o incluso amplifiquen el sesgo inherente a los datos defectuosos[3]”. A su vez resalta que esto también puede deberse a errores de programación, porque un desarrollador pondere injustamente factores para la toma de decisiones, basándose en sesgos propios. Entonces ello conlleva que los prejuicios con los que ha sido desarrollado el algoritmo terminen produciendo resultados discriminatorios en base a raza, sexo o religión.

Uno de los ejemplos más relevantes en esta materia sucedió cuando la Administración de Justicia de los Estados Unidos, utilizó un algoritmo predictivo de aprendizaje automático, llamado COMPAS, en el que se registró una denuncia por mostrar sesgos raciales. Dicho sesgo fue detectado en el año 2016 en el caso Wisconsin Vs Loomis[4] en el cual se utilizó este sistema para evaluar el riesgo de reincidencia y arrojó como resultado, un denominador común, un alto porcentaje de reincidencia en la raza negra. Este caso emblemático puso de relieve que los algoritmos, lejos de ser neutrales, pueden reproducir o incluso agravar desigualdades sociales. En un contexto donde la inteligencia artificial avanza rápidamente, surge una pregunta clave: ¿puede un algoritmo ser justo? Este trabajo propone que no es suficiente con adoptar tecnología eficiente; es necesario que su uso se adecúe a los valores constitucionales y a los principios del Derecho.

 

2. Tesis

 

Sentado ello, la premisa a analizar es si la inteligencia artificial puede utilizarse en el ámbito jurídico, y cuales deben ser los marcos regulatorios que aseguren transparencia, no discriminación, explicabilidad y responsabilidad, de modo que se preserve el debido proceso, los derechos fundamentales, y la confianza de la sociedad en las decisiones de los jueces.

 

3. Argumentos que sostienen la tesis

 

3.1. La necesidad de transparencia y explicabilidad

 

Muchos sistemas de IA funcionan como "cajas negras", donde ni siquiera los desarrolladores pueden explicar por qué se llegó a una determinada decisión. En el ámbito del Derecho, esto resulta incompatible con el deber que recae sobre los jueces de emitir sentencias, debidamente fundadas y razonables, a la luz de lo establecido en el artículo 3° del Código Civil y Comercial de la Nación (CCyCN), dicha obligación impuesta a los magistrados debe entenderse como una derivación directa de la exigencia constitucional que les impone ejercer su función pública con arreglo a los principios que rigen nuestro sistema republicano de gobierno. Sobre la función jurisdiccional Agustin Gordillo ha sostenido que: “... finalmente por considerar el órgano especial y exclusivamente encargado por la Constitución de ejercer la función jurisdiccional: El Poder Judicial, integrado por órganos imparciales en la contienda y no sujetos a órganos superiores, por lo tanto, independientes. Es a estos órganos que corresponde el ejercicio exclusivo de la función jurisdiccional”[5]Y continua “definimos entonces a la función jurisdiccional como “la decisión con fuerza de verdad legal de controversias entre partes, hecha por un órgano imparcial e independiente.” Esta definición comprende dos elementos: a) Uno material (sustancial, de contenido) que se refiere a lo que la función es en sí misma (decisión con fuerza de verdad legal de controversias entre partes) y b) uno orgánico (o las funciones del estado subjetivo, formal), que se refiere al órgano o poder que, realiza la función. (Los Jueces, órganos imparciales e independientes.) La reunión de ambos elementos—el material y el orgánico— nos da la definición respectiva.”[6]

 Por otra parte, en Europa los jueces deben aplicar el Reglamento General de Protección de Datos (GDPR) de la Unión Europea, que establece en su art. 22 el derecho de explicación para decisiones automatizadas:

 Art. 22 RGPD Decisiones individuales automatizadas, incluida la elaboración de perfiles. El interesado tendrá derecho a no ser objeto de una decisión basada únicamente en el tratamiento automatizado, incluida la elaboración de perfiles, que produzca efectos jurídicos en él o le afecte significativamente de modo similar.[7]

 Estos parámetros tanto de un lado como del otro del Océano Atlántico, deben ser vistos como una base en la cual apoyarnos para utilizar correctamente los algoritmos en las decisiones de la justicia. Resulta indispensable considerar que no es posible que dejemos la seguridad jurídica de los países en manos de los desarrolladores de algoritmos predictivos, que no dudo, entienden de desarrollo, pero si no interviene en ese mismo desarrollo un jurista que aporte una mirada integral, estaremos ante muchos más casos de sesgos algorítmicos basados en los prejuicios de los desarrolladores, de los cuales los jueces carecen de herramientas para poder justificar sus sentencias.

 

3.2. El problema de los sesgos de la IA.

 

Como mencioné en la definición de IBM, los algoritmos aprenden a partir de grandes volúmenes de datos históricos. Así mismo el glosario de Google define al sesgo como “Estereotipo, prejuicio o preferencia de cosas, personas o grupos por sobre otros[8]”. Si esos datos están sesgados, el resultado también lo estará. En el documento del Kit de herramientas global sobre IA y el Estado de derecho para el poder judicial de la UNESCO[9], habla de diferentes sesgos: sesgo de muestra debido a datos de entrenamiento sesgados y no representativos, sesgo de recuerdo durante el etiquetado de datos, sesgo de asociación, sesgo de medición y para finalizar sesgo de automatización debido a la dependencia acrítica de los resultados generados por la IA. Este último aspecto reviste particular relevancia, en tanto no siempre resulta sencillo discernir la necesidad de mantener una actitud crítica y objetiva frente a la información proporcionada por los sistemas de inteligencia artificial automatizados. A los sesgos inherentes al diseño y entrenamiento del sistema, se suman los prejuicios cognitivos del propio usuario que lo interpreta. Asimismo, se ha identificado una tendencia conductual del ser humano a aceptar de manera acrítica las sugerencias emitidas por dichos sistemas. En consecuencia, se torna imperativo establecer con rigurosidad los marcos de responsabilidad respecto del uso y la supervisión de estas tecnologías.

Además del caso Wisconsin vs Loomis, también se han presentado sesgos en casos como el de Amazon, cuya IA para contrataciones favorecía candidatos varones, o el de PredPol en Estados Unidos, que intensificaba la vigilancia en comunidades racializadas,... “El modelo, en esencia, evaluaba dónde se habían realizado los arrestos y enviaba a la policía de vuelta a esos lugares[10]”, lo que demuestra que la IA puede perpetuar la discriminación sistémica.

 

3.3. La indefinición de la responsabilidad legal

 

Continuando con IBM, ya en el año 1979 utilizó una frase para describir la opinión de la empresa sobre la responsabilidad de las computadoras: “Un ordenador nunca puede ser considerado responsable, por lo tanto, un ordenador nunca debe tomar una decisión de gestión/negocio“.[11]

Entonces, ¿Quién responde si una IA judicial recomienda una decisión errada o discriminatoria? Desde el Derecho Civil se requiere de una acción u omisión imputable a una persona, con la IA, lo que sucede es que se difumina esta imputabilidad, haciendo necesario revisar o adaptar los regímenes de responsabilidad para casos de decisiones automatizadas.

La Corte Suprema de Justicia de la Nación tiene su doctrina definida respecto de la responsabilidad de los “motores de búsqueda” en el Caso “Rodríguez, María Belén c/ Google Inc. s/ daños y perjuicios":

"(...)Esta Corte adelanta su conclusión: no corresponde juzgar la eventual responsabilidad de los "motores de búsqueda" de acuerdo a las normas que establecen una responsabilidad objetiva, desinteresada de la idea de culpa. Corresponde hacerlo, en cambio, a la luz de la responsabilidad subjetiva.(...)" (Considerando 15, mayoría)[12].

"(....)Se ha dicho, gráficamente, que responsabilizar a los "buscadores" -como principio- por contenidos que no han creado, equivaldría a sancionar a la biblioteca que, a través de sus ficheros y catálogos, ha permitido la localización de un libro de contenido dañino, so pretexto que habría "facilitado" el daño(...)." (Considerando 16, mayoría)[13].

En el caso Gimbutas (Fallos: 340:1236)[14]: ratifica la doctrina de responsabilidad subjetiva y la distinción entre mero intermediario y conducta activa. Destaca en que esta última es cuando adopta una postura activa con relación al contenido. Esto ocurre si el buscador modifica, edita o, directamente, crea el contenido. En estos casos de conducta activa, la responsabilidad no se basa en la posibilidad de evitar el daño causado por un tercero, sino en una conducta antijurídica propia del buscador que genera la obligación de reparar el daño.

Por su parte en Denegri (Fallos: 345:482)[15]: fallo unánime sobre el "derecho al olvido", la Corte afirma que el uso creciente de herramientas de tecnología informática, incluyendo sistemas que podrían incluirse en la categoría de "Inteligencia Artificial" (IA), suscita numerosos interrogantes respecto de su campo de aplicación a la luz de los derechos fundamentales (como la libertad de expresión, el honor, la intimidad y el derecho a la imagen) y su incidencia en el debate público.

Esto sugiere que, si bien actualmente la responsabilidad se evalúa principalmente en relación al contenido enlazado o manipulado, la evolución de la tecnología y la creciente complejidad de los algoritmos podría llevar a que en el futuro se considere la responsabilidad derivada del propio funcionamiento algorítmico, especialmente si este funcionamiento (por ejemplo, en la forma en que indexa, prioriza o desprioriza información) pudiera afectar derechos fundamentales o el debate público de maneras que vayan más allá del simple enlace a contenido de terceros o la manipulación directa de ese contenido.

A mayor abundamiento en el caso Organización Veraz S.A. (Fallos: 347:2186)[16] que trata el uso de marcas notorias como palabras clave en publicidad online, la disidencia del juez Lorenzetti en también apunta a esta complejidad, señalando que la economía digital presenta un sistema incomprensible para el usuario promedio, que debe confiar en la apariencia creada mediante algoritmos.

La evolución doctrinaria del Alto Tribunal respecto a los motores de búsqueda ha abordado también la problemática sobre la transparencia de los algoritmos y como el avance de la tecnología y el uso de la Inteligencia Artificial va a impactar de lleno en el debate público generando una tensión con los derechos fundamentales, sugiriendo que la responsabilidad podría, en adelante, necesitar considerar el impacto del propio diseño y operación algorítmica, no solo la naturaleza del contenido que procesan o enlazan, como explique anteriormente.

Respecto al uso en el Poder Judicial, en las Directrices Generales y Específicas de Uso para el Poder Judicial de la Ciudad Autónoma de Buenos Aires[17] establece y aclara en su punto Nº7 que no exime ni disminuye de responsabilidades a los funcionarios y continua “la responsabilidad recae sobre magistrados y funcionarios que deben analizar e interpretar los resultados obtenidos por la IA generativa.

En Argentina no hay una norma específica que establezca quien tiene responsabilidad al usar sistemas de IA aplicados a la justicia, por lo que entonces no se puede eximir de responsabilidad a un Juez que aplica la decisión en base al resultado arrojado para casos de decisiones automatizadas, ya que la misma sin una revisión de mínimos estándares que brinden seguridad de no tener sesgos, constituirá una acción por omisión de la diligencia debida, o peor aún una negligencia de parte del Juez que utiliza dicha aplicación.

 

3.4. La legitimidad y confianza institucional

 

Los jueces tienen una función indelegable: interpretar normas, motivar fallos y asegurar que los derechos fundamentales no sean vulnerados. La Corte Suprema ha sostenido reiteradamente que la motivación de las sentencias es un elemento esencial del sistema republicano. Delegar decisiones en sistemas de IA sin revisión judicial atenta contra esta estructura institucional y constitucional. Además, la delegación ciega en sistemas opacos socava la legitimidad del sistema judicial y puede generar desconfianza ciudadana.

Respecto a esto, el art 2 del CCyCN establece que: “La ley debe ser interpretada teniendo en cuenta sus palabras, sus finalidades, las leyes análogas, las disposiciones que surgen de los tratados sobre Derechos Humanos, los principios y los valores jurídicos, de modo coherente con todo el ordenamiento” Este criterio interpretativo impone al operador jurídico el deber de aplicar la tecnología conforme a una visión integradora y coherente con el sistema normativo y con los derechos fundamentales.

Por su parte, Aida Kemelmajer y Mauricio Boretto explican que “la fórmula contenida en el art. 2 coincide con la jurisprudencia de la CSJN, en cuanto afirma que la interpretación debe partir de las palabras de la ley, pero debe ser armónica con el resto del ordenamiento pues sus distintas partes forman una unidad coherente; por eso, en la inteligencia de sus cláusulas, debe cuidarse de no alterar el equilibrio del conjunto.”[18]

Alberto Bueres en su Código Civil y Comercial comentado explica que al interpretar un texto legal con los medios utilizados brindados por el art 2 deben interpretarse: “…sistemáticamente, de tal manera que el resultado sea consistente con el ordenamiento jurídico general”.[19]

En base del artículo analizado los jueces fundamentan su forma de interpretar la ley en base a diferentes métodos de interpretación: literal, sistemática, historicista, finalista y analógico. Con el avance de la tecnología se podría incorporar un método de interpretación acorde al carácter dinámico y siempre evolutivo, una interpretación algorítmica.

Dicho Método podría definirse de la siguiente manera: como el proceso de interpretación asistido por sistemas automatizados de análisis de textos jurídicos, que, mediante algoritmos de procesamiento del lenguaje natural (NLP) e inteligencia artificial, identifican patrones de sentido, conexiones normativas y tendencias de interpretación judicial para proponer posibles significados o soluciones coherentes con el sistema jurídico. De esta manera este método no reemplaza la interpretación humana, pero sí funcionará como herramientas de apoyo.

Según Carlos Nino[20] Si el razonamiento judicial es fundamentalmente moral o valorativo en su conclusión justificatoria, la pregunta clave es si una IA generativa puede realizar un juicio moral o valorativo que sirva como la razón operativa justificatoria. Nino continúa y describe a la razón operativa como un juicio práctico del agente (el juez), por lo que a través de este razonamiento parecería que la capacidad de emitir este juicio justificatorio reside en el propio juez como agente moral/prudencial, y no en la herramienta que utiliza.

Sin embargo, su utilización deberá ser rigurosamente controlada para garantizar que respete los principios constitucionales, los derechos humanos y la autonomía del juzgador, evitando trasladar la carga interpretativa a sistemas que, por su propia naturaleza, carecen de razonabilidad, prudencia y valoración ética.

 

6. La Constitución Nacional, y el rol judicial frente a la IA

 

El uso de inteligencia artificial en el ámbito jurídico debe interpretarse a la luz de los principios consagrados por la Constitución Nacional Argentina, para evitar de esa manera que se vulneren derechos fundamentales. Entre los principales artículos para analizar su uso:

En el Artículo 16 CN establece la igualdad ante la ley como garantía fundamental. El sesgo algorítmico, al replicar o amplificar discriminaciones históricas (por raza, género, condición socioeconómica, discapacidad, entre otras), puede vulnerar este principio. A su vez el Artículo 18 CN, debe garantizar el debido proceso y el derecho de defensa, por lo que al utilizar sistemas automatizados que no respeten los principios de explicabilidad y transparencia, pueden vulnerar estas garantías al impedir que las partes comprendan y cuestionen las decisiones automatizadas. También debe analizarse el Articulo 43 CN que posibilita la protección de datos personales a través del habeas data que permite suprimir o rectificar datos personales de las bases de datos, las cuales alimentan estos algoritmos generando con información errónea sesgos y discriminación. Asimismo, la Ley 25326 de Protección de Datos en consonancia con el Convenio 108 del Consejo de Europa, ratificado por Argentina, y el reglamento general de Protección de datos de la Unión Europea, que influyen en dicha ley como estándar internacional, exige el derecho a no ser sometido exclusivamente a decisiones automatizadas. Por último, todos estos artículos están en línea con el Artículo 75 inc. 22 CN que otorga jerarquía constitucional a los tratados de derecho humanos que exigen transparencia, motivación de las decisiones y acceso a la justicia.

Estos artículos de la Constitución deben ser respetados y tenidos en cuenta en la creación de sistemas automatizados donde se utilizan algoritmos. Los mismos deben incorporar el principio de explicabilidad incorporado por la Unión Europea, a su vez también tener auditorías algorítmicas independientes, y prohibir o limitar el uso de estos sistemas donde debido a su opacidad o falta de neutralidad algorítmica, vulneran derechos fundamentales.

 

4. Ejemplos y casos relevantes

 

A los casos ya mencionados de Compas y PredPol en Estados Unidos, se suma también la de Amazon AI, un sistema que selecciona personal y descarta mujeres por aprender de datos históricos masculinizados. El último es el de DoNotPay un chatbot que simula ser abogado para resolver infracciones menores, por lo que la Comisión Federal de Comercio de EEUU[21], ordenó que dicha empresa deje de realizar publicidad engañosa para sus consumidores, ya que la empresa no probó si su “Abogado IA” operaba al mismo nivel que abogado humano, ni tampoco pudo confirmar que tenía contratados abogados que supervisen las tareas realizadas por el sistema automatizado. La orden exige a la empresa un pago de 193 mil dólares y la notificación a los usuarios que se suscribieron entre 2021 a 2023.

 

7. Conclusión

 

A la luz del presente trabajo llegue a la conclusión que la incorporación de sistemas de IA en el Derecho no puede ser una decisión técnica aislada del marco jurídico y ético. Como operador del Derecho, se debe garantizar que estas herramientas se alineen con los principios de justicia, igualdad, responsabilidad y transparencia. Un algoritmo, por sí mismo, no puede ser justo; requiere una regulación activa que asegure su adecuación al orden constitucional. La tecnología puede fortalecer el Derecho, pero solo si es puesta al servicio de sus valores. A su vez debe hacerse hincapié en la importancia de la formación y capacitación de la sociedad civil como de los operadores de justicia en una educación digital que nos permita avanzar en el uso de estas tecnologías entendiendo los riesgos e impactos que ellas conllevan. Es menester establecer registros públicos de algoritmos utilizados en la administración de justicia, incorporar el principio de explicabilidad como garantía del debido proceso, se podrían crear auditorias algorítmicas que permitan mitigar los sesgos y establecer por último un sistema de responsabilidad civil para el uso de herramientas automáticas en la toma de decisiones. Esto permitiría que los jueces en base al sistema automatizado utilizado, hagan una interpretación algorítmica fundamentando así, su sentencia y velando por armonizarla con los derechos fundamentales.

 

8. Bibliografía

 

             Bueres, A. (Dir.). (2014). Código Civil y Comercial comentado (T. I, p. 70). Hammurabi.

             Consejo de la Magistratura de la Ciudad Autónoma de Buenos Aires. (2025). RES. PRESIDENCIA N.º 206/2025 - ANEXO I “Guía de Recomendaciones y Directrices para el Uso de Sistemas de Inteligencia Artificial (IA) en el Poder Judicial de la Ciudad Autónoma de Buenos Aires”. https://consejo.jusbaires.gob.ar/institucional/documentacion/resoluciones-centro-dedocumentacion/download?id=2AABFDDF692DD84AB30C6F77C86E6E14

             Federal Trade Commission. (2025, febrero). FTC finalizes order against DoNotPay... https://www-ftc-gov.translate.goog/news-events/news/press-releases/2025/02/ftc-finalizes-order-donotpay-prohibits-deceptive-ai-lawyer-claims-imposes-monetary-relief-requires?_x_tr_sl=en&_x_tr_tl=es&_x_tr_hl=es&_x_tr_pto=sge

             Gordillo, A. (2014). Tratado de derecho administrativo y obras selectas. Tomo 9: Primeros manuales (1ª ed., pp. 64–65). FDA.

             Google Developers. (s.f.). Glosario de aprendizaje automático. https://developers.google.com/machine-learning/glossary?hl=es-419

             IBM. (s.f.). El sesgo de la IA, a la luz de ejemplos reales. https://www.ibm.com/es-es/think/topics/shedding-light-on-ai-bias-with-real-world-examples

             Kemelmajer de Carlucci, A. R., & Boretto, M. (2020). Manual de derecho privado (T. I, 1ª ed., p. 45). Eudeba.

             Molina del Río, C. (s.f.). La solución ya nos la dio IBM en 1979. https://www.linkedin.com/pulse/la-soluci%C3%B3n-ya-nos-dio-ibm-en-1979-carlos-molina-del-rio-q798f/

             Nino, C. S. (2003). Normas jurídicas y razones para actuar. En La validez del Derecho (5ª ed., cap. 7, pp. 125–143). Astrea.

             Organización Veraz S.A. c/ Open Discovery S.A. s/ cese de uso de marca. (2024). Fallos, 347:2186. Corte Suprema de Justicia de la Nación.

             Rodríguez, María Belén c/ Google Inc. s/ daños y perjuicios. (2014). Fallos, 337:1174. Corte Suprema de Justicia de la Nación.

             State v. Loomis, 881 N.W.2d 749 (Wis. 2016). Supreme Court of Wisconsin. https://courts.ca.gov/sites/default/files/courts/default/2024-12/btb24-2l-3.pdf

             The Guardian. (2021, noviembre 7). LAPD predictive policing and surveillance reform. https://www-theguardian-com.translate.goog/us-news/2021/nov/07/lapd-predictive-policing-surveillance-reform?_x_tr_sl=en&_x_tr_tl=es&_x_tr_hl=es&_x_tr_pto=tc

             UNESCO. (s.f.). Kit de herramientas global sobre IA y el estado de derecho para el poder judicial. https://unesdoc.unesco.org/ark:/48223/pf0000387331_spa

 



[1] Ponencia destacada en el marco del Concurso de Ponencias – III Jornadas Académicas de la Abogacía de la Capital Federal, organizado por el CPACF.

[2] Abogado (UBA), Especialista en Derecho Informático (UBA), Maestrando en Propiedad Intelectual y Nuevas Tecnologías (Universidad Austral), Diplomado en Derecho 4.0 (Universidad Austral). Diplomatura en Inteligencia Artificial y Derecho (Universidad de Salamanca-En curso), Docente de Principio Generales de Derecho Privado (CBC-UBA). Docente Práctica Profesional Orientada en IA aplicada al Derecho en Universidad Maimónides, Investigador en Formación Derecho UBA. Ex Oficial de Registro Firma Digital-Remota Consejo de la Magistratura CABA. Miembro del Instituto de Derecho Informático CPACF.

[4]State v. Loomis, 881 N.W.2d 749 (Wis. 2016).Supreme Court of Wisconsin. https://courts.ca.gov/sites/default/files/courts/default/2024-12/btb24-2l-3.pdf

[5] Agustín Gordillo: Tratado de derecho administrativo y obras selectas Tomo 9, Primeros manuales 1ª edición, Buenos Aires, FDA, 2014- Sección I: El derecho administrativo Capítulo II: Las funciones del Estado- Pág. 64.

[6] Agustín Gordillo: Tratado de derecho administrativo y obras selectas Tomo 9, Primeros manuales

1ª edición, Buenos Aires, FDA, 2014- Sección I: El derecho administrativo Capítulo II: Las funciones del Estado- Pág. 65.

[7] Reglamento general de protección de datos de la Unión Europea: https://gdpr-text.com/es/read/article-22/

[8]Glosario de Google: https://developers.google.com/machine-learning/glossary?hl=es-419

[9] Kit de herramientas global sobre IA y el estado de derecho para el poder judicial: https://unesdoc.unesco.org/ark:/48223/pf0000387331_spa

[10] Nota Periodística Consultada en The Guardian el 30/04/2025: https://www-theguardian-com.translate.goog/us-news/2021/nov/07/lapd-predictive-policing-surveillance-reform?_x_tr_sl=en&_x_tr_tl=es&_x_tr_hl=es&_x_tr_pto=tc

[11] Publicación de Carlos Molina del Rio: https://www.linkedin.com/pulse/la-soluci%C3%B3n-ya-nos-dio-ibm-en-1979-carlos-molina-del-rio-q798f/

[12] Rodríguez, María Belén c/ Google Inc. s/ daños y perjuicios. (2014). Fallos 337:1174. Corte Suprema de Justicia de la Nación.

[13] Rodríguez, María Belén c/ Google Inc. s/ daños y perjuicios. (2014). Fallos 337:1174. Corte Suprema de Justicia de la Nación.

[14] Gimbutas, Carolina Valeria c/ Google Inc. s/ daños y perjuicios (2017). Fallos 340:1236. Corte Suprema de Justicia de la Nación

[15] “Denegri, Natalia Ruth c/ Google Inc. s/derechos personalísimos: Acciones relacionadas (2022). Fallos 345:482. Corte Suprema de Justicia de la Nación.

[16] Organización Veraz S.A. c/ Open Discovery S.A. s/ cese de uso de marca. (2024). Fallos 347:2186. Corte Suprema de Justicia de la Nación.

[17] RES. PRESIDENCIA N° 206/2025 - ANEXO I “Guía de Recomendaciones y Directrices para el Uso de Sistemas de Inteligencia Artificial (IA) en el Poder Judicial de la Ciudad Autónoma de Buenos Aires” Consejo de la Magistratura de la Ciudad Autónoma de Buenos Aires, https://consejo.jusbaires.gob.ar/institucional/documentacion/resoluciones-centro-dedocumentacion/download?id=2AABFDDF692DD84AB30C6F77C86E6E14 (fecha de consulta: 02/05/2025).

[18] Kemelmajer de Carlucci, A. R., & Boretto, M. (2020). Manual de derecho privado (Tomo I, 1ª ed.). Eudeba, p.45.

[19] Bueres, Alberto (dir.), Código Civil y Comercial comentado, Buenos Aires, Hammurabi, 1aed., 2014, T. I, p.70.

[20] Nino, C. S. (2003). Normas jurídicas y razones para actuar. En La validez del Derecho (5ª ed., cap. 7, pp. 125-143). Astrea.

[21] Federal Trade Commision of State Unites: (ingresar)