Más contenido jurídico en elDial.com
Por Antonella Chiarrello
Si la jurisprudencia se vuelve una reiteración estadística de sí misma, ¿queda espacio para el juicio disruptivo, el fallo que funda un nuevo derecho?""La hipótesis de este trabajo es que la inclusión de precedentes sintéticos en el entrenamiento de sistemas de IA jurídica, para la asistencia en la toma de decisiones de los jueces, podría dar lugar a una nueva forma de normatividad: una ética sintética."
"Desde esta perspectiva, el uso de IA en el ámbito judicial plantea un desafío."
"El derecho es, en su núcleo, una práctica argumentativa y dinámica."
"Su finalidad no sería predecir el resultado de un litigio concreto, sino ampliar el universo normativo al que una IA puede acceder, exponiéndola a interpretaciones alternativas o a contextos aún no resueltos por la jurisprudencia dominante."
"¿Puede un precedente que no proviene de un tribunal real tener valor jurídico?"
"Los precedentes sintéticos, por definición, carecen de esa inscripción institucional e histórica. Son ejercicios normativos, no decisiones vinculantes, en contextos inexistentes."
"La ética sintética, en cambio, sería el resultado de sistemas artificiales que internalizan patrones normativos —reales o simulados— sin haber participado del proceso deliberativo que les dio origen."
"El juez resuelve, crea derecho, decide, elige, juzga, declara los derechos de las partes, y brinda esa palabra justa, que precisamente es justa porque está atada con la realidad, en el sentido de verdad."
"El riesgo de los datos sintéticos en este caso no es meramente técnico, sino político..."
"El peligro radica en que esta ética —si no es encuadrada críticamente— puede desplazar los fundamentos democráticos, deliberativos y humanos del derecho."
"El desafío que plantea la IA no es solo qué decisiones puede tomar, sino qué clase de derecho puede llegar a modelar.
Precedentes sintéticos y ética sintética: riesgos y posibilidades del uso de inteligencia artificial en la evolución jurisprudencial
1. Introducción
La irrupción de la inteligencia artificial (IA) en el ámbito jurídico ha abierto una nueva etapa en la historia del derecho. Lejos de limitarse a funciones administrativas o predictivas, los sistemas de IA comienzan a ser utilizados para asistir a jueces en la elaboración de sus fallos. Esta asistencia, en apariencia neutral, encierra sin embargo una transformación profunda del proceso judicial. Algunos como Socol D. U. y Remolina, N. (2024), alertan sobre la posibilidad de que las decisiones humanas se vean condicionadas por patrones estadísticos extraídos de jurisprudencia previa.
Este fenómeno presenta una paradoja. Por un lado, la IA permite un acceso más eficiente y sistemático al derecho vigente; por otro, corre el riesgo de consolidar los sesgos y las limitaciones del pasado, inhibiendo la aparición de los llamados leading cases, esos fallos que rompen con la tradición para abrir nuevas vías normativas. Si la jurisprudencia se vuelve una reiteración estadística de sí misma, ¿queda espacio para el juicio disruptivo, el fallo que funda un nuevo derecho?
Frente a este riesgo, algunos desarrollos técnicos han propuesto la incorporación de datos sintéticos en los procesos de entrenamiento de los modelos de IA. Lee (2024) sostiene sin atajos: “el futuro de la IA es sintético”.
Esta práctica, común en otros campos, consiste en generar información artificialmente para compensar vacíos o sesgos del dataset original. En el ámbito jurídico, esto podría implicar la generación de “precedentes sintéticos”: fallos hipotéticos diseñados para ampliar la representación de ciertos valores, derechos o perspectivas no suficientemente reflejadas en la jurisprudencia histórica.
La hipótesis de este trabajo es que la inclusión de precedentes sintéticos en el entrenamiento de sistemas de IA jurídica, para la asistencia en la toma de decisiones de los jueces, podría dar lugar a una nueva forma de normatividad: una ética sintética. Esta ética, generada algorítmicamente, no emergería del consenso social ni de la práctica jurídica real, sino de simulaciones computacionales. Así planteada, la ética sintética podría ser una amenaza a la legitimidad del derecho, sea que se entienda este como producto histórico de una comunidad, como reconocimiento de principios previos e inmutables, o como una combinación de ambos.
Este artículo explora los riesgos y las posibilidades de esta transformación. En primer lugar, se analiza la función de los leading cases en el desarrollo del derecho. Luego se examina cómo los sistemas de IA pueden consolidar o desafiar el statu quo jurisprudencial. A continuación, se define el concepto de “precedente sintético” y se indaga en sus implicancias normativas. Finalmente, se propone una serie de criterios para el diseño responsable de sistemas de IA jurídica que reconozcan el valor de la deliberación humana y la historicidad del derecho.
2. El valor disruptivo de los leading cases
En la tradición jurídica, los leading cases ocupan un lugar central en la evolución del derecho. Se trata de decisiones judiciales que, al resolver un caso concreto, introducen una nueva interpretación normativa, modifican el alcance de una norma existente o incluso fundan un nuevo principio jurídico. Su carácter disruptivo radica en que rompen con la línea jurisprudencial dominante hasta ese momento, produciendo un punto de inflexión que reconfigura el campo jurídico.
A diferencia de la jurisprudencia repetitiva o confirmatoria, que se limita a aplicar precedentes ya consolidados, los leading cases surgen muchas veces en contextos de tensión normativa o de transformación social. En ellos, los jueces asumen un rol activo, interpretativo y creativo, guiados no sólo por el análisis técnico del derecho vigente, sino también por principios de justicia, equidad y adecuación a la realidad. Es precisamente esta combinación entre razonamiento jurídico y sensibilidad contextual lo que confiere a estos fallos su fuerza transformadora.
Un ejemplo paradigmático es el caso Brown v. Board of Education (1954) de la Corte Suprema de los Estados Unidos, que declaró inconstitucional la segregación racial en las escuelas públicas. Esta decisión no solo contradijo precedentes establecidos (como Plessy v. Ferguson, 1896), sino que catalizó un proceso de reforma legal y social en todo el país.
Otro ejemplo más reciente es Dobbs v. Jackson Women’s Health Organization (2022)[2], en el que la Corte Suprema estadounidense revocó los precedentes sentados en Roe v. Wade (1973) y Planned Parenthood v. Casey (1992), eliminando así el reconocimiento constitucional del derecho al aborto y devolviendo a los estados la potestad de regular o prohibir esta práctica. Este fallo constituye un leading case en tanto representa una ruptura significativa con la línea jurisprudencial anterior y establece una nueva doctrina constitucional en materia del alcance del concepto de libertad en los Estados Unidos.
En el contexto argentino, un ejemplo relevante (entre tantos) es el fallo “Arriola” (2009)[3], en el que la Corte Suprema declaró inconstitucional penalizar la tenencia de estupefacientes para consumo personal en el ámbito privado, siempre que no afecte a terceros. Esta decisión reformuló la interpretación del artículo 19 de la Constitución Nacional y marcó un cambio sustantivo en la forma en que el sistema judicial aborda el derecho a la intimidad y el uso personal de drogas.
Al sostener el carácter excepcional de este tipo de fallos, en el precedente “Schiffrin” (2017)[4], la Corte Suprema sostuvo: “Que es necesario precisar que los precedentes deben ser mantenidos por esta Corte Suprema y respetados por los tribunales de grado, por una importante y evidente razón de seguridad jurídica. La carga argumentativa de modificarlo corresponde a quien pretende apartarse del precedente, debiendo ser excepcional y fundada”.
Lo que estos casos tienen en común es su capacidad de ampliar los horizontes del derecho. No responden a una lógica estadística ni a una síntesis de decisiones pasadas, sino a una ruptura deliberada con el consenso anterior. Son decisiones que no podrían haber surgido de un sistema que simplemente aprende del pasado, porque su función es precisamente cuestionar ese pasado y reescribir el presente jurídico.
Desde esta perspectiva, el uso de IA en el ámbito judicial plantea un desafío. Si los sistemas se entrenan exclusivamente con jurisprudencia anterior, su output podría tender a reproducir las decisiones mayoritarias y a neutralizar la emergencia de fallos disruptivos. La lógica algorítmica, basada en la predicción de patrones, corre el riesgo de reemplazar la lógica deliberativa, que es esencial para el surgimiento de los leading cases.
En suma, la existencia de fallos que desafían el statu quo no es un accidente del sistema judicial, sino una de sus virtudes fundamentales. Preservar ese potencial disruptivo es clave para que el derecho siga siendo un instrumento dinámico, capaz de responder a los cambios sociales y ampliar los márgenes de justicia.
Ahora bien, si los leading cases son tan relevantes, ¿cómo debe ponderarse el riesgo de propagación de sesgos estadísticos?
3. IA y jurisprudencia: entre la repetición y la innovación
La incorporación de IA al ámbito jurídico ha abierto un nuevo campo de posibilidades para el análisis y procesamiento de información legal. Los sistemas de IA pueden recorrer grandes volúmenes de jurisprudencia, identificar patrones, extraer argumentos frecuentes y ofrecer predicciones sobre la probabilidad de éxito de determinadas acciones judiciales. Esta capacidad ha sido valorada tanto por su eficiencia como por su potencial para homogeneizar criterios y reducir la discrecionalidad judicial.
En términos técnicos, los modelos de lenguaje o de aprendizaje automático aprenden a partir de los datos con los que son entrenados. Si esos datos reflejan una determinada orientación ideológica, una distribución desigual de derechos o una interpretación restrictiva de ciertos principios constitucionales, podría derivar en que el sistema replique y amplifique esas tendencias.
Este fenómeno ya ha sido advertido en otras áreas. En el ámbito penal, por ejemplo, el uso del sistema COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) en Estados Unidos para predecir la reincidencia de imputados fue criticado por reproducir sesgos raciales presentes en los datos históricos. Aunque se trate de contextos distintos, la lógica es análoga: una IA jurídica entrenada con decisiones previas no distingue entre decisiones justas e injustas, razonadas o automáticas, progresistas o conservadoras. Aprende simplemente a replicar lo frecuente.
En el contexto judicial, esta lógica estadística corre el riesgo de erosionar el carácter deliberativo del derecho. Si las herramientas algorítmicas ganan centralidad en la elaboración de sentencias, el razonamiento humano puede quedar subordinado a la regularidad estadística. La creatividad jurídica, la sensibilidad ante casos difíciles y la posibilidad de fundar nuevos principios —elementos esenciales en un fallo disruptivo— podrían verse desplazados por la búsqueda de consistencia con el pasado.
Por otra parte, es importante reconocer que la IA no es, por sí misma, conservadora o progresista. Su comportamiento depende enteramente del diseño del sistema, los datos utilizados y los objetivos que se le asignen. En este sentido, la pregunta no es si la IA va a transformar la práctica judicial —eso ya está ocurriendo—, sino cómo debe diseñarse para que su intervención enriquezca el razonamiento jurídico sin suprimir su capacidad transformadora.
El derecho es, en su núcleo, una práctica argumentativa y dinámica. Su evolución no responde a una lógica de regularidad estadística, sino a la deliberación sobre principios, valores y contextos específicos. El riesgo que plantea la IA no reside en su uso, sino en una confianza ciega en su output, que podría convertir al sistema judicial en una máquina de confirmación, más preocupada por repetir que por repensar.
4. Datos sintéticos y precedentes sintéticos
Uno de los desafíos más relevantes en el entrenamiento de sistemas de IA es la calidad y representatividad de los datos utilizados. En numerosos campos —como la visión por computadora, el análisis de mercado o la medicina— se ha desarrollado la técnica de generación de datos sintéticos: información artificialmente creada para compensar la escasez, el desequilibrio o el sesgo presente en los datos reales. Estos datos no son réplicas exactas del mundo, sino simulaciones plausibles, diseñadas para enriquecer el aprendizaje del sistema. El objetivo de estas simulaciones, se supone, es complementar el dataset con información ausente pero que refleje lo más adecuadamente la realidad. De esta manera, no se pretende modificar la realidad, sino completar el dataset “a la imagen” de la realidad.
En el ámbito jurídico, esta práctica aún es incipiente, pero plantea una posibilidad novedosa: la generación de precedentes sintéticos. A diferencia de los precedentes reales, que reflejan decisiones efectivamente tomadas por tribunales, los precedentes sintéticos serían decisiones hipotéticas, redactadas a partir de principios jurídicos existentes, pero aplicados a casos ficticios o contra-factuales. Su finalidad no sería predecir el resultado de un litigio concreto, sino ampliar el universo normativo al que una IA puede acceder, exponiéndola a interpretaciones alternativas o a contextos aún no resueltos por la jurisprudencia dominante.
Esta idea se conecta con el problema señalado en la sección anterior: si los modelos aprenden únicamente de fallos reales, corren el riesgo de consolidar sus sesgos. Incluir precedentes sintéticos podría, en teoría, introducir variabilidad interpretativa, compensar la subrepresentación de ciertas perspectivas y simular escenarios jurídicamente razonables pero históricamente ausentes. Por ejemplo, podrían generarse fallos hipotéticos que reconocen derechos a minorías aún no contempladas, interpretaciones progresivas de normas ambiguas o aplicaciones novedosas de principios constitucionales.
Sin embargo, esta estrategia no está exenta de tensiones y riesgos, a nuestro entender quizá más peligrosos. La primera y más evidente es epistemológica: ¿puede un precedente que no proviene de un tribunal real tener valor jurídico? Desde una perspectiva clásica, el valor de un fallo reside no solo en su razonamiento, sino en su inserción en un sistema institucional determinado, en un momento histórico y social determinado. Los precedentes sintéticos, por definición, carecen de esa inscripción institucional e histórica. Son ejercicios normativos, no decisiones vinculantes, en contextos inexistentes.
La segunda tensión es política: ¿quién decide qué precedentes sintéticos deben generarse y con qué orientación? La construcción de estos casos ficticios exige tomar decisiones sobre qué valores promover, qué interpretaciones destacar y qué voces amplificar. En otras palabras, implica una forma de diseño normativo y de pseudo actividad jurisdiccional. Si esta tarea se deja exclusivamente en manos de técnicos, desarrolladores o actores sin legitimidad democrática, el sistema corre el riesgo de crear una normatividad artificial que no responde ni a la historia jurídica real ni al debate público.
En este sentido, el uso de precedentes sintéticos no es meramente una cuestión técnica, sino una decisión normativa y epistemológica de gran calado. Su incorporación en sistemas de IA jurídica implica repensar no sólo cómo se enseña el derecho a las máquinas, lo que argumentamos que no es posible, sino también cómo se construye el universo del derecho posible.
5. Ética sintética: ¿una nueva normatividad artificial?
El concepto de ética sintética surge como una consecuencia lógica de la incorporación de precedentes sintéticos en el entrenamiento de sistemas de IA aplicados al ámbito judicial. Si aceptamos que los modelos de IA pueden aprender no sólo de decisiones reales sino también de simulaciones normativas generadas artificialmente, entonces debemos preguntarnos qué tipo de racionalidad moral se está formando en ese proceso. ¿Estamos frente a una simple expansión del universo jurídico existente, o ante la emergencia de una nueva forma de normatividad, ajena a la experiencia histórica de una comunidad?
La ética, entendida en términos clásicos, es una construcción social, histórica y deliberativa, que manda la aplicación de principios inmutables a realidades concretas (moral). Surge del diálogo entre prácticas, creencias, instituciones y principios que orientan el juicio humano sobre lo que está bien o mal en un contexto determinado. La ética sintética, en cambio, sería el resultado de sistemas artificiales que internalizan patrones normativos —reales o simulados— sin haber participado del proceso deliberativo que les dio origen. Es una ética generada por entrenamiento, no por experiencia compartida.
5.1. ¿Puede un precedente que no proviene de un tribunal real tener valor jurídico?
Como se analizó en la sección anterior, sostenemos que un precedente que no proviene de un tribunal real carece de valor jurídico, no sólo porque su razonamiento no está inscrito en una institución que ejerce jurisdicción, sino también porque no es el resultado de un acto que afecta directamente la realidad personal, jurídica y social de una persona determinada. El valor de un fallo reside también —y quizás sobre todo— en que surge de la responsabilidad de un juez de actuar conforme a derecho en un caso concreto, sabiendo que su decisión incide sobre la vida de los destinatarios del fallo.
Este vínculo directo entre el derecho y la realidad vivida es lo que permite hablar de justicia en sentido pleno. Un juez humano, al decidir, no sólo interpreta normas y analiza precedentes; pondera consecuencias, escucha argumentos, considera el contexto y evalúa qué decisión es jurídicamente correcta y éticamente justa para el caso concreto. Esa dimensión situada, encarnada y deliberativa es constitutiva de la práctica judicial. Los sistemas de IA, en cambio, carecen de esa orientación hacia el destinatario y hacia la justicia como ideal normativo encarnado en la práctica. Los sistemas de IA están orientados al objetivo que se les haya planteado al momento de escribirlos.
Volvamos a los precedentes citados anteriormente como leading cases, locales y extranjeros, para ver cómo se manifiesta este hacer el derecho de manera encarnada y contextualizada.
En el precedente Dobbs v. Jackson Women’s Health Organization (2022), por ejemplo, la Corte americana explica que un análisis histórico del concepto de libertad es necesario para poder entender si se encuentran frente a un derecho constitucional, o si es algo que debe ser debatido a nivel estadual: “Guided by the history and tradition that map the essential components of the Nation’s concept of ordered liberty, the Court finds the Fourteenth Amendment clearly does not protect the right to an abortion. (...) Roe either ignored or misstated this history, and Casey declined to reconsider Roe’s faulty historical analysis. Respondents’ argument that this history does not matter flies in the face of the standard the Court has applied in determining whether an asserted right that is nowhere mentioned in the Constitution is nevertheless protected by the Fourteenth Amendment”.
Y podemos ver cómo un proceso similar se desarrolla en “Arriola” (2009): “Que en lo que aquí respecta han pasado diecinueve años de la sanción de la ley 23.737 y dieciocho de la doctrina "Montalvo" que legitimó su constitucionalidad. Este es un período, que por su extensión, permite descartar que un replanteo del thema decidendum pueda ser considerado intempestivo. Por el contrario, la extensión de ese período ha permitido demostrar que las razones pragmáticas o utilitaristas en que se sustentaba "Montalvo" han fracasado”.
Vemos como el juez actúa sobre la realidad concreta, presente o histórica, y se funda en ella para llegar a sus conclusiones.
Falcón (2007), al referirse a la labor de los jueces al sentenciar, dice que la sentencia es un “acto de autoridad, emanado de un magistrado en ejercicio de la jurisdicción, emitido mediante un juicio, en un proceso, que declara los derechos de las partes y que puede condenar o absolver en todo o en parte o constituir nuevos estados jurídicos, poniendo fin a la etapa declarativa del proceso”. Y el propio autor cita a otros tantos autores.
Cita por ejemplo a Kelsen, quien define a la sentencia como “un acto jurisdiccional que establezca una norma jurídica individual y constituya una nueva etapa en el proceso de creación del derecho”[5]; o a Couture, que sostiene que la sentencia es “una operación de carácter crítico. (…) El juez elige entre la tesis del actor y la del demandado (o eventualmente una tercera) la solución que le parece ajustada a derecho y a la justicia”[6]; como también a Calamandrei, que dice que "La sentencia no es, por consiguiente, el producto sistemático de la aplicación de las leyes a los hechos, sino la resultante psicológica de tres fuerzas en juego (actor-demandado-juez)"[7]. Y finalmente, Carnelutti quien resume que la sentencia del juez es “Decisión para denotar la última fase del procedimiento jurisdiccional, es verdaderamente una palabra justa”[8].
Socol D. U. and Remolina, N. (2024) plantean la necesidad de asegurar que los datasets aseguren la representación de poblaciones subrepresentadas. La idea es atendible, siempre que nos aseguremos de efectivamente suplir una deficiencia, y no estar sobrerepresentando una población que simplemente es estadísticamente menos preponderante.
En su lúcido trabajo, Altamiranda, M., Bugvila, A., Jalil, S. y Saráchaga, G. (2025) analizan el caso de la Corte Suprema de Justicia de la Nación y explican cómo para aquel tribunal sus propios precedentes constituyen su insumo de trabajo. Y citan al caso “Viñas” (2018), donde se sostuvo que “(...) la autoridad institucional de sus precedentes, fundada en la condición del Tribunal de intérprete supremo de la Constitución Nacional y de las leyes dictadas en su consecuencia, da lugar a que en oportunidad de fallar casos sustancialmente análogos sus conclusiones sean debidamente consideradas y consecuentemente seguidas tanto por esta misma Corte como por los tribunales inferiores”.
En este contexto, la ética sintética que podría emerger de sistemas entrenados con precedentes sintéticos corre el riesgo de convertirse en una forma de normatividad desanclada de la realidad, realidad histórica, cultural, social, etc. Puede ser coherente en términos formales, e incluso útil como herramienta exploratoria, pero su legitimidad será siempre limitada si no está vinculada a la experiencia institucional, humana y concreta del derecho. Como de la nada nada viene, si una red neuronal no puede decir lo que es justo, entonces mal podría generar precedentes sintéticos que reflejen diferentes supuestos de justicia, que sirvan a su vez para conmover al juez en su trabajo de dictar sentencia. El valor de los precedentes es que en ellos hubo un juez que decidió sobre justicia, y el valor de los leading cases es que hay un cambio en el reconocimiento de lo que es justo, moral o ético hasta ese momento.
El juez resuelve, crea derecho, decide, elige, juzga, declara los derechos de las partes, y brinda esa palabra justa, que precisamente es justa porque está atada con la realidad, en el sentido de verdad. Un precedente que no es real, sobre una circunstancia que nunca existió, con personas que no podrían ser, no puede tener fuerza de convicción para el juez en su proceso decisorio. En este sentido, argumentamos que no es necesario ampliar el set de datos históricos de un juzgado, para evitar sesgos, con datos sintéticos. Porque los datos, si reales pero sesgados, pueden estar sesgados por una postura ética y moral determinada que no necesariamente requiere ser modificada; y si el sesgo es discriminatorio, la justicia tiene sus procesos de auto-corrección, en la forma de instancias y control de constitucionalidad.
5.2. ¿Quién decide qué precedentes sintéticos deben generarse y con qué orientación?
Esta segunda pregunta, no es caprichosa. La generación de un precedente, aunque sintético, requiere una valoración. En definitiva una decisión sobre lo bueno y lo malo, lo justo y lo injusto en un caso concreto, aunque inexistente.
La jurisprudencia cumple esa función, darle un contexto al juez sobre decisiones pasadas análogas y las valoraciones que otros jueces hicieron en esas situaciones. Y aceptamos esta persuasión, no sólo porque responde a un devenir histórico y contextual de la propia sociedad (como hemos visto en el punto anterior), sino porque quienes tomaron esas decisiones estaban capacitados y habían sido elegidos para actuar como magistrados.
La actividad jurisdiccional no está habilitada para cualquier persona, es necesario ser ciudadano argentino, poseer título de abogado expedido por una universidad nacional o revalidado en el país, contar con experiencia en el ejercicio de la abogacía o en funciones judiciales, y tener una edad mínima, dependiendo del nivel del cargo. Esta persona será luego elegida por concurso público de antecedentes y oposición, para ser seleccionados y propuestos al Poder Ejecutivo, que los designará con acuerdo del Senado.
Tampoco podrán ejercer cargos públicos, tener participación sindical o militancia partidaria, ni ejercer el comercio o actividad lucrativa (con excepción de la docencia).
El riesgo de los datos sintéticos en este caso no es meramente técnico, sino político: una ética sintética puede consolidarse sin deliberación pública, sin representación democrática y sin posibilidad clara de ser impugnada. Su legitimidad no proviene del debate, sino de la eficacia; no se funda en el consenso, sino en la capacidad de procesar datos a escala. Así, lo que en un principio parecía una herramienta para enriquecer la reflexión jurídica puede devenir una instancia autónoma de producción normativa, ajena a los mecanismos tradicionales de validación del derecho.
Si los datos son juicios sobre lo bueno y lo malo, lo justo y lo injusto, sobre casos concretos, aunque inexistentes, y de esa manera se convierten en precedentes sintéticos, podría argumentarse que estos pequeños actos jurisdiccionales sintéticos son realizados, entonces, por “jueces sintéticos”. Y de esta manera nos referimos no necesariamente a personas, sino a complejos sistemas de generación de datos, como podrían ser redes generativas adversariales (GANs).
Si aceptamos que el proceso decisorio de los jueces puede fundarse en precedentes, es porque los precedentes jurídicamente relevantes atendieron un caso concreto, real, resultante de la sociedad en la que el juez se arraiga, y la decisión ha sido tomada por un juez, que cumple con todas las condiciones objetivas y subjetivas para serlo. Si esto es así, en los casos en los que la situación fáctica es inexistente y el juez no es tal, sino un sofisticado sistema u operario técnico, ¿podemos aceptar que ese dato colabore a formar la convicción del juez sentenciante? ¿Cuál sería exactamente el valor otorgado a ese antecedente? ¿Estaríamos designando jueces sintéticos, sin ningún otro mérito (suponiendo que lo sea) que el poder generar datos estadísticamente distintos a los estadísticamente reales?
Podría argumentarse que alguien debería controlar a estos jueces sintéticos que generan precedentes sintéticos, ¿pero quién debería ser esta persona controlante? ¿Un juez? Si no lo fuese, tendríamos el mismo problema de falta de legitimación pero en una segunda secuencia. Y entonces, ¿quién controlaría a quien controla?
Como explica Lee, P. (2024), el paradigma de los datos sintéticos consiste en modelarlos estadísticamente para que completen o perfeccionen un conjunto de datos del mundo real. Sin embargo, si esos datos del mundo real exhiben sesgos, los datos sintéticos modelados a partir de ellos también podrán tenerlos, o incluso aumentarlos por la propia capacidad de generar datos sintéticos en cantidad infinita. E incluso sostiene el autor que podemos: “utilizar datos sintéticos para generar conjuntos de datos completamente nuevos que se ajusten a una concepción predeterminada de equidad. Sin embargo, si no se revisa esa definición de “equidad”, el conjunto de datos sintéticos puede reflejar otros sesgos”.
En similar sentido, Re, R.. (2024) analiza qué características serían propias de los jueces, y no podrían ser reemplazadas por las IA que amenazan su trabajo desde la persuasión; y cita dos a modo de ejemplo: rectitud moral y pragmatismo. Sobre la primera explica que las herramientas de IA, con su fin persuasivo, tenderían a visiones morales populares, cuando en realidad lo moral es generalmente entendido como algo independiente, y muchas veces contrario, a la opinión popular. En cuanto a lo segundo, afirma que está más allá de la posibilidad de la IA,quien podrá generar una propuesta que suene pragmática, pero sin poder confirmar que lo sea.
En similar sentido, Granero (2020b) suma una característica más: la empatía como capacidad de ponerse en el lugar de otro, un “elemento de la phronesis, la sabiduría práctica o prudencial (...) el sabio ejercicio del poder, basado en la ponderación cuidadosa de las circunstancias pertinentes en cada toma de la decisión”.
En este escenario, se vuelve indispensable una reflexión crítica sobre los marcos institucionales, epistemológicos y éticos que regulan el desarrollo de sistemas de IA jurídica que pueden ayudar a sentenciar. No se trata sólo de evitar sesgos o errores técnicos, sino de preservar la naturaleza del acto jurisdiccional y a los propios jueces, el carácter humano, histórico y argumentativo del derecho frente a la tentación de una racionalidad normativa generada desde fuera de su propia tradición.
Harari (2024, p.267) lo pone en términos inequívocos: “Cuando escribimos código informático no sólo estamos diseñando un producto. Estamos rediseñando la política, la sociedad y la cultura, por lo que conviene tener conocimientos sólidos sobre la política, la sociedad y la cultura. También hemos de asumir la responsabilidad de lo que estamos haciendo”. Parafraseando al autor, en nuestro caso cuando escribimos código estamos rediseñando la justicia.
6. Propuestas para una IA jurídica crítica
Si aceptamos que la inteligencia artificial puede intervenir en la práctica jurídica no solo como herramienta técnica, sino también como agente de construcción normativa, entonces resulta imprescindible pensar marcos que orienten su desarrollo y uso desde una perspectiva crítica. No se trata simplemente de mejorar la precisión o evitar sesgos individuales, sino de preservar la naturaleza deliberativa, histórica y humana del derecho frente a la racionalidad automatizada.
En este sentido, proponemos al menos cuatro líneas de acción:
1. Delimitación clara del rol de la IA como herramienta auxiliar, no decisoria
La IA debe ser utilizada como apoyo al juicio humano, no como sustituto. Esto implica reconocer que el razonamiento jurídico no puede ser reducido a la repetición de patrones estadísticos, y que la función judicial exige deliberación, empatía, interpretación y responsabilidad humanas. Los sistemas de IA deben ser diseñados para asistir al juez en la exploración de argumentos, antecedentes y alternativas, pero la decisión debe seguir siendo humana.
2. Transparencia en los datos y trazabilidad del razonamiento algorítmico
Para que un sistema de IA jurídica sea confiable, debe ser explicable. Es decir, debe poder reconstruirse cómo llegó a una determinada recomendación, con qué datos fue entrenado y qué criterios se utilizaron para seleccionar o excluir información.
3. Integración de enfoques jurídicos críticos y deliberación democrática en el diseño
El desarrollo de IA jurídica no puede quedar en manos exclusivas de técnicos o programadores. Es fundamental incorporar al proceso de diseño la mirada de juristas, filósofos, sociólogos del derecho, jueces, litigantes y actores sociales.
3. Diversificación y pluralización de los datasets
Finalmente, en lo que hace al objeto de este trabajo, hay que cuidarse de querer complementar una realidad con datos sintéticos cuando la realidad no necesita ser complementada. En otras palabras, sostenemos que siendo los precedentes antecedentes morales que sirven para formar el criterio jurídico del sentenciante, estos antecedentes no deben ser sintéticos. Y, llegado el caso de que fuese necesario por alguna razón su uso, la definición de los precedentes sintéticos que podrían usarse, en el caso de considerar que esta necesidad es real, debería ser en sí misma un acto jurisdiccional.
En conjunto, estas propuestas apuntan a una IA jurídica que no busque reemplazar la labor humana, sino potenciar críticamente. Una IA que no aspire a producir respuestas “correctas”, sino a enriquecer el proceso argumentativo que caracteriza al derecho como práctica racional y social. En otras palabras, se trata de construir una IA que reconozca sus límites, y que actúe no como juez automático, sino como interlocutor normativo.
7. Conclusión
La introducción de IA en el ámbito judicial plantea interrogantes que exceden lo técnico y nos obligan a reconsiderar los fundamentos mismos del derecho. A lo largo de este trabajo, se ha analizado el argumento de que el uso de sistemas de IA entrenados únicamente con jurisprudencia existente corre el riesgo de consolidar sesgos históricos y obstaculizar la aparición de fallos disruptivos, aquellos leading cases que permiten al derecho evolucionar.
Se ha presentado el argumento de que la generación de precedentes sintéticos podría ser una posible respuesta a este problema. Al incorporar fallos hipotéticos en el entrenamiento de los sistemas, se busca ampliar el espectro de interpretaciones disponibles y contrarrestar la rigidez estadística de los modelos.
Sin embargo, sostenemos que esta estrategia plantea tensiones epistemológicas y políticas de gran envergadura: un precedente que no proviene de un tribunal real no posee valor jurídico, no solo porque carece de institucionalidad, sino porque no surge del deber de decidir conforme a derecho en un caso que afecta concreta y personalmente a un ser humano.
De esta distancia entre lo real y lo simulado emerge la noción de ética sintética: una forma de normatividad artificial generada algorítmicamente, no deliberada, no empática, ni encarnada, cuya legitimidad no proviene del debate ni de la experiencia compartida, sino de su eficacia técnica. El peligro radica en que esta ética —si no es encuadrada críticamente— puede desplazar los fundamentos democráticos, deliberativos y humanos del derecho.
Frente a este escenario, se ha propuesto un conjunto de criterios para el desarrollo de una IA jurídica crítica: mantener la centralidad del juicio humano, asegurar la transparencia del sistema, y democratizar el diseño. Estas medidas no pretenden detener el avance tecnológico, sino orientarlo para que actúe como catalizador del pensamiento jurídico y no como fuerza de clausura interpretativa.
El desafío que plantea la IA no es solo qué decisiones puede tomar, sino qué clase de derecho puede llegar a modelar. Si el derecho ha sido históricamente una práctica situada, sensible al contexto y abierta a la transformación, entonces la IA que se incorpore a él deberá estar diseñada para respetar —y eventualmente ampliar— esas mismas condiciones. Solo así podremos evitar que el futuro jurídico sea definido por una ética sintética que, aunque técnicamente coherente, resulte éticamente ajena.
Bibliografía
Altamiranda, M., Bugvila, A., Jalil, S. y Saráchaga, G. (2025). La utilización de la iNteligancia Artificial en las Cortes Supremas con referencia a la actividad jurisdiccional de la Corte Suprema de Justicia de la Nación. En: Granero, H. et al. (2025). Inteligencia Artificial en el Derecho: entra la innovación y la protección de derechos. Director: Horacio Granero. Ciudad de Buenos Aires: Abremática.
Falcón, E., 2007. Código Procesal Civil y Comercial. Tomo II. 2da Ed. Lexis Nexis, p.426
Granero, H. et al. (2020). Inteligencia Artificial y Derecho, un reto social. Director: Horacio Granero. Ciudad de Buenos Aires: Abremática.
Granero, H. (2020b). Inteligencia Artificial y Justicia Predictiva (¿puede la inteligencia artificial determinar si tengo razón o no en un juicio?). En: Granero, H. et al. (2020). Inteligencia Artificial y Derecho, un reto social. Director: Horacio Granero. Ciudad de Buenos Aires: Abremática.
Granero, H. et al. (2025). Inteligencia Artificial en el Derecho: entra la innovación y la protección de derechos. Director: Horacio Granero. Ciudad de Buenos Aires: Abremática.
Harari, Y. (2024). Nexus. Ciudad Autónoma de Buenos Aires: Debate.
Lee, P. (2024). Synthetic Data and the Future of AI. 110 Cornell Law Review (Forthcoming), Disponible en SSRN: https://ssrn.com/abstract=4722162
Re, R.. (2024). Artificial Authorship and Judicial Opinions. University of Virginia School of Law. December 2024 Vol. 92 No. 6. Disponible en: https://www.law.virginia.edu/node/2176001 [Acceso 24/4/2025]
Socol D. U. and Remolina, N. (2024). Artificial intelligence at the bench: Legal and ethical challenges of informing—or misinforming—judicial decision-making through generative AI. Data & Policy, 6, E15. Published online by Cambridge University Press. Disponible en: (ingresar) [Acceso 24/4/2025]
[1] GONZALO OLIVA BELTRÁN es socio del Estudio Barreiro Abogados. Abogado, Universidad Católica Argentina, 2001. Master of Laws (LL.M.), University of Westminster (con honores), 2006. PDD, IAE, 2013. Doctorado en Leyes (cand.), Universidad Austral, desde 2018.
[2] DOBBS, STATE HEALTH OFFICER OF THE MISSISSIPPI DEPARTMENT OF HEALTH, ET AL. v. JACKSON WOMEN’S HEALTH ORGANIZATION ET AL. SUPREME COURT OF THE UNITED STATES. Disponible en: https://www.supremecourt.gov/opinions/21pdf/19-1392_6j37.pdf
[3] A. 891. XLIV - "Arriola, Sebastián y otros s/ causa nº 9080" - CSJN - 25/08/2009 (Citar: elDial.com - AA55E8)
[4] CSJ 159/2012 (48-S) – “Schiffrin, Leopoldo Héctor c/ Poder Ejecutivo Nacional s/ acción meramente declarativa” – CSJN – 28/03/2017 (Citar: elDial.com - AA9DD0)
[5] Teoría pura del derecho, trad. M. Nilve, p. 152, cita en Falcon (2007, p.427).
[6] Fundamentos del derecho procesal civil, 1951, p. 183, cita en Falcon (2007, p.427).
[7] Derecho procesal civil, t. III, Estudios sobre el proceso civil, p. 262, cita en Falcon (2007, p.427)
[8] Derecho procesal civil y penal, t. II, Ejea, p. 237, cita en Falcon (2007, p.427)