Más contenido jurídico en elDial.com
La incorporación de la inteligencia artificial en el ámbito jurídico se ha consolidado como una herramienta útil para resolver tareas mecanizadas. Sin embargo, también ha generado más de un dolor de cabeza, no solo para abogados, sino incluso —y esto es más reciente— para jueces de primera instancia. Nadie está exento de caer en las denominadas “alucinaciones” de la IA, tal como lo empieza a reflejar la jurisprudencia que, de manera creciente, incorpora este fenómeno como un nuevo eje de análisis.
Por Por Anastasia I C Bosque
Introducción
La incorporación de la inteligencia artificial en el ámbito jurídico se ha consolidado como una herramienta útil para resolver tareas mecanizadas. Sin embargo, también ha generado más de un dolor de cabeza, no solo para abogados, sino incluso —y esto es más reciente— para jueces de primera instancia. Nadie está exento de caer en las denominadas “alucinaciones” de la IA, tal como lo empieza a reflejar la jurisprudencia que, de manera creciente, incorpora este fenómeno como un nuevo eje de análisis.
Desarrollo
1. Cuando la falta de control invalida resoluciones judiciales
El caso de la Cámara Civil de Azul (Expte. “B. S. M. s/ determinación de la capacidad jurídica”, 07/04/20261) marcó un punto de inflexión. Allí, la Cámara declaró la nulidad de una resolución de primera instancia que había rechazado la regulación de honorarios del Curador Oficial, al advertir que su fundamentación se apoyaba en citas doctrinarias y jurisprudenciales inexistentes o imposibles de verificar.
El tribunal fue claro: el uso de inteligencia artificial no está prohibido, pero exige un control estricto de las fuentes. La ausencia de ese control afectó directamente la debida motivación del acto jurisdiccional y justificó su invalidez.
2. La responsabilidad profesional: sanciones por “alucinaciones”
En el ejercicio de la abogacía, los tribunales comenzaron a adoptar una postura cada vez más firme frente a este fenómeno.
En San Miguel de Tucumán (Expte. “O.F.C. c/ Booking.com Argentina SRL y otro”, 02/02/20262), se detectó que la demanda incluía precedentes inexistentes en bases de datos jurídicas. El juzgado entendió que ello evidenciaba un uso de inteligencia artificial sin verificación posterior, calificó la conducta como temeraria e impuso una multa, además de remitir las actuaciones al Tribunal de Ética del Colegio de Abogados local.
En la misma línea, la Cámara de General Roca (Río Negro), en “M.J.L. c/ Peugeot Citroën Argentina S.A.” (18/09/2025)3, advirtió que ambas partes habían incorporado múltiples citas de fallos inexistentes. La consecuencia fue contundente: se declaró inoficiosa la actuación profesional en esa instancia, sin reconocimiento de honorarios, y se dio intervención al Colegio profesional.
Un criterio similar adoptó la Cámara de Rosario (Santa Fe), que en un proceso por daños y perjuicios (G., C. A. y otros c/ M. F. D. y otros, agosto de 2025)4 llamó la atención a un letrado que reconoció haber utilizado inteligencia artificial sin verificar las citas. El tribunal subrayó que la buena fe procesal exige un control riguroso de las fuentes invocadas.
3.El juez también puede equivocarse
El fenómeno no se limita al ejercicio profesional de los abogados. También se han registrado situaciones en las que el uso inadecuado de inteligencia artificial impactó directamente en la función jurisdiccional.
Un caso especialmente relevante se dio en la provincia de Chubut (Cámara en lo Penal de Esquel, “Provincia de Chubut c/ P. R. A.”, 15/10/2025)5, donde se anuló una sentencia condenatoria al advertirse que el magistrado había incorporado contenido generado por un sistema de inteligencia artificial sin explicitar su uso ni permitir su control.
El tribunal destacó que la falta de trazabilidad del razonamiento, sumada a la posible delegación de funciones decisorias, vulneraba garantías esenciales del debido proceso.
4. En el plano internacional
Diversos precedentes internacionales reflejan preocupaciones similares.
En Colombia, la Corte Suprema de Justicia (13/02/2026) confirmó la sanción a un abogado que había presentado escritos con referencias jurídicas inexistentes, señalando que este tipo de prácticas vulnera la buena fe procesal y puede configurar responsabilidad disciplinaria. En Estados Unidos (Indiana, 2024), un tribunal federal impuso sanciones económicas a un profesional por presentar un escrito con jurisprudencia generada por inteligencia artificial sin verificación, enfatizando que el uso de estas herramientas no exime del deber de control. En España, el Tribunal Superior de Justicia de Canarias (2026) sancionó a un abogado que incluyó numerosas citas inexistentes en un recurso, destacando que la falta de verificación constituye una infracción grave a los deberes profesionales.
Fuera del ámbito estrictamente procesal, la inteligencia artificial ha abierto otros debates.
En México (Suprema Corte, 2025), se rechazó el registro de una obra generada por IA al sostener que la autoría jurídica requiere intervención humana, reafirmando la centralidad del sujeto en la creación jurídica.
Por otro lado, no todo uso es negativo. En Estados Unidos (Nueva York, 2026), se admitió que las conversaciones mantenidas con sistemas de inteligencia artificial, como chatbots, pueden ser utilizadas como prueba en juicio, al no estar amparadas por el secreto profesional, lo que abre un nuevo frente en materia de privacidad y evidencia digital.
5. La IA solo como herramienta auxiliar
Más allá de las particularidades de cada caso, todos comparten un denominador común: la inteligencia artificial no está prohibida, pero su uso exige control humano, verificación y responsabilidad.
El problema aparece cuando la herramienta deja de ser auxiliar y comienza a sustituir el razonamiento jurídico. En ese punto, no solo se resiente la calidad de las decisiones, sino también principios estructurales del proceso, como la motivación, la transparencia y la posibilidad de control. A ello se suma un evidente menoscabo del rol analítico que caracteriza al ejercicio profesional del abogado.
6. Hacia un uso responsable
Frente a este escenario, la discusión no debería centrarse en si la inteligencia artificial debe o no utilizarse, sino en cómo hacerlo.
La verdadera oportunidad está en automatizar tareas repetitivas, estandarizar procesos y reducir errores operativos. Es decir, en desarrollar herramientas que ejecuten con precisión aquello que ya está normado, sin introducir márgenes de discrecionalidad artificial. En esa línea, algunos poderes judiciales ya vienen implementando sistemas diseñados específicamente para tales fines.
Este enfoque permite mejorar la eficiencia del sistema sin poner en riesgo su núcleo esencial. La inteligencia artificial puede ser una aliada valiosa, siempre que se mantenga dentro de un rol claramente delimitado y bajo una supervisión humana efectiva.
Conclusión
El uso de la inteligencia artificial en el ámbito jurídico plantea un desafío que ya no es hipotético. Los precedentes recientes, tanto locales como internacionales, muestran que su utilización sin control puede derivar en nulidades, sanciones y afectación de garantías fundamentales.
Sin embargo, el problema no radica en la tecnología en sí, sino en la forma en que se la incorpora. Cuando se pretende trasladar a la máquina aquello que exige criterio humano.
La clave está en encontrar un equilibrio: aprovechar las ventajas de la automatización sin renunciar a la responsabilidad profesional ni al juicio crítico. En definitiva, integrar la innovación sin perder de vista que, en el derecho, decidir sigue siendo una tarea esencialmente humana.
