Inteligencia Artificial generativa en juicios por accidentes de tránsito: desafíos éticos y límites profesionales

Inteligencia Artificial generativa en juicios por accidentes de tránsito: desafíos éticos y límites profesionales

Más contenido jurídico en   elDial.com 

Por Hernán Luis Lell


Estamos viviendo un momento histórico. La irrupción de la inteligencia artificial generativa en el ámbito jurídico representa uno de los cambios más significativos en la práctica legal contemporánea, y esto no es una exageración. Esta transformación tecnológica adquiere particular relevancia en el derecho de accidentes de tránsito, una especialidad que siempre se ha caracterizado por su alta complejidad técnica, la necesidad de procesar información pericial voluminosa y una jurisprudencia en constante evolución."

"Los sistemas de IA generativa —fundamentados en modelos de lenguaje de gran escala— han demostrado capacidades verdaderamente extraordinarias: análisis de documentos, síntesis de información jurídica y generación de contenido legal especializado. Sin embargo, su implementación en la práctica forense plantea interrogantes que no podemos ignorar. ¿Hasta dónde llega nuestra responsabilidad profesional cuando usamos estas herramientas? ¿Cuáles son los límites éticos? ¿Dónde termina la automatización y comienza la administración de justicia propiamente dicha?"

"En el contexto específico de los accidentes de tránsito convergen elementos de ingeniería, medicina legal, psicología del tránsito y una profusa normativa administrativa. La IA generativa promete revolucionar tanto la investigación de los hechos como la construcción de estrategias procesales. Pero esta promesa tecnológica debe evaluarse críticamente. No podemos perder de vista los principios rectores del debido proceso, la garantía de defensa en juicio y los estándares de confiabilidad de la prueba."

"Este trabajo se propone examinar los principales dilemas que enfrentamos —los abogados especialistas en accidentes de tránsito— ante la creciente integración de herramientas de IA generativa en nuestra práctica profesional. Desde una perspectiva que abarca tanto los aspectos técnico-jurídicos como los desafíos éticos y deontológicos, analizaré –en el marco de la brevedad propuesta en la consigna- las tensiones emergentes entre la eficiencia tecnológica y las garantías procesales fundamentales. Vincularé, además, estas cuestiones con la teoría de la argumentación jurídica, que no puede quedar al margen de esta discusión.

La Inteligencia Artificial Generativa en la práctica de los juicios por accidentes de tránsito: Desafíos éticos y profesionales

1. INTRODUCCIÓN: EL NUEVO PARADIGMA TECNOLÓGICO EN EL DERECHO DE TRÁNSITO

 

Estamos viviendo un momento histórico. La irrupción de la inteligencia artificial generativa en el ámbito jurídico representa uno de los cambios más significativos en la práctica legal contemporánea, y esto no es una exageración. Esta transformación tecnológica adquiere particular relevancia en el derecho de accidentes de tránsito, una especialidad que siempre se ha caracterizado por su alta complejidad técnica, la necesidad de procesar información pericial voluminosa y una jurisprudencia en constante evolución.

 

Los sistemas de IA generativa —fundamentados en modelos de lenguaje de gran escala— han demostrado capacidades verdaderamente extraordinarias: análisis de documentos, síntesis de información jurídica y generación de contenido legal especializado. Sin embargo, su implementación en la práctica forense plantea interrogantes que no podemos ignorar. ¿Hasta dónde llega nuestra responsabilidad profesional cuando usamos estas herramientas? ¿Cuáles son los límites éticos? ¿Dónde termina la automatización y comienza la administración de justicia propiamente dicha?

 

En el contexto específico de los accidentes de tránsito convergen elementos de ingeniería, medicina legal, psicología del tránsito y una profusa normativa administrativa. La IA generativa promete revolucionar tanto la investigación de los hechos como la construcción de estrategias procesales. Pero esta promesa tecnológica debe evaluarse críticamente. No podemos perder de vista los principios rectores del debido proceso, la garantía de defensa en juicio y los estándares de confiabilidad de la prueba.

 

Este trabajo se propone examinar los principales dilemas que enfrentamos —los abogados especialistas en accidentes de tránsito— ante la creciente integración de herramientas de IA generativa en nuestra práctica profesional. Desde una perspectiva que abarca tanto los aspectos técnico-jurídicos como los desafíos éticos y deontológicos, analizaré –en el marco de la brevedad propuesta en la consigna- las tensiones emergentes entre la eficiencia tecnológica y las garantías procesales fundamentales. Vincularé, además, estas cuestiones con la teoría de la argumentación jurídica, que no puede quedar al margen de esta discusión.

 

La relevancia de esta investigación se inscribe en el marco más amplio del derecho procesal electrónico, disciplina que debe adaptar sus principios y procedimientos a las nuevas realidades tecnológicas sin comprometer —y esto es fundamental— los valores esenciales del sistema de justicia. Exploraré cómo la automatización progresiva de tareas jurídicas tradicionales modifica nuestro rol como abogados y plantea nuevos estándares de competencia profesional.

 

 

2. LA IA GENERATIVA COMO HERRAMIENTA EN JUICIOS DE ACCIDENTES DE TRÁNSITO: POTENCIALIDADES Y LIMITACIONES

 

La inteligencia artificial generativa ha encontrado en el derecho de accidentes de tránsito un campo particularmente fértil para su aplicación. ¿Por qué? Principalmente por la naturaleza sistemática y altamente documentada de este tipo de casos ya que demuestra una capacidad excepcional para el análisis y síntesis de expedientes complejos. Los casos de accidentes de tránsito típicamente involucran volúmenes considerables de documentación: informes policiales, pericias médicas, psicológicas, accidentológicas, contables, historias clínicas, testimonios, fotografías del lugar del hecho y documentación vehicular. Los sistemas de IA pueden procesar esta información de manera integral, identificando patrones, inconsistencias y elementos relevantes que podrían escapar al análisis humano “tradicional”.

 

Consideremos la reconstrucción de la mecánica del accidente. Los algoritmos de IA pueden integrar datos de múltiples fuentes: condiciones meteorológicas, características de la vía, especificaciones técnicas de los vehículos involucrados, velocidades estimadas y trayectorias de impacto. Esta capacidad de procesamiento multivariable permite generar modelos reconstructivos más precisos y fundamentados que los métodos tradicionales.

 

En el ámbito de la investigación jurisprudencial, la IA generativa ofrece ventajas significativas para la identificación de precedentes relevantes. La búsqueda tradicional de antecedentes jurisprudenciales -limitada por palabras clave y categorías predefinidas-, se ve superada por sistemas capaces de comprender el contexto semántico de cada caso y establecer conexiones conceptuales complejas entre diferentes fallos.

 

La redacción de escritos judiciales representa quizás el área de mayor impacto inmediato. La IA generativa puede asistir en la elaboración de demandas, contestaciones, puntos de pericia, interrogatorios para testigos, alegatos y recursos, adaptando el lenguaje jurídico a las particularidades de cada caso y jurisdicción. Esta capacidad se extiende a la generación de modelos de escritos especializados para diferentes tipos de accidentes: colisiones frontales, alcances, vuelcos, atropellamientos y siniestros en intersecciones.

 

Sin embargo –y aquí viene lo importante- estas potencialidades conviven con limitaciones significativas que debemos considerar críticamente. La primera limitación fundamental radica en la naturaleza probabilística de la IA generativa. Estos sistemas no "comprenden" el derecho en sentido estricto, sino que generan respuestas basadas en patrones estadísticos identificados en sus datos de entrenamiento. Y esto puede producir respuestas aparentemente coherentes, pero sustancialmente incorrectas (fenómeno conocido como "alucinación").

 

La desactualización de la base de conocimientos constituye otra limitación, aunque considero que en un futuro cercano esto dejará de ser un problema tan grave. Pero hoy por hoy, en una materia tan dinámica como el derecho de tránsito —donde las interpretaciones judiciales evolucionan constantemente— esta desactualización puede generar asesoramiento obsoleto o directamente erróneo.

 

Y no podemos obviar la contextualización jurisdiccional. Las decisiones judiciales presentan variaciones significativas entre diferentes jurisdicciones (la normativa local, v,gr., ordenanzas municipales, también influye y opera como derecho aplicable). La IA generativa puede tener dificultades para captar estas sutilezas, especialmente en sistemas federales donde la práctica profesional nos presenta diversidad de criterios inclusive en las distintas salas de la misma cámara de apelaciones. Quien litiga lo sabe bien.

 

 

3. DILEMAS EN LA INVESTIGACIÓN Y RECONSTRUCCIÓN DE HECHOS

 

La investigación de los hechos constituye el fundamento sobre el cual se construye toda la estrategia procesal. La incorporación de herramientas de IA generativa en esta fase crítica del proceso introduce dilemas complejos que trascienden las consideraciones puramente técnicas para adentrarse en cuestiones fundamentales sobre la naturaleza de la verdad procesal y los estándares de confiabilidad probatoria.

 

 Gastón Navarro al analizar la prueba electrónica, plantea algo fundamental: en materia de evidencia digital opera una "triada" esencial: "autoría, integridad y legalidad". El autor explica que "la autoría busca determinar quién es el autor del documento electrónico, vale decir de quien emanó el mismo, para así producir las consecuencias legales", mientras que "la integridad persigue descartar o eventualmente restar eficacia probatoria a aquellos documentos telemáticos que hayan sido objeto de modificaciones o adulteraciones"[1]. Esta estructura conceptual resulta plenamente aplicable cuando la IA generativa interviene en la reconstrucción de hechos en accidentes de tránsito.

 

Mencionamos en el párrafo anterior el fenómeno de las "alucinaciones" de la IA, que representa quizás el desafío más significativo para el abogado. Estas manifestaciones, caracterizadas por la generación de información aparentemente coherente pero fácticamente incorrecta, pueden presentarse de manera particularmente insidiosa en el contexto de la reconstrucción de accidentes. La IA puede generar conclusiones técnicas aparentemente fundamentadas sobre velocidades de impacto, ángulos de colisión o secuencias temporales que, pese a su apariencia de rigor científico, carezcan de base empírica real. El término con el que se ha decidido designar estas situaciones es harto elocuente.

 

Detectar estas alucinaciones requiere del abogado un nivel de competencia técnica que trasciende la formación jurídica tradicional. Y no me refiero solo a las citas falsas o inexistentes[2] -que también ocurren y son fácilmente verificables-, sino algo más complejo. La evaluación crítica de los outputs de IA en materia de reconstrucción de accidentes demanda conocimientos básicos de física aplicada, ingeniería de tránsito y biomecánica del trauma. Esto plantea interrogantes serios sobre los nuevos estándares de competencia profesional en la era digital. Conocer solo la norma jurídica nunca fue suficiente. El aforismo “abogado que sólo sabe derecho, ni derecho sabe” parece más actual que nunca. Los sesgos algorítmicos introducen una dimensión adicional de complejidad que no podemos ignorar. Los sistemas de IA generativa heredan los sesgos presentes en sus datos de entrenamiento, que pueden reflejar prejuicios históricos, desigualdades sociales o interpretaciones jurídicas particulares. En casos de accidentes de tránsito, estos sesgos pueden manifestarse en evaluaciones diferenciadas según factores como la edad del conductor, el tipo de vehículo involucrado, el género, la condición socioeconómica o el origen étnico de las partes.

 

 Pensemos en ejemplos concretos: un algoritmo podría concluir que un conductor joven es más intrépido y por lo tanto imprudente, que un vehículo antiguo es más inseguro al carecer de airbags, que las mujeres son peores conductoras o que los latinos son más pasionales y por lo tanto irreflexivos. Estos son sesgos discriminatorios que no podemos —que no debemos— tolerar. Y al ser incorporados de manera acrítica en la construcción de la teoría del caso, pueden perpetuar y amplificar injusticias procesales y sustanciales.

 

La confiabilidad de las fuentes de información constituye otro punto a resaltar. Los sistemas de IA generativa pueden integrar datos provenientes de fuentes de calidad variable: desde estudios técnicos rigurosos hasta publicaciones de dudosa credibilidad (o calidad) científica. La incapacidad del sistema para discriminar adecuadamente entre fuentes confiables e información espuria puede resultar en conclusiones fundamentadas en bases empíricas deficientes.

 

La transparencia del proceso de razonamiento algorítmico presenta desafíos adicionales para la práctica forense. A diferencia del peritaje tradicional, donde el experto puede explicar paso a paso su metodología y fundamentar cada conclusión, los sistemas de IA operan frecuentemente como "cajas negras" cuyos procesos internos de toma de decisiones resultan inescrutables incluso para sus propios desarrolladores.

 

 Esta opacidad algorítmica plantea problemas serios para el derecho de defensa y el principio de contradicción. ¿Cómo puede la parte contraria impugnar efectivamente conclusiones generadas por un sistema cuyo funcionamiento interno es incomprensible? ¿Qué estándares de fundamentación deben exigirse a las conclusiones algorítmicas para que puedan ser consideradas válidas en el proceso judicial? La validación independiente de los resultados de IA emerge, entonces, como una necesidad imperativa. Como abogados responsables debemos desarrollar protocolos de verificación que incluyan la contrastación de conclusiones algorítmicas con fuentes independientes, la consulta con expertos humanos y la aplicación de test de coherencia interna. Esta validación múltiple, si bien reduce la eficiencia prometida por la automatización, resulta indispensable para mantener estándares adecuados de confiabilidad procesal. En este sentido, podría decirse que –por el momento- poco ha cambiado.

 

 

4. CONFIDENCIALIDAD Y PROTECCIÓN DE DATOS DEL CLIENTE

 

La utilización de sistemas de IA generativa genera tensiones complejas entre los imperativos de eficiencia y eficacia[3] procesal[4] y los deberes fundamentales de confidencialidad y protección de datos del cliente, que adquiere particular relevancia en un contexto donde la información procesada incluye datos sensibles. El secreto profesional, pilar fundamental del ejercicio de la abogacía, se ve desafiado por las características intrínsecas de los sistemas de IA generativa. Los expedientes típicos incluyen historias clínicas detalladas, informes psicológicos, evaluaciones de incapacidad laboral, documentación financiera y, frecuentemente, información sobre circunstancias familiares y personales de las víctimas. Basta pensar en fotografías de cicatrices o mutilaciones, o lesiones en partes íntimas, para advertir lo que aquí quiero expresar. La exposición de esta información plantea riesgos de filtración, uso indebido o acceso no autorizado que pueden tener consecuencias devastadoras para los clientes.

 

Además, la persistencia de los datos en los sistemas de IA constituye otro factor de riesgo: a diferencia de la consulta tradicional de expedientes físicos, que permite un control directo sobre el acceso y la destrucción de información, los sistemas digitales pueden mantener copias de los datos procesados durante períodos indeterminados, en ubicaciones múltiples y bajo condiciones de seguridad variables. Entonces, la anonimización de datos emerge como una estrategia de mitigación, pero presenta limitaciones significativas: su efectividad se ve comprometida por la especificidad de muchos casos, donde la combinación de circunstancias temporales, geográficas y técnicas puede permitir la re identificación incluso cuando se han eliminado identificadores directos.

 

 El consentimiento informado del cliente adquiere una importancia crítica en este contexto. Sin embargo, la complejidad técnica de los sistemas de IA y la evolución constante de sus términos de uso dificultan la obtención de un consentimiento verdaderamente informado. ¿Cómo puede un cliente no especializado –un “vulnerable digital”; por caso- evaluar adecuadamente los riesgos asociados al procesamiento de su información por sistemas de IA cuyo funcionamiento interno es opaco incluso para muchos profesionales?

 

La segmentación de la información, consistente en limitar la información suministrada exclusivamente a aquellos elementos indispensables para la tarea específica requerida, si bien reduce los riesgos de exposición, puede comprometer la efectividad de la IA, que frecuentemente requiere contexto amplio para generar outputs de calidad. Es un dilema difícil de resolver.

 

Las auditorías de seguridad de los proveedores de IA se vuelven indispensables para el ejercicio responsable. El abogado debe evaluar no solo las capacidades técnicas de las herramientas de IA, sino también sus estándares de seguridad, políticas de retención de datos, ubicación geográfica de los servidores y cumplimiento de normativas de protección de datos aplicables.

 

La implementación de protocolos internos de manejo de información emerge entonces como una necesidad imperativa. Estos protocolos deben incluir procedimientos para la evaluación de riesgos, criterios para la selección de información a procesar, mecanismos de seguimiento del uso de datos y procedimientos de respuesta ante incidentes de seguridad.

 

 

5. ÉTICA PROFESIONAL DEL ABOGADO EN LA ERA DE LA IA

 

La incorporación de herramientas de IA generativa en la práctica legal especializada redefinió fundamentalmente los contornos de la ética profesional, planteando desafíos inéditos que trascienden los marcos deontológicos tradicionales. Como abogados especialistas en accidentes de tránsito nos encontramos ante la necesidad imperativa de re conceptualizar nuestros deberes profesionales en un contexto tecnológico en constante evolución.

 

El deber de competencia profesional, tradicionalmente entendido como la obligación de mantenerse actualizado en los desarrollos jurisprudenciales y normativos de la especialidad, adquiere nuevas dimensiones en la era digital. Nuestra competencia debe abarcar no solo el dominio sustantivo y procesal de nuestra rama específica, sino también una comprensión suficiente de las capacidades, limitaciones y riesgos asociados a las herramientas tecnológicas que empleamos en nuestra práctica.

 

Esta competencia digital no implica necesariamente un conocimiento técnico exhaustivo de los algoritmos subyacentes, pero sí requiere una comprensión funcional de cómo operan los sistemas de IA, qué tipo de sesgos pueden introducir, bajo qué circunstancias son más propensos a generar outputs erróneos y cuáles son las mejores prácticas para su utilización responsable. Un abogado que utiliza IA sin comprender sus limitaciones incurre en una forma de negligencia profesional equiparable a quien ejercería sin conocer los principios fundamentales de su especialidad. Y esto no es una exageración.

 

La transparencia con el cliente emerge como un principio ético fundamental en este nuevo paradigma y genera algunas cuestiones importantes: ¿tenemos la obligación de informar a nuestro cliente sobre la utilización de herramientas de IA en el manejo de su caso, explicando tanto los beneficios potenciales como los riesgos asociados? ¿Esta transparencia debe extenderse a los aspectos de confidencialidad y protección de datos, asegurando que el cliente comprenda cabalmente las implicancias de que su información sea procesada por sistemas automatizados?

 

La obtención del consentimiento informado del cliente para el uso de IA presenta desafíos particulares. El debate parece transitar entre aquellos para quienes el consentimiento debe ser específico —es decir, referido a las herramientas concretas que se utilizarán y los propósitos específicos para los cuales se emplearán— y otros para quienes requerir tal consentimiento no resultaría necesario, pues la IA es una herramienta más dentro del bagaje instrumental que posee el abogado para el ejercicio de su profesión.

 

La responsabilidad por errores algorítmicos constituye uno de los dilemas éticos más complejos. Cuando un sistema de IA genera información errónea que es incorporada acríticamente en una estrategia procesal, resultando en perjuicio para el cliente, surge la cuestión de la atribución de responsabilidad.

 

¿Es responsable el abogado por no haber detectado el error? Probablemente sí. ¿El proveedor de la tecnología? Lo dudo. ¿Existe una responsabilidad compartida? No lo creo. Los jueces poco a poco van delineando ciertos límites al respecto[5].

 

La jurisprudencia emergente sugiere que la responsabilidad recae primariamente en el profesional que utiliza la herramienta, bajo el principio de que la tecnología no exime al abogado de su deber de revisión crítica y validación de los outputs. Esta perspectiva refuerza la importancia de desarrollar protocolos rigurosos de verificación y control de calidad.

 

El principio de diligencia profesional se ve redefinido en el contexto de la IA. La diligencia ya no puede medirse únicamente por la dedicación temporal o el esfuerzo invertido, sino que debe evaluarse también en función de las herramientas utilizadas y la rigurosidad de los procesos de validación implementados. Un abogado que emplee métodos obsoletos cuando existen herramientas de IA que podrían mejorar significativamente la calidad de su servicio podría ser considerado negligente, del mismo modo que aquel que utilice IA de manera irresponsable.

 

 En el contexto actual signado por la IA, el abogado debe mantener su capacidad de juicio independiente, utilizándola como herramienta de apoyo, pero conservando siempre la responsabilidad final sobre las decisiones. La dependencia excesiva de sistemas automatizados puede comprometer la calidad del asesoramiento legal y la personalización del servicio profesional.

 

 Los colegios profesionales y las instituciones académicas enfrentan la necesidad de actualizar sus programas de formación deontológica para abordar las implicancias éticas de la IA. Esta formación debe ser práctica y específica, proporcionando herramientas concretas para la toma de decisiones éticas en contextos tecnológicos complejos.

 

 

6. LA GESTIÓN PROBATORIA ASISTIDA POR IA

 

La incorporación de sistemas de IA generativa en la gestión probatoria de casos de accidentes de tránsito introduce transformaciones profundas en la dinámica procesal tradicional, pues prometen revolucionar tanto la identificación y organización de elementos probatorios como la estrategia de presentación y argumentación, pero generan, simultáneamente, desafíos inéditos para los principios procesales fundamentales.

 

Gastón Navarro, en su análisis sobre el duelo entre activismo y garantismo procesal frente a la revolución digital judicial, advierte sobre los riesgos de una implementación apresurada: "Resulta absolutamente imprudente y sin sentido, salir a pregonar casi coactivamente el uso de las herramientas informáticas disponibles que se tengan al alcance o disponibles... dando a los funcionarios judiciales una suerte de rienda suelta, absoluta discrecionalidad, a realizar cualquier tipo de cosas"[6]. Esta advertencia resulta particularmente pertinente cuando analizamos la gestión probatoria asistida por IA.-

 

Navarro enfatiza un principio rector fundamental: "Todo ordenamiento procesal que se precie de serio como moderno requiere inevitablemente contar con reglas claras de actuación y un razonable marco de previsibilidad, para que las partes litigantes -protagonistas únicas del mismo- posean un conocimiento pleno del complejo jurídico dentro del cual pueden y deben desenvolverse"[7]. Esta premisa adquiere renovada vigencia cuando el proceso se digitaliza y la IA interviene en la gestión probatoria. Es necesario pensar en nuevos modelos procesales para que el procesamiento de la información pueda incorporarse adecuadamente.

 

La organización estratégica de la prueba también se ve potenciada por las herramientas de IA. Estos sistemas pueden generar cronologías detalladas, crear mapas conceptuales de las relaciones entre diferentes elementos probatorios y sugerir secuencias óptimas de presentación que maximicen el impacto persuasivo ante el tribunal. La capacidad de la IA para identificar elementos probatorios complementarios y construir narrativas coherentes representa una ventaja competitiva significativa. Sin embargo, plantea interrogantes fundamentales sobre la autenticidad y confiabilidad de la evidencia, y surge la cuestión de si las contribuciones algorítmicas deben ser reveladas al tribunal y a la parte contraria como parte del principio de colaboración procesal.

 

El principio de contradicción se ve desafiado por la opacidad inherente de muchos sistemas de IA. Si una parte basa su estrategia probatoria en análisis generados por IA, ¿tiene la contraparte el derecho a conocer los parámetros específicos utilizados, los datos de entrenamiento del sistema y la metodología algorítmica empleada? No tengo una respuesta clara a esta pregunta, pero considero que merece un debate profundo (otro más de los muchos que se desarrollan en esta materia).

 

La cadena de custodia probatoria debe adaptarse para incorporar el procesamiento algorítmico. Cuando la evidencia digital es analizada por sistemas de IA, se requieren protocolos específicos para documentar el procesamiento realizado, los parámetros utilizados y las transformaciones aplicadas a los datos originales. Esta documentación resulta esencial para garantizar la integridad probatoria y permitir la reproducción independiente de los análisis.

 

Para la presentación de evidencia generada o procesada por IA, los abogados deben desarrollar habilidades para explicar, con un lenguaje jurídico accesible, conceptos técnicos complejos a jueces y jurados que pueden carecer de formación tecnológica. Este es un desafío comunicacional nada menor.

 

En cuanto al estándar probatorio aplicable a las conclusiones generadas por IA, requiere clarificación jurisprudencial. ¿Deben aplicarse los mismos estándares que rigen la prueba pericial tradicional? ¿Se requieren fundamentos técnicos específicos para la admisibilidad de evidencia procesada algorítmicamente? La ausencia de precedentes al respecto genera cierta incertidumbre en una materia en pleno desarrollo.

 

La información que surge de la evidencia basada en IA, por el principio de contradicción puede y debe tener la posibilidad de ser rebatida, pero esto presenta complejidades técnicas significativas, pues quien deba controvertir conclusiones algorítmicas debe contar con experticia técnica suficiente para identificar posibles errores, sesgos o limitaciones en el procesamiento. Esta exigencia puede generar desigualdades procesales entre partes con diferentes recursos económicos y tecnológicos. La figura del consultor técnico (licenciado en informática, v.gr.) resulta de utilización casi ineludible en este contexto, pero incrementa los costos procesales.

 

En cuanto a la preservación de la evidencia digital, que adquiere nuevas dimensiones cuando interviene el procesamiento por IA, merece algunos comentarios: ¿debe conservarse no solo la evidencia original, sino también los metadatos del procesamiento algorítmico, las versiones específicas de los sistemas utilizados y los parámetros de configuración empleados? Parece que una preservación integral resulta esencial para garantizar la reproducibilidad y la auditabilidad del proceso probatorio.

 

 

7. HACIA LA AUTOMATIZACIÓN DE SENTENCIAS

 

La posibilidad de automatización parcial o total del proceso de dictado de sentencias representa uno de los horizontes más controvertidos y transformadores en la evolución del sistema de justicia contemporáneo. En el ámbito específico de los accidentes de tránsito, donde existe una abundante jurisprudencia histórica y patrones relativamente estables de responsabilidad civil, los sistemas de IA predictiva demuestran una significativa capacidad para anticipar resultados judiciales con grados crecientes de precisión.

 

Los fundamentos técnicos de la automatización de sentencias se apoyan en el procesamiento masivo de bases de datos jurisprudenciales que permiten identificar patrones de decisión, correlaciones entre elementos fácticos y resultados judiciales, y tendencias evolutivas en la interpretación judicial. Como explica Gimena Veglia: "El aprendizaje automático es una subdisciplina de la IA que otorga a las máquinas la capacidad de aprender de la experiencia. En lugar de programar manualmente todas las reglas de decisión, se entrena un algoritmo con conjuntos de datos para que encuentre por sí mismo patrones y regularidades".[8]

 

En Argentina, experiencias concretas como PROMETEA han demostrado el potencial de estos sistemas. Desarrollado en 2017 por el Ministerio Público Fiscal de la Ciudad de Buenos Aires junto con la Facultad de Derecho (UBA), "fue pionero en preparar documentos judiciales automáticamente y predecir decisiones en casos repetitivos, acelerando trámites que antes tomaban días". Según reportes oficiales, "en la Corte Interamericana de Derechos Humanos, este sistema genera más de 100 notificaciones en menos de 2 minutos (en cuatro idiomas oficiales) y puede redactar borradores de resoluciones en 4 minutos".[9]

 

La predictibilidad en casos de tránsito presenta ventajas evidentes en términos de consistencia judicial y eficiencia del sistema. Los algoritmos pueden procesar simultáneamente múltiples variables relevantes, aplicar criterios uniformes y generar decisiones libres de factores subjetivos o emocionales que pueden influir en el juicio humano. Esta objetividad algorítmica promete reducir las disparidades de criterio entre diferentes tribunales y magistrados, contribuyendo a una mayor igualdad ante la ley.

 

Los modelos predictivos han demostrado particular efectividad en la determinación de montos indemnizatorios. El análisis de bases de datos extensas permite establecer correlaciones precisas entre las características de las lesiones, las pérdidas económicas documentadas, la edad y situación laboral de las víctimas, y los montos efectivamente adjudicados por los tribunales. Esta capacidad predictiva puede contribuir significativamente a la estandarización de criterios de reparación civil con la consiguiente y anhelada previsibilidad.

 

Sin embargo, la automatización de sentencias enfrenta objeciones fundamentales desde la perspectiva del debido proceso y las garantías constitucionales. El derecho a ser juzgado por un tribunal competente, independiente e imparcial podría verse comprometido cuando las decisiones son generadas algorítmicamente. La imparcialidad debe redefinirse en el contexto algorítmico para abarcar la neutralidad técnica y la ausencia de sesgos sistemáticos en los datos de entrenamiento.

 

La discusión contemporánea sobre la "prohibición de sustitución" del razonamiento judicial humano, presente en desarrollos normativos como el artículo 172 del nuevo Código Procesal Civil panameño y la sentencia T-323-24 de la Corte Constitucional colombiana, plantea interrogantes conceptuales fundamentales. Como señala Renzo Cavani[10], es necesario distinguir entre una "sustitución en sentido fuerte" que prohíbe cualquier intervención de IA, y una "sustitución en sentido débil" que permite la intervención algorítmica bajo supervisión judicial humana.

 

Esta distinción cobra particular relevancia en el contexto de accidentes de tránsito, donde el razonamiento judicial involucra múltiples subprocesos decisorios: desde la selección del segmento normativo aplicable hasta la valoración de pruebas periciales complejas. La prohibición absoluta de sustitución (sentido fuerte) parece excesivamente rigurosa, bloqueando posibilidades de eficiencia sin considerar las diferencias entre distintos tipos de sistemas de IA y sus diversos niveles de riesgo.

 

La tensión entre eficiencia y explicabilidad, identificada por Cavani como central en la ética de la IA aplicada a la justicia, requiere resoluciones pragmáticas que consideren el grado de injerencia del sistema en la decisión final. En casos de accidentes de tránsito, actividades como la síntesis de piezas procesales, la transcripción de audiencias o la generación de informes estadísticos predictivos pueden considerarse "reemplazables", pero inevitablemente impactan en las actividades "irremplazables" de interpretación de hechos y valoración de pruebas.

 

 El criterio propuesto sugiere privilegiar mayor explicabilidad cuando existe mayor injerencia en la decisión judicial, y mayor eficiencia cuando la injerencia es menor. Esta aproximación gradual permite aprovechar los beneficios de la automatización en procesos rutinarios mientras se preservan garantías robustas para decisiones de mayor complejidad e impacto.

 

La supervisión judicial humana debe calibrarse considerando las limitaciones cognitivas reales del magistrado. Como señala Cavani, no puede exigirse del juez una comprensión técnica que exceda sus capacidades razonables, especialmente cuando algoritmos más complejos ofrecen mayor exactitud predictiva. La supervisión efectiva puede limitarse pragmáticamente a comprender qué información introducir al sistema y evaluar críticamente sus outputs, sin requerir dominio técnico de los procesos algorítmicos internos.

 

La transparencia del proceso de toma de decisiones emerge como un requisito indispensable para la legitimidad de la justicia automatizada. A diferencia del juez humano, quien puede fundamentar sus decisiones explicando su razonamiento jurídico, muchos sistemas de IA operan como "cajas negras" cuyo proceso interno de análisis resulta incomprensible.[11] Esta opacidad es incompatible con el derecho fundamental a conocer los fundamentos de las decisiones que afectan derechos e intereses legítimos y podría pensarse en una violación a la clara pauta del artículo 3 del CCC argentino. –

 

El desarrollo de sistemas de IA "explicables" o "interpretables" representa una línea de investigación crítica para la viabilidad de la automatización judicial, los que deben ser capaces no solo de generar decisiones precisas, sino también de proporcionar explicaciones comprensibles sobre los factores considerados, el peso asignado a cada elemento y la lógica subyacente a la conclusión alcanzada. La implementación gradual de la automatización puede seguir un modelo híbrido que preserve la supervisión judicial humana. En este esquema, los sistemas de IA generarían proyectos de sentencia que serían revisados, modificados y validados por magistrados humanos. Esta aproximación permitiría aprovechar la eficiencia y consistencia algorítmica mientras se mantienen las garantías procesales fundamentales.

 

 Los casos de baja complejidad podrían constituir el campo inicial de implementación de la automatización. Los accidentes de tránsito con hechos indiscutidos, responsabilidad clara y daños documentados objetivamente presentan características que los hacen particularmente susceptibles de resolución algorítmica. En el esquema de hechos controvertidos se divide habitualmente entre aquellos que tienen que ver con la existencia y mecánica del accidente, y el que tiene que ver con la valoración y cuantificación del daño. Supuestos de casos fáciles donde no se discute el hecho antecedente y, v.gr., las lesiones aparecen como de fácil prueba, el núcleo de la discusión se basaría –tal vez- solo en la cuantificación. La automatización progresiva podría comenzar con estos casos rutinarios, reservando la decisión judicial humana para situaciones de mayor complejidad o controversia, sin dejar de contar con un auditoría permanente que detecte sesgos y errores y que incluyan tanto evaluaciones técnicas de los algoritmos como análisis jurídicos de la coherencia y equidad de los resultados generados. La retroalimentación continua debe permitir la corrección y mejora constante de los sistemas.

 

 

8.- EL ROL DEL ABOGADO EN UN ESCENARIO DE JUSTICIA AUTOMATIZADA

 

La automatización judicial plantea interrogantes sobre el futuro de la abogacía. En materia de accidentes de tránsito, donde la estandarización favorece el uso de algoritmos, la situación puede ser particularmente crítica para el litigante en un futuro no tan lejano. Esto debe conducir necesariamente a la reinvención del rol profesional hacia funciones de mayor valor agregado.

 

Experiencias locales como Prometea, Experticia en Buenos Aires y el Proyecto Hodor de la UEJN evidencian cómo la tecnología se incorpora a la gestión de procesos rutinarios. Como en la medicina, donde los diagnósticos automáticos liberan a los profesionales para casos complejos, la abogacía puede evolucionar hacia tareas estratégicas, interpretativas y de control.

 

El abogado mantiene y mantendrá un papel esencial en casos complejos, en el diseño de sistemas de justicia automatizada y en la revisión de decisiones algorítmicas, garantizando corrección, transparencia y el derecho a la revisión o impugnación de las decisiones judiciales automatizadas. Además, puede potenciar la asesoría preventiva mediante herramientas predictivas, especializarse en “casos frontera” que desafían los paradigmas existentes y asumir la validación ética de los sistemas automatizados.

 

La formación continua y las competencias híbridas —jurídicas, tecnológicas y éticas— se vuelven imprescindibles, así como la colaboración interdisciplinaria con expertos en datos e ingeniería. Finalmente, la personalización del servicio jurídico se consolida como un valor diferencial frente a soluciones estandarizadas: la empatía y la adaptación a las necesidades del cliente seguirán siendo el núcleo de la profesión en la nueva era en la que estamos transitando.

 

 

9. CONCLUSIONES: EL EQUILIBRIO ENTRE INNOVACIÓN Y GARANTÍAS PROCESALES

 

La integración de la inteligencia artificial generativa en la práctica legal especializada en accidentes de tránsito representa tanto una oportunidad transformadora como un desafío fundamental para los principios rectores del sistema de justicia. El análisis desarrollado a lo largo de este trabajo revela que la implementación responsable de estas tecnologías requiere un equilibrio cuidadoso entre la búsqueda de eficiencia procesal y la preservación de las garantías constitucionales fundamentales.

 

La potencialidad de la IA generativa para revolucionar la práctica forense resulta innegable. Su capacidad para procesar volúmenes masivos de información, identificar patrones complejos en la jurisprudencia y asistir en la construcción de estrategias procesales sofisticadas promete mejoras significativas en la calidad y eficiencia del servicio jurídico. Sin embargo, estas ventajas no pueden obtenerse a costa de comprometer principios esenciales como el debido proceso, el derecho de defensa y la individualización de la justicia. Además, el ciudadano quiere “su” respuesta, no cualquier respuesta despersonalizada. No acude a una máquina, acude a un juez.-

 

Los dilemas éticos identificados en la investigación subrayan la necesidad imperativa de desarrollar marcos normativos específicos que regulen la utilización de IA en el contexto forense. Estos marcos deben abordar cuestiones críticas como la transparencia algorítmica, los requisitos de fundamentación de decisiones asistidas por IA, los protocolos de protección de datos del cliente y los mecanismos de eventual responsabilidad profesional por errores algorítmicos. En este punto, la reflexión no puede desligarse de la teoría general del derecho y la tecnologíala exigencia de que los sistemas algorítmicos ofrezcan resultados comprensibles y debidamente fundamentados conecta con el deber de motivación de toda decisión jurídica; y el principio de responsabilidad digital impone la necesidad de establecer mecanismos de trazabilidad y auditoría permanentes que permitan controlar cómo se han producido los resultados automatizados y garantizar su coherencia con los valores y principios del derecho.

 

La cuestión de la automatización de sentencias revela tensiones profundas entre eficiencia y legitimidad judicial. Si bien la predictibilidad algorítmica puede contribuir a la consistencia del sistema y a la reducción de disparidades injustificadas, su implementación debe preservar elementos esenciales como la individualización del caso, la transparencia del razonamiento judicial y la posibilidad efectiva de impugnación. En este marco, los sistemas híbridos que combinen capacidades algorítmicas con supervisión judicial humana se presentan como una alternativa razonable.

 

Asimismo, el abogado no puede limitarse a ser un mero operador técnico. Su función social lo coloca como garante de derechos fundamentales frente a innovaciones que, sin contrapesos, pueden acentuar desigualdades y debilitar el equilibrio democrático. En un escenario de justicia crecientemente automatizada, el abogado se convierte en intérprete crítico de los resultados tecnológicos, validador de su confiabilidad jurídica y gestor estratégico de la información algorítmica en el marco del proceso judicial. Ello exige una formación interdisciplinaria que integre competencias jurídicas, tecnológicas y éticas, en la convicción de que la alfabetización digital ya no es un plus, sino un componente esencial de la práctica profesional responsable.

 

En este punto resulta inevitable vincular la discusión con la teoría de la argumentación jurídica. Autores como AlexyMacCormick, Wroblewski y Atienza han demostrado que el derecho no se reduce a la aplicación mecánica de normas, sino que implica procesos de justificación racional. Alexy sostiene que toda decisión jurídica debe pretender ser correcta y, por tanto, ofrecer razones aceptables para la comunidad jurídica. MacCormick defiende un papel central del silogismo judicial como estructura del razonamiento, sin desconocer la relevancia del razonamiento no formalista, probabilístico o retórico. Wroblewski distingue entre justificación interna (coherencia lógica) y externa (adecuación a valores y principios), categorías que resultan esenciales para evaluar decisiones mediadas por algoritmos. Atienza recuerda, finalmente, que el razonamiento jurídico tiene una dimensión no solo formal sino material, práctica y dialógica (retórica y dialéctica), que quedaría empobrecida si se redujera a un producto estadístico generado por una máquina.

 

Estas reflexiones muestran que los dilemas actuales de la IA no son una ruptura radical, sino la continuación de un debate clásico: ¿cómo justificar racionalmente las decisiones jurídicas en un marco de pluralismo y complejidad? La IA generativa, lejos de clausurar la pregunta, la reactualiza con nuevos matices y exige un marco deontológico reforzado.

 

En última instancia, el desafío central consiste en aprovechar el potencial transformador de la IA para mejorar el acceso a la justicia y la calidad del servicio, sin sacrificar los valores fundamentales que legitiman el sistema jurídico. La clave radica en mantener el foco en los objetivos esenciales del derecho: la protección de derechos, la resolución justa de conflictos y la construcción de una sociedad más equitativa a través del imperio de la ley. El abogado especialista en accidentes de tránsito, lejos de quedar obsoleto, tiene la oportunidad de reinventarse como intérprete crítico, validador y gestor estratégico en la era de la inteligencia artificial.

 

 



(*) Abogado (UNL). Diplomado en Proceso por Audiencias (UCA), Diplomado en Derecho de Seguros (UCA), Diplomado en Litigación Penal y Juicio por Jurados (UCA), Miembro de la Asociación Argentina de Coaching Jurídico y Derecho Colaborativo. Maestrando de la Maestría en Argumentación Jurídica (UNL).

[1] NAVARRO, Gastón A. “Las TIC y los diversos retos probatorios que se nos presentan al momento de buscar su acreditación judicial”, en ERREIUS, abril 2020, pág. 243; IUSDC3287305A

[3] Que responden a preguntas diferentes: “lo hacemos bien?” (eficacia); “lo hacemos con los mínimos recursos necesarios?” (eficiencia)

[4] Camps habla de un derecho eficaz y lo califica como “derecho humano”. Ver https://carloscamps.com/

[5] Ver, entre otros, diariojudicial.com.ar/news-101656-un-escrito-con-mucha-imaginacion

[6] NAVARRO, GASTON; “El duelo “5.0” entre el activismo y el garantismo procesal frente a la revolución digital judicial “, en ERREIUS, septiembre de 2021

[7] ibidem

[8] VEGLIA Gimena, “Inteligencia artificial en la gestión procesal”.

[9] ibidem

[11] Veglia dice: “Los modelos de deep learning se comportan como cajas negras cuyo proceso interno resulta opaco incluso para sus creadores: ajustan millones de parámetros internos de forma autónoma y no es trivial extraer una explicación comprensible de por qué tomaron una decisión”; op.cit.-