Por Abril Arce
La Inteligencia Artificial viene a irrumpir en el mundo jurídico prometiendo, más que nada, modernización y eficiencia. Pero, ¿qué sucedería si en la transición a estas nuevas tecnologías, el razonamiento de los profesionales empieza a depender de las máquinas?Reflexiones acerca de la ética profesional del abogado frente al uso inadecuado de las I.A.[1]
I. Introducción
Estamos frente a una realidad jurídica donde el abogado, custodio de los derechos de las personas humanas y jurídicas, quien históricamente ha servido a la sociedad en la búsqueda de justicia, se ha convertido en una figura que genera cierto recelo en la sociedad. Decir “soy abogada” en Argentina, no despierta entusiasmo -como quizá sí sucedía en décadas anteriores-, sino sospecha. Ello es la consecuencia de una ética profesional que se ha sostenido hace varios años, dando como resultado la creación de un estereotipo de abogado como una figura elitista, inaccesible y autorreferencial. Esto ya no es un prejuicio, sino una cadena perpetua. Lo que deja a la nueva camada de litigantes atrapada en una automatización, no sólo de los sistemas -que así lo requieren-, sino de la práctica profesional en sí misma. El derecho, para quienes no se dedican a esta profesión, se convierte en algo frívolo cuando en realidad lo que lo mueve es algo tan candente como la búsqueda de la justicia.
En este marco, la Inteligencia Artificial viene a irrumpir en el mundo jurídico prometiendo, más que nada, modernización y eficiencia. Pero, ¿qué sucedería si en la transición a estas nuevas tecnologías, el razonamiento de los profesionales empieza a depender de las máquinas? ¿Dónde queda la ética profesional en ese marco? La mayor amenaza que representa la IA no es reemplazar la labor jurídica, sino la posibilidad de que esta tecnología imite al modelo más deshumanizado y elitista del abogado. “La ascensión de una sociedad que comienza a relacionarse intensamente con la tecnología, ha dado lugar a problemas jurídicos complejos y globales, que parecen aumentar la brecha entre cambio social y derecho” (Parra Sepúlveda y Concha Machuca, 2021).
I. a. Objetivo
En este trabajo propongo una lectura crítica sobre la ética profesional jurídica en tiempos de IA, con el objetivo de visibilizar qué tipo de faltas éticas puede representar el mal uso de la inteligencia artificial -a la luz del Código de Ética y la Ley de Ejercicio Profesional que rigen el ejercicio de los matriculados en la Capital Federal- y cómo el uso inadecuado de la IA podría perpetuar un modelo de abogado que ya no condice con el contexto social actual. Con esta última expresión me refiero a aquél perfil profesional que es frívolo, excesivamente formal, de habla dificultosa, que no sabe cómo construir un puente entre su realidad y la del cliente. Al respecto, he reflexionado que el mal uso de la IA refuerza este modelo de abogado y deshumaniza la profesión.
Lógicamente, aún se está trabajando en cómo utilizar las nuevas tecnologías en el mundo jurídico, así que esta presentación no es más que una simple reflexión desde la perspectiva de una joven abogada.
I. b.- Marco conceptual
La ética profesional, en palabras de Olmeda García (2020), se trata de las normas de conducta (o reglas morales) que rigen y orientan el comportamiento del abogado, su relación con el cliente, con los tribunales, con la contraparte y su responsabilidad para con la sociedad (pág. 236). Cuando los abogados de la Capital Federal juramos ante el Colegio, lo hacemos en pos de cumplir con nuestros deberes fundamentales respecto del orden jurídico-institucional previstos en el Código de Ética, los cuales son: afianzar la justicia (artículo 6 del Código de Ética); ejercer la abogacía en defensa de los Derechos Humanos, conforme los contenidos de la Constitución Nacional, las declaraciones, cartas, pactos y tratados internacionales (artículo 8); entre otros, quedando sujetos a la sanciones disciplinarias previstas por la Ley N° 23.187 de Ejercicio Profesional de los abogados en la Capital Federal, en caso de incumplimiento de cualquiera de las normas de ética profesional.
Gutierrez Rodríguez (2020) nos señala que:
En el ejercicio profesional del derecho se está experimentando con IA, puntualmente para la realización de debidas diligencias y la revisión de contratos. ¿Pero qué problemas puede crear o exacerbar el uso de herramientas de IA en el contexto de las labores jurídicas? (pág. 6-7) (la negrilla me pertenece).
El uso de los algoritmos en la práctica jurídica plantea riesgos importantes para la justicia, siendo uno de los más preocupantes la falta de control y supervisión sobre cómo se desarrollan y aplican las nuevas tecnologías. Sabemos que estos algoritmos pueden ser valiosas herramientas para la eficiencia y automatización de ciertas tareas, sin embargo, estos sistemas no están exentos de problemas, particularmente en lo que se refiere a los sesgos y la opacidad de su funcionamiento. (Mata Pastor, 2024).
Cuando hablamos de sesgos, nos referimos a la decisión tomada por una IA basada en la repetición de patrones discriminatorios humanos. La opacidad, por otro lado, está vinculada a la falta de transparencia sobre el funcionamiento de una IA, sea porque el diseñador no sabe explicarlo, o bien decide no hacerlo.
Frente a una sociedad que empieza a depender de este tipo de tecnologías, la expectativa de conducta de un abogado -frente a los sesgos y opacidad- se ve profundamente afectada. Sin siquiera enterarnos, podríamos estar faltando a nuestra ética profesional, deshumanizando la actividad jurídica con la automatización de los sistemas, replicando patrones discriminatorios y, en el peor de los casos, perdiendo nuestra capacidad analítica.
Podemos ilustrar este panorama con los puntos de vista de varios autores que hablan de la influencia de la IA en nuestro mundo jurídico: Farfán Intriago et. al. (2023) declara que estos sistemas ofrecen importantes ventajas, como una mayor eficiencia, precisión y capacidad de procesamiento de información. Sin embargo, trae aparejado desafíos y dilemas éticos, como la cuestión de la responsabilidad y la transparencia. A medida que las máquinas se vuelven más autónomas y toman decisiones independientes, en el área de la responsabilidad civil surge el interrogante de quién es responsable en caso de que se produzcan daños o perjuicios. ¿Debe responsabilizarse al propietario de la máquina? (pág. 176-177). A aquellas interrogantes, también le añadiría la cuestión de si ¿debemos responsabilizar al abogado por la utilización de una IA que incurrió en un error?
Benítez-Abarca et. al. (2025), manifiesta que la incorporación de la IA en el sistema penal también conlleva importantes complicaciones en el ámbito ético, jurisprudencial y operativo. Su uso podría afectar principios fundamentales como la legalidad, la presunción de inocencia y el derecho a la defensa. Dado que los algoritmos recepcionan datos históricos, es posible que recaigan en desigualdades relacionadas con el género, el estatus socioeconómico de los acusados, o incluso su etnia.
Flores Anarte (2023) advierte que el diseño y funcionamiento de los algoritmos tienden a reproducir sesgos que pueden derivar en decisiones discriminatorias para ciertos colectivos o grupos de personas. Tanto las características que hacen a la IA como el mismo proceso de automatización plantean un importante reto para el Estado de derecho a la hora de regular el uso de las nuevas tecnologías. De esta manera, señala que:
La diferencia entre que se le acabe dando un uso beneficioso para la mayoría de la ciudadanía o que las IA acaben siendo utilizadas para desvirtuar o pervertir los valores democráticos de los que nos hemos dotado como sociedad y afectando a los derechos de la ciudadanía, va a depender de la regulación jurídica que se haga de los mismos (pág. 97-98).
II. Desarrollo: la IA en el mundo jurídico. Ejemplos.
Tal y como hemos señalado con las diferentes citas, la IA se abrió paso en la labor jurídica como un sistema facilitador del trabajo. Sin embargo, el problema surge cuando esa “herramienta” se transforma en un método de trabajo sin doble verificación. Esto sucede cuando los profesionales operan con dichos sistemas sin ejercer un juicio crítico sobre la información que se les brinda.
Podemos ejemplificar el extremo negativo de esta situación con un hecho acaecido en los Estados Unidos, donde un abogado utilizó para la defensa de su cliente numerosas citas jurisprudenciales que, en realidad, eran falsas. El portal BBC, a través de una noticia del 27 de mayo del año 2023, comunicó que el caso involucra a un hombre que demandaba a una aerolínea por una lesión personal. Para fundamentar la pretensión, su equipo legal presentó un escrito que citaba diferentes casos judiciales previos. Pero los abogados de la aerolínea posteriormente reclamaron que no podían encontrar varios de los casos citados. Tras varias presentaciones, se reveló que el escrito habría sido elaborado por ChatGPT, y que el abogado encargado de su redacción nunca habría verificado las citas jurisprudenciales.
El error, nuevamente, no está en la utilización de la herramienta en sí misma, sino en la falta de criterio objetivo al momento de utilizar sistemas con una alta opacidad. En simples palabras, no podemos valernos de información que posteriormente no vamos a verificar; criterio que no aplica únicamente para la utilización de las IA, sino en toda la labor jurídica.
Como un acertado ejemplo de cómo utilizar la IA a nuestro favor, tenemos al caso ocurrido en nuestro país, precisamente en la Provincia de Corrientes: un Juzgado de Paz dictó una sentencia utilizando ChatGPT para incorporar un único párrafo con un formato de lectura fácil. La instrucción (o “prompt”) para la IA fue que “resuma con lenguaje sencillo y fácil, en un párrafo, el siguiente texto entre comillas”, para lo que el Juez copió y pegó sus considerandos completos y previamente redactados. La motivación del magistrado fue hacer más comprensibles los fundamentos de su sentencia a fin de que sean comprendidos por el interesado.
Con estos dos casos podemos visualizar la complejidad que trae aparejada la utilización de las IA. Bielli (2024) ha tratado los beneficios y riesgos de su uso, señalando que el uso de aplicaciones como ChatGPT y Gemini permite analizar expedientes judiciales, extraer información relevante y resumir documentos extensos en cuestión de minutos, lo cual permite ahorrar tiempo y esfuerzo. Empero, un aspecto crítico es la falta de conocimiento sobre cómo son entrenadas estas tecnologías y qué datos específicos se utilizan para su desarrollo. De igual manera, señala que la presencia de los sesgos en los modelos de lenguaje es un punto oscuro en la utilización de estas inteligencias.
II. a.- La IA como reflejo del abogado elitista
Al inicio de esta presentación he señalado que la figura del abogado elitista e inaccesible opera únicamente desde el tecnicismo. Este modelo de abogado se encuentra sesgado por sus intereses, sin facilitar explicación alguna de su proceder. Entonces, antes de la IA, teníamos nuestro propio algoritmo humano: el abogado que analiza y ejecuta sin juicio ético alguno, sin contextualizar, deshumanizando la profesión.
Con esta perspectiva volcada, las nuevas tecnologías no amenazan al modelo clásico, sino que lo replican con el doble de información y eficacia, lo que lo vuelve aún más peligroso. Si la ética profesional depende de una escucha activa, reflexión crítica, deliberación y conciencia del contexto socio-económico en el que trabajamos, ¿ello puede sobrevivir si el razonamiento se lo delegamos a una herramienta opaca?
Este paralelismo podría resultar incómodo, pero un tanto revelador: el elitismo jurídico y la automatización del ejercicio profesional sin comprobar los resultados, están vinculados por una misma arista: la falta de ética.
II. b.- Riesgos éticos concretos
¿Puede un abogado ejercer su profesión fundamentándose en los principios de probidad y buena fe, si es que delega tareas sustanciales a una IA, la cual no puede replicar del todo la opinión crítica del profesional e incluso puede incurrir en error? O bien, ¿estaría contribuyendo en su deber de afianzar la justicia?
El Código de Ética dictado por el CPACF establece deberes fundamentales respecto del orden jurídico-institucional, tales como afianzar la justicia y la defensa del Estado de Derecho (artículo 6 y 7); deberes inherentes al ejercicio de la abogacía como utilizar las reglas de derecho para la solución de conflictos, fundamentado en los principios de lealtad, probidad y buena fe (artículo 10 inc. a). Asimismo, el Código señala que será considerada una falta de ética efectuar citas doctrinarias o jurisprudenciales inexistentes, o exponerlas en forma tal que falseen la opinión o el fallo invocados (artículo 24).
Si un abogado utiliza herramientas de inteligencia artificial sin tener el suficiente recaudo sobre las respuestas opacas (y posiblemente, sesgadas por patrones que no representen el criterio del profesional), comprometiendo en ese acto derechos, obligaciones o incluso desvirtuando la funcionalidad del sistema judicial, estaría incurriendo en graves faltas éticas al quebrantar las disposiciones previstas en el Código de Ética.
Análogamente, la Ley N° 23.187 advierte que los abogados matriculados quedarán sujetos a las sanciones disciplinarias previstas por dicha Ley, cuando incumplieran las normas de ética profesional sancionadas por el Colegio (artículo 44 inc. g). ¿Podría, entonces, ser sancionado el profesional que con insensatez delegare su propio juicio a un sistema? ¿Sabiendo, incluso, que por la opacidad y los sesgos del sistema, el profesional no podría siquiera explicar en su totalidad la respuesta de la máquina?
Sobre este punto, comparto la opinión expuesta por Gutierrez Rodríguez (2020), respecto de que los esfuerzos para incorporar la IA en los procesos judiciales son bienvenidos, pero no bajo la premisa de que estas herramientas son infalibles, objetivas, o que pueden solucionarlo todo (pág. 19-20); y la opinión de Yaipén-Torres y Rojas-Luján (2024), quien señala que:
Toda subjetividad es el resultado de una reflexión moral, lo que denota la existencia de un espíritu. Incluso si la IA pudiera representar un equivalente, su función normativa en la resolución de conflictos se limitaría a ser una herramienta consultiva para la función jurídica del abogado, y no una entidad autónoma en sí misma, debido a su falta de espíritu y de reflexión moral (pág. 152).
La Ley N° 23.187 también advierte que la ineptitud manifiesta, negligencia frecuente u omisión grave en el cumplimiento de los deberes profesionales, puede acarrear una sanción disciplinaria (artículo 44, inc. e). Entonces, ser abogado y utilizar las herramientas que brinda la inteligencia artificial, sin verificar el contenido, y no asumiendo la responsabilidad que conlleva utilizar sistemas que el mismo profesional no puede explicar, ¿puede llevarnos a incurrir en una forma de negligencia? Si es así, ¿podría encuadrarse esta situación en el mencionado artículo?
III. Conclusión
La era de la tecnología demanda, no solo la doble verificación sobre las herramientas digitales que utilizamos en el ámbito profesional, sino también reflexión profunda y constante sobre la ética y moral que envuelve el mismo ámbito.
La irrupción de la inteligencia artificial en el mundo jurídico no es una amenaza en sí misma; lo preocupante es la falta de capacitación y conciencia en el uso de herramientas sobre las que no tenemos el control absoluto. La verdadera amenaza es la facilidad con la que una lógica ajena a la nuestra se asienta sobre un terreno en el que ya predominaba un ejercicio profesional automático, elitista y deshumanizado.
En consecuencia, no basta con advertir los riesgos técnicos y éticos que trae aparejado el uso inadecuado de las IA, sino que de igual manera es importante verificar y cuestionar constantemente el tipo de abogados que queremos ser y el rol que desempeñamos en la sociedad. Si la ética jurídica queda reducida a artículos vacíos y el rol del litigante se limita a operar sin considerar las normas éticas, entonces ya no se trata de ser reemplazados por una máquina, sino de comportarse como una.
Por lo tanto, como jóvenes litigantes tenemos el desafío y la responsabilidad de replantear el estereotipo del “abogado típico” y afianzar las normas éticas que envuelven a nuestra profesión. Sabemos que es posible ejercer el derecho de una forma que supere el prejuicio heredado, recuperando la confianza de la sociedad y asumiendo un compromiso real con la incorporación progresiva de las herramientas digitales. La abogacía no puede definirse únicamente por su excesiva tecnicidad a la hora de abordar un caso, también se define por su compromiso de afianzar la justicia y su humanidad en cada decisión o análisis.
Entonces, ¿podremos transformar nuestro legado de tecnicismo en una abogacía vibrante, ética y verdaderamente comprometida con la justicia?
Referencias
1. Armstrong, K. (2023, mayo 27). ChatGPT: US lawyer admits using AI for case research. BBC. https://www-bbc-com.translate.goog/news/world-us-canada-65735769?_x_tr_sl=en&_x_tr_tl=es&_x_tr_hl=es&_x_tr_pto=tc&_x_tr_hist=true
2. Benítez-Abarca, A. B., Chafla-Moina, S. P., Manosalvas-Vaca, M. A., & Saltos-Verdezoto, Y. M. (2025, marzo). Influencia de la Inteligencia Artificial en el Derecho Penal: Una revisión sistemática de la literatura. Polo del Conocimiento, 10(3), 3078-3095. https://polodelconocimiento.com/ojs/index.php/es/article/view/9274
3. Bielli, G. (2025, marzo 24). Doctrina – “Inteligencia artificial en el poder judicial”. Gastón Bielli. Retrieved mayo 07, 2025, from https://bielli.ar/2025/03/24/inteligencia-artifical-poder-judicial/
4. Colegio Público de Abogados de la Capital Federal. (n.d.). Código de Ética.
5. Farfán Intriago, J. L., Farfán Largacha, J. A., Farfán Largacha, B., & Núñez Vera, J. P. (2023). Inteligencia artificial y Derecho: ¿La justicia en manos de la IA? Frónesis, 30(2), 173-197. https://produccioncientificaluz.org/index.php/fronesis/article/view/40853/46785
6. Flores Anarte, L. (2023). Sesgos de género en la Inteligencia Artificial. El Estado de derecho frente a la discriminación algorítmica por razón de sexo. Revista internacional de pensamiento político, 1(18), 95-120. https://dialnet.unirioja.es/servlet/articulo?codigo=9273666
7. Gutierrez Rodríguez, J. D. (2020). Retos éticos de la inteligencia artificial en el proceso judicial. In Derecho Procesal. #NuevasTendencias: XLI Congreso Colombiano de Derecho Procesal (1a ed.). ResearchGate. https://www.researchgate.net/publication/343797970_Retos_eticos_de_la_inteligencia_artificial_en_el_proceso_judicial
8. Ley N° 23.187 [Requisitos para el ejercicio de la profesión de abogado en la Capital Federal, Jerarquía, deberes y derechos, Matrícula. Colegiación. Disposiciones transitorias.]. (1985).
9. Mata Pastor, M. (2024, octubre 30). El impacto ético que la IA en el ejercicio de la abogacía. CincoDías. https://cincodias.elpais.com/legal/2024-10-30/el-impacto-etico-que-la-ia-en-el-ejercicio-de-la-abogacia.html
10. Olmeda García, M. d. P. (2020). Ética profesional en el ejercicio del derecho (1a ed.). Ediciones Comunicación Científica. doi.org/10.52501/cc.006
11. Parra Sepúlveda, D., & Concha Machuca, R. (2021). Inteligencia artificial y derecho. Problemas, desafíos y oportunidades. Vniversitas, 70, 1-25. https://www.redalyc.org/journal/825/82569129005/html/#fn96
12. Utilizando inteligencia artificial dictaron sentencia en Lenguaje Claro y Lectura Fácil. (2023, junio 15). Poder Judicial de la Provincia de Corrientes. Dirección de Ceremonial, Prensa y Relaciones Institucionales. Retrieved abril 29, 2025, from https://www.juscorrientes.gov.ar/prensa/utilizando-inteligencia-artificial-dictaron-sentencia-en-lenguaje-claro-y-lectura-facil/
13. Yaipén-Torres, J. J., & Rojas-Luján, V. W. (2024, Julio-Diciembre). Revista arbitrada interdisciplinaria Koinonía., 9(18), 138-155. file:///C:/Users/Usuario/Downloads/Dialnet-EticaJuridicaEnLaInterpretacionDeNormasLegalesConI-9847808%20(1).pdf
[1] Ponencia destacada en el marco del Concurso de Ponencias – III Jornadas Académicas de la Abogacía de la Capital Federal, organizado por el CPACF.
[2] Abril Arce es Abogada de la Universidad Maimónides. Joven litigante que apuesta por cuestionar la automatización acrítica del Derecho y promueve una práctica profesional ética, comprometida y humana. Con su ponencia "Reflexiones acerca de la ética profesional del abogado frente al uso inadecuado de las I.A." pone de manifiesto las implicancias éticas que surgen con la integración de la Inteligencia Artificial en la práctica legal. Especializándose en Derecho Ambiental, desarrolla iniciativas académicas orientadas a transformar la abogacía desde una perspectiva transversal, social y consciente.
