IA en el Proceso Penal: Prueba, Legalidad y Garantías en la Formación del Juicio

IA en el Proceso Penal: Prueba, Legalidad y Garantías en la Formación del Juicio


Más contenido jurídico en elDial.com 

Por Gabriel Omar Gatti y Paula Pongiglione

Incorporar esta clase de tecnología a la búsqueda y conformación de elementos de prueba que sirvan para motivar una resolución en una causa penal promueve una mayor eficiencia y acceso a la información, pero, por otro lado, también surgen interrogantes tanto de índole éticos como jurídicos respecto a la legalidad y legitimidad de dichas herramientas, especialmente en lo referente a transparencia, control público y respeto por las garantías procesales."

"El uso de tecnologías que no sean transparentes, verificables o ampliamente aceptadas por la comunidad científica puede comprometer la legitimidad del proceso."

"Una posible distinción entre prueba y 'pre-prueba' podría resultar especialmente útil aquí. Sobre la base de ésta se podría sostener que, en las etapas puramente investigativas, el uso de herramientas basadas en IA podría ser más amplio, siempre que los resultados sean validados posteriormente por medios tradicionales."

"En nuestro país, la incorporación de inteligencia artificial en la etapa del proceso de formación del conjunto de elementos de juicio [...] podría analizarse como un examen pericial. El operador que utiliza este tipo de tecnología [...] estaría recurriendo a conocimientos especiales en alguna ciencia o técnica, conforme a lo establecido en los artículos 253 del Código Procesal Penal de la Nación y 167 del Código Procesal Penal Federal."

"En este punto, el legislador estableció que el examen que debe realizar el perito debe ser científico o técnico, y, además, al momento de aceptarlo para el debate oral y público se señala que debe ser conducente. Sobre la base de esto, resulta claro que, si no tiene un grado mínimo de cientificidad, no puede ser considerada relevante."

"Un caso paradigmático que permite abordar esta cuestión es el precedente estadounidense 'State of Washington vs. Joshua Puloka' [...] En éste se discutió la posibilidad de utilizar la inteligencia artificial para mejorar la calidad de videos en juicios penales."

"El tribunal [...] rechazó la incorporación del video modificado por inteligencia artificial, afirmando que el método utilizado era novedoso y no había sido aceptado 'por la comunidad científica relevante' ni existía evidencia de uso aceptado en el campo forense."

"El principio de explicabilidad exige la necesidad de que todas las decisiones tomadas por sistemas de inteligencia artificial sean comprensibles y transparentes para los usuarios."

"Tal como lo señaló Alvarez Larrondo, la explicabilidad resulta 'crucial para conseguir que los usuarios confíen en los sistemas de I.A. y para mantener dicha confianza'."

"La Carta Ética Europea sobre el Uso de la Inteligencia Artificial en los sistemas judiciales y su entorno [...] estableció cinco principios sustanciales: i) respeto por los Derechos Fundamentales; ii) no discriminación; iii) calidad y seguridad; iv) transparencia, imparcialidad y justicia; y v) 'bajo control del usuario'."

"El 21 de mayo de 2019 la OCDE adoptó un conjunto de recomendaciones sobre inteligencia artificial confiable [...] se señaló: el crecimiento inclusivo, el desarrollo sostenible y el bienestar, que esté centrada en el ser humano y en la equidad, la transparencia y explicabilidad, robustez, seguridad y protección, y responsabilidad."

"Las Recomendaciones de la UNESCO de 2021 [...] destacan la importancia de la transparencia y la explicabilidad de los sistemas de inteligencia artificial, consideradas esenciales para el funcionamiento eficaz de los regímenes de responsabilidad."

"El hecho de que nuestro país haya adherido a los principios de la OCDE demuestra que el país cuenta con un punto de partida valioso. Sin embargo, sería fundamental que esto se traduzca en normas específicas aplicables a cómo pueden utilizarse las tecnologías basadas en inteligencia artificial en el proceso penal."

"La posibilidad de comprender, controlar y justificar una resolución judicial que ha sido asistida —pero no determinada— por inteligencia artificial es lo que garantiza que el juicio continúe siendo humano, como parte insustituible de la función jurisdiccional.

El uso de la inteligencia artificial para la conformación del conjunto de elementos de juicio sobre cuya base se adoptará la decisión judicial

1. Introducción.

 

El indudable avance de la “inteligencia artificial” en el Derecho nos interpela respecto de las posibles consecuencias que podría tener en la administración de justicia. A partir de la magnitud que esto podría llegar a presentar, es posible que nos encontremos ante uno de los cambios más radicales en la historia de la humanidad, cuyo impacto en el derecho aparece de formas múltiples. Si bien no es la primera vez que nos enfrentamos a un adelanto tecnológico que tiene la potencialidad de modificar todas nuestras vidas, la revolución industrial 4.0 se caracteriza por la velocidad con la que coloniza cada una de las actividades.

La aplicación de la inteligencia artificial en el proceso judicial —específicamente en el primer momento de la actividad probatoria, nos referimos a la conformación del conjunto de elementos de juicio[3]— como todo gran cambio, despierta tanto expectativas como resistencias.

Incorporar esta clase de tecnología a la búsqueda y conformación de elementos de prueba que sirvan para motivar una resolución en una causa penal promueve una mayor eficiencia y acceso a la información, pero, por otro lado, también surgen interrogantes tanto de índole éticos como jurídicos respecto a la legalidad y legitimidad de dichas herramientas, especialmente en lo referente a transparencia, control público y respeto por las garantías procesales.

Por esta razón es que nos hemos propuesto considerar críticamente dos líneas de análisis. Por un lado, nos referiremos a la posibilidad de utilizar la inteligencia artificial en la etapa de conformación del conjunto de elementos de juicio sobre cuya base se adoptará la decisión judicial. Esta etapa del proceso, si bien es anterior a lo que conocemos como valoración probatoria en sentido estricto, es de suma importancia dado que nunca es neutral, puesto que debe apuntar a probar o rechazar una u otra hipótesis.

La segunda línea que analizaremos resulta una consecuencia directa del análisis anterior. Se trata del principio de explicabilidad como base fundamental ética, tanto en lo que es el diseño como así también en la utilización de tecnologías que podrían llegar a afectar derechos fundamentales de las personas que están sometidas a un proceso penal.

Así, la idea es intentar construir un marco analítico para determinar las reglas para que la incorporación de la inteligencia artificial al proceso judicial sea respetuosa de las garantías constitucionales de modo que combine utilidad, fiabilidad y control institucional.

 

2. Posición frente al impacto cultural de la Inteligencia artificial.

 

Antes de tratar el tema propiamente dicho, entendemos oportuno hacer una muy breve reflexión respecto del impacto cultural que tiene la inteligencia artificial en la vida actual, a fin de tomar posición respecto de una discusión mucho más amplia con el objeto de contextualizar el resto del análisis que se realizará a continuación

Dentro de los cuestionamientos más fuertes que se oyen, Eric Sadin señala la aparición del “nihilismo tecnológico” o el “antihumanismo radical” que destruye los principios fundadores del humanismo europeo basado en la autonomía de juicio del ser humano. Pero también existen loas como las de Anthony Levandowski, creador en el año 2017 de la Iglesia “Way of the Future”, que pretende consagrar un culto a la “inteligencia artificial” y la aceptación y adoración de una divinidad basada en esa tecnología. Indudablemente, caeríamos en un grave error si desacreditáramos una posición por el solo hecho de criticar a las máquinas o porque asumiéramos que todo adelanto tecnológico será mejor. Si adoptáramos una crítica superficial, correríamos el riesgo de caer en una falacia ya señalada por Jeremy Bentham en su Tratado de los sofismas políticos, quien criticaba por igual tanto a aquellos que entendían que todo pasado era mejor como a aquellos que alababan cualquier novedad por el solo hecho de presentar algo distinto.

Si bien entre las posiciones de Sadin y Levandowski podría haber una innumerable cantidad de matices, cualquiera de estas posturas se encontraría vacía de contenido si no hay un “para qué” o un “por qué” que la justificara.

Es probable que no haya una respuesta única a estos interrogantes. También es posible que, a medida que avancemos tanto en la implementación tecnológica como en su discusión, aparezcan nuevos cuestionamientos; sin embargo, en términos generales podemos asumir que la respuesta debería apuntar hacia mejorar de algún modo la condición humana.

De todos modos, asumir este postulado no soluciona todos los problemas que pudiera haber; por el contrario, resulta el punto de inicio de la discusión, ya que la llamada “robotización de la justicia” ofrece sus propias virtudes. Por solo nombrar algunas, podríamos señalar: una posible reducción de costos, una mayor celeridad en la solución de conflictos que a veces tardan años en resolverse o una mayor eficacia en las resoluciones jurisdiccionales. Es por eso por lo que entendemos que resulta indiscutible que el desarrollo acelerado que presenta la inteligencia artificial es uno de los desafíos más profundos y estructurales para la teoría y práctica del derecho en la actualidad, que debe ser abordado respecto de cada tema puntual, de modo tal que se vaya construyendo un nuevo proceso penal que sin perder las virtudes que tenía antes de la aparición de esta tecnología, gane en eficacia y eficiencia en la resolución de conflictos.

 

3. Algunas de las posibilidades que brinda la inteligencia artificial.

 

En el ámbito judicial la inteligencia artificial podría, sin dudas, mejorar y, sobre todo, agilizar procesos de búsqueda, recuperación, sistematización y reconstrucción de prueba para cada caso. Pero la posibilidad de utilizar herramientas de inteligencia artificial aquí no implica aún valorar ni decidir, sino que serviría únicamente para asistir a los operadores judiciales en la etapa de conformación del conjunto de elementos de juicio que podrán —y deberán— ser considerados por el juez al momento de decidir[4]. Esta distinción en el derecho procesal permite enfocar el análisis en el momento inicial de la actividad probatoria, evitando debates que exceden el marco de este trabajo sobre la posible automatización de la decisión jurisdiccional.

Entre los ejemplos más ilustrativos de la capacidad que tiene la inteligencia artificial para contribuir en la etapa de conformación del conjunto de elementos de juicio, se encuentra la posibilidad de aplicar modelos de aprendizaje automático para el análisis de documentos dañados o ilegibles, y de este modo acceder a un contenido que antes podía haberse encontrado inaccesible por el estado en el que se encontraba el documento[5]. Este procedimiento, fuera del ámbito forense, se implementó en la reconstrucción de los antiguos pergaminos carbonizados – reducidos a meros trozos quebradizos– que fueron encontrados en Herculano en el año 1752 y que habían sido dañados por la erupción del Vesubio en el año 79.

Si bien desde el año 2000 ya se utilizaba la tomografía computarizada para obtener la información contenida en otros pergaminos antiguos escritos con una tinta a base de metal, los pergaminos de Herculano específicamente habían sido escritos con tinta a base de carbono, por lo que no era detectable para esa tecnología.

Entonces, gracias al uso de un escáner producido por un acelerador de partículas y a un modelo de aprendizaje de inteligencia artificial entrenado para detectar alteraciones mínimas en las fibras de los papiros, fue posible acceder a textos que habían sido considerados irrecuperables durante más de dos siglos. Este logro, aunque ajeno a nuestro ámbito, demuestra la gran capacidad de acceso a la información que posibilita el uso de las herramientas de inteligencia artificial.

En el ámbito judicial, las aplicaciones de inteligencia artificial podrían incluir desde la mejora de grabaciones de audio o video que originalmente tengan mala calidad, hasta la rápida reconstrucción de documentos que hayan sido intentados destruir con una máquina trituradora de papel, establecer hipótesis que ayuden a los investigadores judiciales en la recolección y obtención de pruebas, o incluso la traducción precisa e inmediata de documentos de texto a otros idiomas.[6]

Ahora bien, todos estos usos tienen un punto en común, y es su carácter instrumental: la inteligencia artificial aquí no reemplaza el juicio humano, pero sí amplía la base empírica sobre la cual ese juicio puede realizarse. Se trata entonces de herramientas útiles para la conformación del “conjunto de elementos de juicio que podrá y deberá ser tomada en consideración”[7] por el juez en la valoración probatoria y en la toma de decisiones.

No obstante, esta potencialidad técnica no elimina los riesgos jurídicos. El uso de tecnologías que no sean transparentes, verificables o ampliamente aceptadas por la comunidad científica puede comprometer la legitimidad del proceso. Una posible distinción entre prueba y “pre-prueba”, podría resultar especialmente útil aquí. Sobre la base de ésta se podría sostener que, en las etapas puramente investigativas, el uso de herramientas basadas en IA podría ser más amplio, siempre que los resultados sean validados posteriormente por medios tradicionales. Pero cuando se pretende incorporar sus productos como elementos de juicio formales, se requiere un estándar mayor de fiabilidad.

 

4. Los estándares de admisibilidad de prueba científica y el caso “State of Washington vs. Joshua Puloka”.

 

Si bien es indiscutible la ganancia que podría generar a nivel probatorio la incorporación de herramientas tecnológicas en los procesos judiciales, a fin de resguardar las garantías constitucionales de quienes se encuentren sometidos a un proceso penal y la producción de prueba fiable para todos los actores del proceso, es necesario realizar un examen riguroso respecto de la posibilidad de utilizar esas herramientas en términos de admisibilidad de la prueba.

En nuestro país, la incorporación de inteligencia artificial en la etapa del proceso de formación del conjunto de elementos de juicio, sobre cuya base se adoptará una decisión, podría analizarse como un examen pericial. El operador que utiliza este tipo de tecnología —que bien podría ser un perito— estaría recurriendo a conocimientos especiales en alguna ciencia o técnica, conforme a lo establecido en los artículos 253 del Código Procesal Penal de la Nación y 167 del Código Procesal Penal Federal[8].

Por lo tanto, la discusión se enmarca en una cuestión más amplia que engloba el debate sobre qué es una ciencia o técnica, y qué sucede cuando éstas son novedosas. En los Estados Unidos este tema se viene debatiendo ampliamente desde los precedentes “Frye v. United States” y “Daubert vs. Merrel Dow Pharmaceuticals, Inc.”.

En este punto resulta necesario hacer un breve repaso de la introducción de la prueba científica en procesos judiciales en los Estados Unidos de América. Los indudables avances que tuvo la ciencia en los últimos treinta años han implicado un verdadero “boom” de este tipo de pruebas que motivó un fuerte debate doctrinario y jurisprudencial[9].  Tradicionalmente, la prueba científica estaba limitada a las disciplinas más duras y consolidadas, por ejemplo, la medicina, la ingeniería, la química, la física o la matemática. Pero, poco a poco, el derecho procesal se fue abriendo paso hacia ciencias “más blandas” o “sociales” como la sociología, la economía, la psiquiatría y la psicología[10]; luego, hacia las tecnologías exponenciales.  A punto tal que hoy en día las disciplinas que pueden verse involucradas en este tipo de pruebas son de lo más diversas, apareciendo hace unos años la “prueba informática” y más recientemente la posibilidad de usar “inteligencia artificial” para el análisis forense.

En el análisis de este tipo de pruebas se debe rescatar el concepto de “fiabilidad”. Con este término se hace referencia a la confianza que se tiene respecto de que funcione perfectamente, y, a menudo se lo relaciona con qué tan científica es la prueba. A punto tal, que Vázquez Rojas ha dicho acertadamente que en “los últimos años, la calidad de una prueba pericial ha sido identificada con su cientificidad…”, de modo tal, que “…una prueba sería fiable si es científica.”[11].

Como ya se dijo, la cuestión puntualmente fue discutida en los Estados Unidos en el caso “Frye v. United States” de la Corte Suprema, dictado en 1923, en el cual se estableció que para que una prueba sea considerada científica, la práctica debía haber ganado la aceptación general (general acceptance) en el campo particular al que pertenece. Este criterio fue posteriormente, modificado a nivel Federal en el caso “Daubert”, sobre la base de las Reglas Federales de Evidencia. En este último, se señaló que el juez debía actuar como  guardián (gatekeeper), admitiendo sólo aquella prueba científica que tuviera una conexión científica válida (validity) con la investigación pertinente como condición previa para la admisibilidad, y (2) que esta conexión debía ser relevante (relevance) para resolver el caso. Con esto se abandonó a nivel federal el criterio de “aceptación general” establecido en Frye. Sin embargo, este último criterio siguió siendo utilizado por varios Estados[12].

Si bien se podría argumentar que los precedentes citados se enmarcan en un modelo que busca evitar la entrada de "junk science" al proceso, lo que podría confrontar con la libre valoración de la prueba, entendemos que esta crítica sería totalmente infundada. Esto se debe a que, más allá de la libertad que tenga el juzgador en la segunda etapa de la actividad probatoria —la valoración—, no significa que la etapa que estamos analizando no sea una actividad reglada. Sobre este punto, el legislador estableció que el examen que debe realizar el perito debe ser científico o técnico, y, además, al momento de aceptarlo para el debate oral y público se señala que debe ser conducente. Sobre la base de esto, resulta claro que, si no tiene un grado mínimo de cientificidad, no puede ser considerada relevante, ya que no permite emitir ningún tipo de conclusión sobre la verdad de un enunciado fáctico a probar[13]. Este análisis se refuerza aún más en el Código Procesal Penal Federal que adopta un modelo adversarial, en el cual se establece una instancia previa al juicio en el cual un juez distinto al que va a intervenir en el debate oral y público resuelva sobre la admisibilidad de la prueba. En esta audiencia, de control de la acusación, al igual que el modelo norteamericano, el juez opera como “guardián” de lo que posteriormente se valorará (art. 279 y 280 del Código Procesal Penal Federal).

Habiendo establecido un breve pantallazo acerca de los criterios generales de admisibilidad de la prueba científica, a continuación, vamos a pasar a analizar un caso en concreto en el cual se evaluó la posibilidad de usar un software de inteligencia artificial.

Un caso paradigmático que permite abordar esta cuestión es el precedente estadounidense “State of Washington vs. Joshua Puloka, aka Joshua Everybodytalksabout” del Tribunal Superior de Washington para el condado de King[14]. En éste se discutió la posibilidad de utilizar la inteligencia artificial para mejorar la calidad de videos en juicios penales.

En dicho caso se debatió la posibilidad de incorporar como prueba un video que originalmente había sido grabado con baja calidad (y que contenía importante “motion blur”, o sea, un desenfoque producido por el rastro dejado por las cosas en movimiento) y que posteriormente fue “mejorado” mediante el uso de un software de inteligencia artificial creado para tal fin. La defensa propuso incorporar al juicio la versión del video tratada con un software de inteligencia artificial denominado “Topaz Labs IA”, y procesado posteriormente con “Adobe Premiere Pro” (utilizado para la edición de videos profesionales).

Además, la defensa ofreció como testigo a un camarógrafo con amplia experiencia en producción audiovisual, pero sin conocimiento forense, quien señaló que el programa se comercializaba hacía tres años y utilizaba inteligencia artificial para aumentar proporcionalmente el video e incrementar resolución. Sostuvo además que la herramienta añadía nitidez, definición, bordes más suaves a los objetos del video. Sin embargo, el testigo no pudo afirmar que el programa estuviera siendo utilizado por la comunidad forense y no tenía conocimiento de ninguna prueba, publicación o discusión técnica al respecto. Afirmó que el programa usaba un modelo de aprendizaje específico basado en una vasta librería de videos, pero no sabía con qué videos se había entrenado a la inteligencia artificial, ni sabía si empleaban inteligencia artificial generativa en sus algoritmos, y estuvo de acuerdo en que estos últimos no eran transparentes.

Por otro lado, la parte acusadora objetó la utilización del video modificado con inteligencia artificial en base al carácter no verificable del algoritmo, a la ausencia de transparencia respecto a su funcionamiento, y a la falta de aceptación del programa por parte de la comunidad forense.

El perito ofrecido por la fiscalía (un forense certificado en análisis de videos que intervino en más de 300 procesos judiciales) señaló que el video procesado aumentaba la cantidad de píxeles de la imagen original, generando información que no estaba contenida en la fuente primaria, mediante un método desconocido. Esto implicaba la creación de detalles falsos en la imagen, que distorsionaban el significado de la escena y podían inducir a error.

El tribunal, al resolver la cuestión, se refirió al ya señalado estándar establecido en el caso "Frye v. United States" (1923).

En este punto, detengámonos un poco más en lo que había pasado en ese caso.

En el proceso que se seguía a James Frye por homicidio la defensa intentó introducir como prueba el testimonio de un experto que explicaría los resultados de una prueba de presión sanguínea, supuestamente capaz de detectar mentiras.

En ese caso, la Corte Suprema de los Estados Unidos estableció un criterio restrictivo para la admisión de pruebas periciales: i) solo serían admisibles cuando el tema fuera tan complejo que una persona sin conocimientos especializados no pueda evaluarlo adecuadamente; y ii) el método utilizado debía haber alcanzado una aceptación general dentro de la comunidad científica correspondiente. [15]

Con base a esta doctrina, en el caso “State of Washington vs. Joshua Puloka” el magistrado rechazó la incorporación del video modificado por inteligencia artificial, afirmando que el método utilizado era novedoso y no había sido aceptado “por la comunidad científica relevante” ni existía evidencia de uso aceptado en el campo forense. Finalmente, el magistrado agregó que el Tribunal no determinaba si la teoría científica era correcta, sino si había alcanzado la aceptación por la comunidad.

En este punto, más allá de que en el caso analizado se utilizó el estándar Frye, la cuestión tampoco parecería superar el estándar Daubert, que exige que la prueba científica tenga una conexión científica válida (validity) con la investigación pertinente como condición previa para su admisibilidad. Esto implica, entre otros requisitos, que la ciencia o técnica que se quiera aplicar pueda (y haya sido) verificada. Siguiendo a Popper, se señala que debe poder pasar por una prueba empírica, de modo que, si esto no ocurre, pueda ser falseada.

En este caso particular, el motivo por el cual el uso de este software no había sido aceptado por la comunidad científica relevante era su falta de explicabilidad, ya que generaba información que no estaba contenida en la fuente primaria mediante un método desconocido. Esto implicaba la creación de detalles falsos en la imagen, distorsionando el significado de la escena y pudiendo inducir a error, de modo que no se podía explicar su proceso de “razonamiento” ni la fiabilidad de sus resultados.

 

5. El principio de explicabilidad como garantía ética y jurídica

 

El análisis del caso Puloka no sólo plantea interrogantes sobre la admisibilidad legal de ciertos productos tecnológicos, sino que también nos obliga a abordar una cuestión de fondo: ¿qué principios éticos deben guiar el diseño y uso de la inteligencia artificial cuando puede afectar derechos fundamentales? En este sentido, el principio de explicabilidad adquiere un lugar central.

Pero antes de llegar a ese principio en concreto vale la pena tener una mirada más general. Un ejemplo que nos muestra la necesidad de una regulación ética de la inteligencia artificial es la posibilidad de utilizar esta tecnología para generar “fake news”.  Dentro de los casos más notorios está la creación de una galería de fotos falsas de Donald Trump detenido[16]; las fotos del Papa Francisco con un extravagante camperón blanco[17]; o la posibilidad de generar imágenes pornográficas falsas [18].

Estos ejemplos ilustran claramente cómo el uso de tecnologías basadas en inteligencia artificial puede tener la capacidad de producir graves daños, así como un impacto directo en la democracia y en la autonomía de los ciudadanos. Es por esto por lo que resulta necesaria una regulación ética de estas tecnologías que minimicen y prevengan consecuencias negativas, lo cual tiene un impacto directo en la posibilidad de su posterior uso forense.

La relación que existe entre la ética y la inteligencia artificial puede abordarse desde distintos enfoques. Debemos considerar a la ética de la inteligencia artificial como un concepto autónomo que contemple no solo a los usuarios, sino también a los diseñadores y desarrolladores.

Podemos distinguir entonces tres niveles de análisis ético: la ética por el diseño (hace mención a la visión ideológica que debe tener la inteligencia artificial), la ética para el diseño (establece pautas éticas exigibles a las empresas que desarrollan inteligencia artificial) y la ética en el diseño (que regula los principios que deben regir en el desarrollo concreto de los softwares de inteligencia artificial). [19]

Dentro de la ética en el diseño podemos destacar el principio de explicabilidad, que exige la necesidad de que todas las decisiones tomadas por sistemas de inteligencia artificial sean comprensibles y transparentes para los usuarios.

Tal como lo señaló Alvarez Larrondo, la explicabilidad resulta “crucial para conseguir que los usuarios confíen en los sistemas de I.A. y para mantener dicha confianza”. Y agregó: “Esto significa que los procesos han de ser transparentes, que es preciso comunicar abiertamente las capacidades y la finalidad de los sistemas de I.A. y que las decisiones deben poder explicarse -en la medida de lo posible- a las partes que se vean afectadas por ellas de manera directa o indirecta”[20].

 

6. El principio de explicabilidad en los instrumentos internacionales.

 

La exigencia ética de explicabilidad ha sido recogida y sistematizada en una serie de documentos normativos y recomendaciones internacionales que hacen énfasis en la necesidad de establecer criterios claros para el diseño de tecnologías basadas en inteligencia artificial. Entre esas normas se destacan las siguientes:

a)                  Las recomendaciones del Parlamento Europeo destinadas a la Comisión sobre normas de Derecho civil sobre robótica de 2017.[21]

La Resolución del Parlamento Europeo de 16 de febrero de 2017, con recomendaciones destinadas a la Comisión sobre normas de Derecho civil sobre robótica, constituyó uno de los primeros intentos institucionales de afrontar la problemática de la transparencia algorítmica (una de las notas características del principio de explicabilidad).

En este documento se reconoció que la inteligencia artificial forma parte de una revolución industrial, con impactos profundos posiblemente en todos los estratos de la sociedad, y se hizo referencia a las pautas éticas que se debería tener “en el” diseño, aludiendo entre otras cuestiones a la transparencia y la inteligibilidad de los procesos decisorios.

También resaltó la importancia de establecer principios específicos que aporten claridad. En ese sentido, en el Principio 12 de dicha resolución[22] se estableció que:

…el principio de transparencia, […] consiste en que siempre ha de ser posible justificar cualquier decisión que se haya adoptado con ayuda de la inteligencia artificial y que pueda tener un impacto significativo sobre la vida de una o varias personas; considera que siempre debe ser posible reducir los cálculos del sistema de inteligencia artificial a una forma comprensible para los humanos; estima que los robots avanzados deberían estar equipados con una «caja negra» que registre los datos de todas las operaciones efectuadas por la máquina, incluidos, en su caso, los pasos lógicos que han conducido a la formulación de sus decisiones;

También se estableció un código de conducta para los ingenieros en robótica, un código deontológico destinado a los comités de ética de la investigación para la revisión de los protocolos de robótica, y licencias tipo para los diseñadores y los usuarios, en la cual se propuso que “Los diseñadores deberán asegurarse de que es conveniente una transparencia máxima en la programación de los sistemas robóticos, así como la previsibilidad del comportamiento de los robots.”.

b)         La Carta Ética Europea sobre el Uso de la Inteligencia Artificial en los sistemas judiciales y su entorno de 2018.[23]

Esta Carta fue el producto de las reuniones realizadas el 3 y 4 de diciembre de 2018 en la Comisión Europea para la Eficacia de la Justicia del Consejo de Europa. La importancia de este instrumento es muy alta porque es el primer documento europeo que establece cinco principios sustanciales destinados a las partes responsables del diseño y despliegue de herramientas y servicios de inteligencia artificial que implican el procesamiento de decisiones judiciales y datos

Los cinco principios que se establecieron son: i) respeto por los Derechos Fundamentales; ii) no discriminación; iii) calidad y seguridad; iv) transparencia, imparcialidad y justicia; y v) “bajo control del usuario”.

Puntualmente, con respecto a la “transparencia”, se señaló que se trataba del acceso al proceso de diseño de las herramientas que podían llegar a tener algún tipo de consecuencia legal o que podían llegar a afectar significativamente la vida de las personas.

En la Carta también se resaltó que: “estas medidas se aplican a todo el diseño y la cadena operativa como el proceso de selección y la calidad y organización de los datos influyen directamente en la fase de aprendizaje.”. Esto podría darse de dos formas distintas: i) mediante la adopción de la transparencia técnica completa; o ii) por la utilización de un lenguaje claro y familiar para describir cómo se producen los resultados.

c)            Las Directrices de la OCDE de 2019[24] .

El 21 de mayo de 2019 la Organización de Cooperación y Desarrollo (OCDE) adoptó un conjunto de recomendaciones sobre inteligencia artificial confiable, que la República Argentina se comprometió a cumplir. Entre éstas se señaló: el crecimiento inclusivo, el desarrollo sostenible y el bienestar, que esté centrada en el ser humano y en la equidad, la transparencia y explicabilidad, robustez, seguridad y protección, y responsabilidad.

Respecto a la explicabilidad se señaló que todas las personas involucradas debían comprometerse con la transparencia y la divulgación responsable de los sistemas de inteligencia artificial. Para ello se debía proporcionar información significativa, para: i) fomentar una comprensión general de este tipo de sistemas, incluidas sus capacidades y limitaciones; ii)  concientizar a las partes interesadas cuando estaban interaccionando con un sistema de inteligencia artificial; iii) proporcionar información clara y fácil de entender sobre las fuentes de datos/entradas, factores, procesos y/o la lógica que llevó a determinada predicción, contenido, recomendación o decisión, para permitir que los afectados puedan comprender el resultado; y iv) proporcionar información que permita a aquellos afectados negativamente por un sistema de inteligencia artificial cuestionar su resultado.

Estos principios son de suma importancia porque si se quiere implementar la inteligencia en el sector público se tiene que poder garantizar que no se utilizaron sesgos, que se respetaron el marco normativo existente -en especial los derechos constitucionales de las personas involucradas-, los valores democráticos y la fiabilidad de la información que se obtuvo a partir de ésta. 

Por último, es necesario resaltar que en el año 2022 la OCDE reconoció un fuerte compromiso de nuestro país en la creación de marcos jurídicos éticos para la implementación de inteligencia artificial.[25]

d)            Recomendaciones de la UNESCO de 2021 [26].

Las Recomendaciones de la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) de 2021 fueron el producto de un estudio preliminar sobre los aspectos técnicos y jurídicos relativos a la conveniencia de disponer de un instrumento normativo sobre la ética en la inteligencia artificial. En estas recomendaciones se destaca la importancia de la transparencia y la explicabilidad de los sistemas de inteligencia artificial, consideradas esenciales para el funcionamiento eficaz de los regímenes de responsabilidad a nivel nacional e internacional.

En el punto 40 de la mentada resolución, se propuso una definición clara de explicabilidad:

“La explicabilidad supone hacer inteligibles los resultados de los sistemas de IA y facilitar información sobre ellos. La explicabilidad de los sistemas de IA también se refiere a la inteligibilidad de la entrada, salida y funcionamiento de cada componente algorítmico y la forma en que contribuye a los resultados de los sistemas. Así pues, la explicabilidad está estrechamente relacionada con la transparencia, ya que los resultados y los subprocesos que conducen a ellos deberían aspirar a ser comprensibles y trazables, apropiados al contexto. Los actores de la IA deberían comprometerse a velar por que los algoritmos desarrollados sean explicables. En el caso de las aplicaciones de IA cuyo impacto en el usuario final no es temporal, fácilmente reversible o de bajo riesgo, debería garantizarse que se proporcione una explicación satisfactoria con toda decisión que haya dado lugar a la acción tomada, a fin de que el resultado se considere transparente”

e)            Disposición 2/2023: “Recomendaciones para una IA fiable”  (Argentina)[27]. 

El 2 de junio de 2023, la Subsecretaría de Tecnologías de la Información de la Jefatura de Gabinete de Ministros del Poder Ejecutivo de la Nación, dictó la resolución 2/2023 mediante la cual se recogieron una serie de recomendaciones para el uso de la inteligencia artificial.

Estas recomendaciones fueron el producto directo de los estándares éticos trazados por la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) en la Recomendación sobre la Ética de la Inteligencia Artificial, a la cual adhirió la República Argentina.

El objetivo de este manual fue el brindar un marco para la adopción tecnológica de la inteligencia artificial centrada en el ciudadano y sus derechos, concibiendo su aspecto social y estratégico, asegurando un óptimo funcionamiento de la prestación de servicios y un enfoque ético.

Sobre la base de este marco teórico, se señaló que:

“En línea con los principios de la UNESCO, los modelos deben ser transparentes y explicables. Es decir, la ejecución que llevó a su resultado debe poder ser comprendida por personas que operan dichos sistemas, para que éstas, a su vez, puedan tomar decisiones con esos resultados, y además, para poder explicarle a las personas afectadas por la decisión tomada o a terceros cómo se llegó a dicho resultado de forma clara.”

f)             Reglamento del Parlamento Europeo de 2024[28] .

El 14 de mayo del año pasado, el Parlamento Europeo y el Consejo de la Unión Europea dictó un documento mediante el cual se establecieron normas armonizadas en materia de inteligencia artificial, donde resaltaron la necesidad de imponer obligaciones de transparencia a determinados sistemas de inteligencia artificial.

Asimismo, se aclaró que por transparencia: “se entiende que los sistemas de IA se desarrollan y utilizan de un modo que permita una trazabilidad y explicabilidad adecuadas, y que, al mismo tiempo, haga que las personas sean conscientes de que se comunican o interactúan con un sistema de IA e informe debidamente a los responsables del despliegue acerca de las capacidades y limitaciones de dicho sistema de IA y a las personas afectadas acerca de sus derechos”.

La importancia de este documento es que se vinculó a la transparencia con el ejercicio de derechos fundamentales, como el derecho a la tutela judicial efectiva y a un juez imparcial, así como el derecho a la defensa y a la presunción de inocencia.

El análisis de todos estos documentos demuestra que, a nivel internacional, existe un consenso creciente respecto a que la trazabilidad y explicabilidad son condiciones necesarias para cualquier aplicación legítima de IA en el ámbito judicial.

 

7. Conclusión

 

La incorporación de la inteligencia artificial en el ámbito judicial está más cercana a ser un hecho que una posibilidad a futuro, ya que se impone como una realidad progresiva que obliga a los operadores jurídicos no solo a manejar la nueva tecnología sino también a mantenerse alerta sobre los riesgos que éstas conllevan.

La utilización de tecnologías basadas en inteligencia artificial en la etapa de conformación del conjunto de elementos de juicio —por más incipiente que sea— modificará el modo en que se produce la prueba. Y esta modificación exige la incorporación de nuevas formas de control, transparencia y legitimidad.

Como hemos visto, la posibilidad de incorporar al proceso penal prueba generada mediante inteligencia artificial, así como la determinación de su valor probatorio dependerá en gran medida de su fiabilidad técnica, de su validación epistemológica y de su sometimiento a los estándares jurídicos.

El precedente del caso State of Washington vs. Joshua Puloka pone de manifiesto que, los límites a la admisión de prueba algorítmica deberán mantenerse firmes cuando no se respetan los criterios de aceptabilidad científica, transparencia o los derechos constitucionales.

En este marco, entendemos que, en el contexto actual el principio de explicabilidad adquiere un rol fundamental como punto de encuentro entre la ética tecnológica y el derecho procesal penal. Así, la posibilidad de comprender, controlar y justificar una resolución judicial que ha sido asistida —pero no determinada— por inteligencia artificial es lo que garantiza que el juicio continúe siendo humano, como parte insustituible de la función jurisdiccional.

Por el otro lado nos encontramos con la opacidad algorítmica, o sea, la imposibilidad de comprender, controlar y justificar un proceso o tecnología basado en inteligencia artificial, lo que representa una amenaza directa al debido proceso legal y una violación a la garantía constitucional de defensa en juicio.

El hecho de que nuestro país haya adherido a los principios de la OCDE demuestra que el país cuenta con un punto de partida valioso. Sin embargo, sería fundamental que esto se traduzca en normas específicas aplicables a cómo pueden utilizarse las tecnologías basadas en inteligencia artificial en el proceso penal.

De todos modos, nos quedan varios puntos para reflexionar:

a)            Si bien, en el precedente extranjero que se analizó, se rechazó la posibilidad de usar un software con inteligencia artificial, la decisión se refirió a una herramienta específica debido a sus características particulares. Por lo tanto, parecería ser que en el futuro será necesario analizar cada aplicación que se pretenda implementar.

b)            La decisión podría ser diferente si, en el futuro, dicha herramienta u otra similar obtuviera mayor aceptación en la comunidad académica pertinente.

c)            Con el fin de lograr una mayor transparencia en el funcionamiento de este tipo de tecnologías, ¿no sería conveniente promover el conocimiento público sobre la base de datos (en este caso, la biblioteca de imágenes) que utilizan? [29].

d)            Por último, ¿no sería posible permitir una mayor flexibilidad en etapas puramente investigativas, donde su uso podría revelar líneas de investigación no detectadas previamente, conduciéndonos a nuevas pruebas? Por ejemplo, para identificar a una persona, a quien posteriormente se le toma declaración testimonial, incorporando únicamente esta última al análisis[30].

En síntesis, el desafío actual no parecería ser meramente tecnológico, sino más bien jurídico y ético: la pregunta sería ¿cómo lograr la utilización de herramientas de inteligencia artificial sin poner en riesgo derechos consagrados? La respuesta claramente no es renunciar a la inteligencia artificial, sino regularla. Esta tarea -que involucra a jueces, legisladores y académicos, entre otros- debe ser realizada con urgencia dado que solo así será posible que el avance de la tecnología no vulnere derechos humanos fundamentales.

 



[1] Universidad Argentina de la Empresa (UADE). Instituto de Ciencias Sociales y Disciplinas Proyectuales (INSOD). Buenos Aires, Argentina.

[2] Universidad Argentina de la Empresa (UADE). Instituto de Ciencias Sociales y Disciplinas Proyectuales (INSOD). Buenos Aires, Argentina.

[3] Ferrer Beltrán distingue entre tres etapas de la actividad: a) la conformación del conjunto de elementos de juicio sobre cuya base se adoptará la decisión; b) la valoración de esos elementos; y c) la adopción de la decisión. Jordi Ferrer Beltrán, La valoración racional de la prueba (Madrid: Marcial Pons, 2007), 42.

[4] Ferrer Beltrán, La valoración racional de la prueba, 42.

[5] Sahara Kuta, “La IA acaba de descifrar parte de un antiguo pergamino ‘ilegible’: esto es lo que dice”, National Geographic, 13 de octubre de 2013, actualizado el 9 de febrero de 2024, https://www.nationalgeographic.es/historia/2023/10/inteligencia-artificial-desvela-secretos-pompeya-ia-descifrar-antiguo-pergamino-ilegible.

[6] Todos estos ejemplos se encuentran estricta y exclusivamente dentro de lo que llamamos la conformación del conjunto de elementos de juicio sobre cuya base se adoptará la decisión. Sin embargo, también es posible encontrar otros ejemplos que podrían confundirse con lo que hace directamente a la valoración de la prueba, en los cuales habría que hacer un análisis particular. Entre estos podemos encontrar: (a) la posibilidad de usar la inteligencia artificial para analizar el lenguaje y las expresiones utilizadas por el supuesto autor de un documento para así poder detectar su voluntad; (b) su utilización en al análisis testimonial para interpretar timbres de voz, identificar señales de nervios, y evaluar la veracidad de un relato; (c) la posibilidad de crear herramientas de inteligencia artificial que le haga saber al juez si ha valorado todas las hipótesis existentes con los datos aportados. Por otra parte, con respecto a la utilización de inteligencia artificial en el momento de la adopción de la decisión judicial podemos hacer referencia a la posibilidad de que la inteligencia artificial sustituya a los jueces en la toma de decisiones, situación que también amerita un análisis diferenciado.

[7] Ferrer Beltrán, La valoración racional de la prueba, 42.

[8] Si bien las normas mencionadas también hacen referencia a un arte (literatura, pintura, escultura, circo, etc.), no analizamos ese supuesto porque se encuentra fuera de las reglas científicas.

[9] Francisco Veric, La prueba científica en el proceso judicial (Santa Fe: Rubinzal-Culzoni, 2008), 13; Marina Gascón Abellán, “Prevención y educación: el camino hacia una mejor ciencia forense en el sistema de justicia”, en El razonamiento probatorio en el proceso judicial, ed. Jordi Ferrer Beltrán y Jorge Rodríguez, (Madrid: Marcial Pons, 2020), 239.

[10] Michele Taruffo, La prueba (Buenos Aires–Barcelona: Marcial Pons, 2008), 97.

[11] Carmen Vázquez-Rojas, “Sobre la cientificidad de la prueba científica en el proceso judicial”, Anuario de Psicología Jurídica (Universidad de Girona, 2014), 66.

[12] Efectivamente, el fallo “Daubert” no terminó con todos los cuestionamientos. Las principales críticas se debieron, a que no hubo una aplicación uniforme de éste (Veric, La prueba científica en el proceso judicial, 74-75). Por ejemplo, en el caso “State v. Russel”  de la Corte Suprema del Estado de Washington, dictado al año siguiente que “Daubert”, o sea en 1994, la Corte Estadual aceptó la incorporación de un examen de ADN haciendo referencia a que era una teoría aceptada en la comunidad relevante: “Novel scientific evidence is admissible only if the theory on which the evidence is based and the techniques used to implement the theory are generally accepted in the relevant scientific community that is familiar with the theory and the underlying technique.”. Pero no solo eso, en “State v. Russel”, la Corte de Washington dijo que siguiendo el criterio expuesto en State v. Cauthron (1993) reafirmó el estándar de “Frye”.

[13] Carmen Vázquez y Mercedes Fernández López, “La conformación del conjunto de elementos de juicio II”, en Manual de razonamiento probatorio, coord. Jordi Ferrer Beltrán (Madrid: Marcial Pons, 2024), 125.

[14] “STATE OF WASHINGTON, Plaintiff, VS. JOSHUA PULOKA, Aka JOSHUA EVERYBODYTALKSABOUT, Defendant” - SUPERIOR COURT OF WASHINGTON FOR KING COUNTY – 29/04/2024 (Citar: elDial.com - AAE07F)

[15] Frye v. United States, 293 F. 1013, 1014: “the thing from which the deduction is made must be sufficiently established to have gained general acceptance in the particular field in which it belongs”.

[16] Kayleen Devlin y Joshua Cheetham, “Donald Trump: cómo detectar imágenes creadas por inteligencia artificial como las fotos falsas del arresto del expresidente”, BBC News, 25 de marzo de 2023, https://www.bbc.com/mundo/noticias-65071726.

[17] Florencia Cabral, “Inteligencia Artificial: ¿qué pasa cuando la diversión puede transformarse en desinformación?”, Redacción – Periodismo Humano, 7 de agosto de 2024, https://www.redaccion.com.ar/inteligencia-artificial-que-pasa-cuando-la-diversion-puede-transformarse-en-desinformacion/.

[18] Maroosha Muzaffar, “Condenan a 15 estudiantes por difundir imágenes falsas de sus compañeras desnudas”, Independent en español, 10 de julio de 2024, https://www.independentespanol.com/noticias/mundo/espana/espana-almendralejo-adolescentes-ia-imagenes-falsas-b2577471.html.

[19] Mario D. Adaro y Marisa Repetto, “Ciber ética y la necesidad de un ecosistema de gobernanza digital”, en Tratado de inteligencia artificial y derecho, dir. Juan G. Corvalán, tomo I (Buenos Aires: La Ley, 2021), 452.

[20] Federico M. Álvarez Larrondo, “El nuevo derecho artificial. Desafíos para el derecho en general”, en Inteligencia artificial y Derecho, dir. Federico M. Álvarez Larrondo, 1.ª ed. (Buenos Aires: Hummurabi, 2020), 67–68.

[22] En el punto 13 también se hizo referencia el principio se transparencia. Puntualmente, se señaló que:  “este marco de orientaciones éticas debe basarse en los principios de beneficencia, no maleficencia, autonomía y justicia, así como en los principios consagrados en la Carta de los Derechos Fundamentales de la Unión Europea, como la dignidad humana, la igualdad, la justicia y la equidad, la no discriminación, el consentimiento informado, la vida privada y familiar y la protección de datos, así como en otros principios y valores inherentes al Derecho de la Unión, como la no estigmatización, la transparencia, la autonomía, la responsabilidad individual, y la responsabilidad social, sin olvidar las actuales prácticas y códigos éticos;”

[23]Disponible: https://protecciondata.es/wp-content/uploads/2021/12/Carta-Etica-Europea-sobre-el-uso-de-la-Inteligencia-Artificial-en-los-sistemas-judiciales-y-su-entorno.pdf

[24] Disponible: https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449

[25] OECD/CAF, Uso estratégico y responsable de la inteligencia artificial en el sector público de América Latina y el Caribe, Estudios de la OCDE sobre Gobernanza Pública (París: OECD Publishing, 2022), 69, https://doi.org/10.1787/5b189cb4-es.

[26] Disponible: https://unesdoc.unesco.org/ark:/48223/pf0000381137_spa

[27] Disponible: https://www.argentina.gob.ar/normativa/nacional/disposici%C3%B3n-2-2023-384656/texto.

[28] Disponible: https://eur-lex.europa.eu/legal-content/ES/TXT/PDF/?uri=CONSIL:PE_24_2024_INIT.

[29] A la hora de establecer algún tipo de límite, existe mediano consenso en que la explicabilidad y la transparencia de los softwares de inteligencia artificial deberían ser requisitos necesarios para su implementación en un proceso de toma de decisiones en el cual pudieran verse afectadas personas. Sin embargo, una vez aceptada esta premisa, una cuestión muy importante para definir es cuál debería ser el grado de conocimiento que se debería tener de cómo funcionan estos programas, y si resulta necesario que: i) se conozca el código fuente o si ii) alcanza con demostrar cuáles fueron los parámetros que se tuvieron en cuenta y la posibilidad de verificar la exactitud de la información. Por el momento, hoy parece haber posiciones contrapuestas sobre este punto, por lo que la discusión apenas comienza.  Sobre esta discusión, se puede ver: Marcelo Alfredo Riquert, Inteligencia artificial y derecho penal, 2.ª ed. (Buenos Aires: Ediar, 2024), 207.

[30]  Al inicio de este trabajo siguiendo a Jordi Ferrer Beltrán se habló de una división tripartita: a) la conformación del conjunto de elementos de juicio sobre cuya base se adoptará la decisión; b) la valoración de esos elementos; y c) la adopción de la decisión (Ferrer Beltrán, La valoración racional de la prueba, 42.). Sin embargo, también se podría hablar de una etapa anterior, en la cual los elementos de prueba no puedan ser posteriormente valorados por el juez.  De avanzarse con la distinción entre elementos de conocimiento previos a la actividad probatoria propiamente dicha “pre-pruebas” y elementos sobre cuya base se adoptará la decisión judicial “pruebas”, cuestión que no fue analizada en profundidad en este trabajo, habría que analizar eventualmente qué tipo de barreras se deberían construir para la producción de estas “pre pruebas” esté debidamente controlada,  y para que su contenido no llegue a conocimiento de la persona que va a decidir, esto último a fin de no contaminar de ningún modo la futura decisión, pero que sin embargo, podría servir para orientar la actividad investigativa.