El derecho del paciente a la explicación algorítmica en decisiones médicas basadas en IA

El derecho del paciente a la explicación algorítmica en decisiones médicas basadas en IA

Más contenido jurídico en   elDial.com 

Por Marcos Javier Ibarra


Los sistemas del campo de la Inteligencia Artificial (en adelante, IA) utilizados para la toma de decisiones automatizadas pueden afectar derechos fundamentales como la salud. En este contexto de riesgo elevado, y desde un enfoque humanista y antropocéntrico, se impone una premisa irrenunciable: ninguna automatización puede degradar la condición humana del paciente. Por ello, ningún sistema computacional, sea cual sea su objetivo, puede utilizar a la persona (o sus datos) como un medio. La dignidad humana debe operar como principio regulatorio central para equilibrar innovación, tecnología y cuidados, garantizando que todo proceso algorítmico que afecte derechos fundamentales los preserve, según el principio de control humano significativo."

"El concepto de autonomía del paciente constituye un elemento fundamental en el ámbito sanitario no solo como soporte moral de la relación médico-paciente, sino desde su dimensión normativa: el derecho del paciente a decidir sobre su salud o no decidir."

"La opacidad algorítmica, inherente a muchos sistemas de IA, amenaza directamente todas o algunas de estas dimensiones, erosionando varios pilares de la relación médico paciente, como la confianza, fundamento ético de esa particular relación y condición indispensable para un consentimiento verdaderamente libre e informado."

"La aceleración del potencial algorítmico tendrá un impacto directo sobre la soberanía clínica, que podría quedar inerte al regirse por lógicas que trasciendan las categorías que históricamente fuimos capaces de definir y controlar. Ante ello, el riesgo fundamental no es la delegación acrítica a la máquina, sino la cesión de nuestra posición como sujetos morales."

"El paciente necesita, ante todo, sabiduría clínica y presencia humana. [...] Ese ejercicio reflexivo debe reafirmarse como una responsabilidad indelegable hacia el paciente. Los pilares esenciales de la medicina como: la confianza, la narrativa del paciente, la empatía y la comunicación, serán claves frente a un horizonte tecnológico cuya capacidad creativa es, por definición, imprevisible."

"El déficit de algunos elementos informacionales en un contexto de decisiones automatizadas basadas en algoritmos puede requerir que a futuro el paciente necesite mejoras o actualizaciones en muchos de sus actuales derechos. De ahí que pueda sostenerse, que el derecho a la explicación algorítmica se muestra, a priori, en consonancia con la autodeterminación informativa y el derecho del paciente a comprender y controlar los procesos que afectan su salud."

"Actualmente la ley N° 26.529 (Ley de Derechos del Paciente en su Relación con los Profesionales e Instituciones de la Salud) exige que toda práctica médica se sustente en información suficiente y comprensible, permitiendo un consentimiento informado libre, previo, informado y por ello válido."

"Surge así una nueva capa de asimetrías: una asimetría algorítmica, donde el poder se desplaza del conocimiento médico al control del código. [...] Los algoritmos de decisión automatizada no eliminan las asimetrías tradicionales entre médico y paciente; las amplifican al incorporar nuevas capas de complejidad técnica y de invisibilidad del proceso decisorio."

"Si en el paradigma clásico la información equivale a autonomía, hoy debe convertirse en herramienta de accountability algorítmico. De lo contrario, el paciente corre el riesgo de ser reducido nuevamente a un mero espectador de su salud."

"Asimismo, el principio de transparencia algorítmica emerge como núcleo del derecho a la información sanitaria en el entorno digital, al exigir que el paciente conozca la lógica decisional que afecta su salud y pueda actuar como agente moral."

"El tratamiento de datos que produce ese score debe someterse a las garantías del régimen de decisiones automatizadas, incluyendo transparencia, explicabilidad y supervisión humana."

"La concentración del poder decisorio y la falta de información sobre las lógicas subyacentes nos vuelven con impulso a esos viejos/nuevos escenarios paternalistas. Ambos modelos (tanto el médico como el tecnológico) limitan la autonomía informativa del paciente, el primero mediante el rol de experto y dueño de la información; el segundo, mediante capitalismo algorítmico, secreto empresarial o complejidad técnica detrás del diseño."

"Elaborar una cartografía de los riesgos en el contexto de una medicina algorítmica no es un ejercicio meramente descriptivo, sino un esfuerzo por repensar las partes estructurales del derecho que pretendemos para la salud digital."

"El riesgo deja de residir únicamente en la ejecución del acto médico, [...] para trasladarse al plano invisible del funcionamiento de los sistemas de decisión que intervienen en la asistencia."

"La trazabilidad, hoy lineal y documental, deviene difusa y algorítmica, reclamando nuevas formas de registro, auditoría y gobernanza que restituyan la visibilidad del proceso y con ella, la posibilidad de atribuir responsabilidad y proteger al paciente."

"En la medicina analógica, el conocimiento clínico está bajo control humano directo: es producido, interpretado y aplicado por profesionales [...]. Con la incorporación de sistemas de Inteligencia Artificial, ese control se desplaza hacia una esfera tecnificada y corporativa."

"En la medicina algorítmica, la auditoría enfrenta una doble opacidad: la opacidad técnica, derivada de la complejidad matemática de los modelos, y la opacidad jurídica, amparada en el secreto empresarial y en los derechos de propiedad intelectual sobre el software."

"En el contexto de la medicina algorítmica, la noción de error se transforma radicalmente. Ya no hablamos de un desvío puntual respecto de la lex artis, sino de un error sistémico, embebido en las estructuras mismas de los modelos utilizados."

"El deber de información en materia sanitaria [...] puede estar cambiando. Ante la vulnerabilidad cognitiva que surge cuando el paciente ignora cómo se construyen las decisiones que lo afectan aparece la incertidumbre del código, de los datos o de los procesos de inferencia."

"Frente a ello, emerge la necesidad de reforzar las obligaciones positivas de informar, en este caso sumando las lógicas algorítmicas."

"Esta obligación debe garantizar que toda persona involucrada en una decisión clínica automatizada reciba información significativa sobre el funcionamiento del sistema, sus variables determinantes, sus márgenes de error y el grado de intervención humana."

"El artículo 22 del RGPD y, recientemente, el artículo 86 de ley de Inteligencia Artificial (en adelante, Ley de IA), [...] reconocen el derecho de toda persona a obtener explicaciones claras y significativas sobre el papel desempeñado por la IA en las decisiones que la afectan."

"En Argentina, la respuesta más próxima a este debate surge del intento de modificación de la ley de Protección de Datos Personales (en adelante, el Proyecto AAIP) presentado por la Agencia de Acceso a la Información Pública en 2023 que incorpora en su articulado una exigencia de información 'significativa sobre la lógica aplicada' en procesos automatizados."

"El incumplimiento de la obligación de informar produce consecuencias jurídicas directas sobre la validez del consentimiento informado, la responsabilidad institucional y el deber de reparación."

"El derecho a la explicación es un concepto desarrollado implícitamente en el art. 22 del RGPD y explicitado por el art. 86 de la Ley de IA europea. Este derecho otorga al paciente [...] la facultad de conocer las razones, variables y criterios que condujeron a una determinada recomendación, clasificación o diagnóstico automatizado."

"El principio de control humano significativo aún se encuentra en construcción teórica. No existe una definición unívoca, sino distintas corrientes que proponen comprenderlo como un proceso compuesto por tres dimensiones: habilitar, ejercer y evaluar el control humano sobre los sistemas inteligentes."

"El artículo 86 de la Ley de IA, fue publicada en el Diario Oficial de la Unión Europea el 12 de julio de 2024 y entró en vigor el 1 de agosto de 2024, con aplicación escalonada de sus disposiciones entre 2025 y 2027, según el tipo de sistema y el nivel de riesgo."

"A diferencia del artículo 86 de la Ley de IA, que al menos reconoce la necesidad de una explicación significativa y contextualizada, el artículo 27 del Proyecto AAIP [...] revela una prioridad estructural del secreto empresarial por sobre el derecho a la autonomía y a la salud."

"Concebimos el derecho a la explicación algorítmica en salud como: Toda persona tiene derecho a recibir una explicación clara, significativa, no manipulada y comprensible de la información vinculada a su salud y cuando existan, del funcionamiento de los sistemas de inteligencia artificial o de tratamiento automatizado de datos que intervengan, total o parcialmente, en decisiones que puedan afectar su salud o su vida."

"La información deberá incluir [...] la finalidad y el alcance del sistema utilizado; las principales variables y criterios que sustentan la decisión; los márgenes de error, sesgos o limitaciones conocidos; el grado de intervención humana en cada etapa del proceso; y la posibilidad de solicitar una revisión humana significativa de la decisión adoptada."

"El derecho a la explicación no podrá ser limitado por razones de secreto comercial, propiedad intelectual o confidencialidad tecnológica cuando de su ejercicio dependa la salud o la dignidad de la persona."

"El incumplimiento de este deber generará responsabilidad solidaria de la institución sanitaria y del proveedor tecnológico, sin perjuicio de las sanciones y reparaciones previstas por la legislación aplicable.

El derecho del paciente a la explicación algorítmica, en el contexto de decisiones clínicas automatizadas basadas en inteligencia artificial

Introducción

 

Desde nuestro enfoque jurídico, la convergencia exponencial de las nuevas tecnologías en la medicina está modelando una nueva era, entre diagnósticos predictivos y tratamientos personalizados, los beneficios concretos son innumerables y difíciles de dimensionar. En apenas unos años, la digitalización de la salud ha pasado de ser una fantasía tecnológica a una realidad del sector. Esta evolución parece inevitable.

 

A la luz de eso, también vemos desafíos que exigen armonizar, sin demoras, la innovación tecnológica con los derechos fundamentales del paciente. Los sistemas del campo de la Inteligencia Artificial (en adelante, IA) utilizados para la toma de decisiones automatizadas pueden afectar derechos fundamentales como la salud.

 

En este contexto de riesgo elevado, y desde un enfoque humanista y antropocéntrico, se impone una premisa irrenunciable: ninguna automatización puede degradar la condición humana del paciente. Por ello, ningún sistema computacional, sea cual sea su objetivo, puede utilizar a la persona (o sus datos) como un medio. La dignidad humana debe operar como principio regulatorio central para equilibrar innovación, tecnología y cuidados, garantizando que todo proceso algorítmico que afecte derechos fundamentales los preserve, según el principio de control humano significativo. La efectividad de los marcos jurídicos dependerá de nuestra capacidad de garantizar la existencia de instrumentos y acciones que permitan, a los partícipes de los sistemas sanitarios, mantener su estatus de sujeto moral.

 

El concepto de autonomía del paciente constituye un elemento fundamental en el ámbito sanitario no solo como soporte moral de la relación médico-paciente, sino desde su dimensión normativa: el derecho del paciente a decidir sobre su salud o no decidir. Seoane[1] saliendo de la dicotomía paternalismo-autonomismo señala que la autonomía tiene algunas manifestaciones que merecen ser ponderadas e integradas al ámbito sanitario. Para el filósofo español la autonomía se manifiesta, con funciones de interdependencia en:

 

a)            Una autonomía decisoria, referida al poder de consentir o rechazar tratamientos sobre un espectro de opciones dado por el profesional. Esta manifestación ocurre sobre el proceso de comunicación propio de la relación médico-paciente que suponen tres elementos: información, voluntad y capacidad para decidir. Esta autonomía se explicita con el consentimiento informado.

 

b)            Una autonomía informativa, entendida como la facultad del paciente para ejercer dominio y control sobre la información relativa a su esfera personal, decidiendo de manera libre cuándo y en qué condiciones divulgar aspectos vinculados con su vida y su salud. Este enfoque trasciende una visión meramente instrumental de la información[2], usualmente circunscripta al ámbito clínico y concebida como requisito previo para el ejercicio de la autonomía decisoria, al reconocerle un valor propio y autónomo. Esta autonomía en su faz sustantiva es uno de los pilares para el derecho a la comunicación en salud.[3][4]

 

 

c)            Una autonomía funcional o ejecutiva (libertas exercitii) que es la potestad de ejercer por sí una decisión (haciendo o no haciendo). De mucha relación con la autonomía decisoria, esta faz funcional implica que la persona no decide por intermedio de otro.

 

La opacidad algorítmica, inherente a muchos sistemas de IA, amenazan directamente todas o algunas de estas dimensiones, erosionando varios pilares de la relación médico paciente, como la confianza, fundamento ético de esa particular relación y condición indispensable para un consentimiento verdaderamente libre e informado. En este nuevo contexto, llevar al paciente a aceptar decisiones automatizadas sin comprender sus fundamentos, transformaría la relación asistencial nuevamente en una de tipo experto-inexperto más que de co-creación, alejándose de los actuales modelos de relación médico-paciente de corte más relacional.

 

De esta manera, la protección de los pacientes en los entornos digitales exige la activa rendición de cuentas sobre el proceso algorítmico. Paso necesario hacia la construcción de marcos justos y éticos en salud digital.

 

El avance de los sistemas inteligentes nos obliga a replantear cuestiones que la medicina y el derecho aún no logran definir cabalmente y ahora deben hacerlo en nuevos escenarios: ¿quién decide por el paciente en un entorno algorítmico?, ¿cuándo debe intervenir la persona humana?, ¿cuáles son los límites de la soberanía clínica? La velocidad del cambio tecnológico supera la capacidad de respuesta normativa, poniendo en riesgo la propia noción de control humano. La velocidad y el potencial transformador de la IA impide concebir estas respuestas como un mero destino al que debemos llegar, el futuro tecnológico, exigirá de nosotros cada vez más capacidad de cuestionarnos.

 

La aceleración del potencial algorítmico tendrá un impacto directo sobre la soberanía clínica, que podría quedar inerte al regirse por lógicas que trasciendan las categorías que históricamente fuimos capaces de definir y controlar. Ante ello, el riesgo fundamental no es la delegación acrítica a la máquina, sino la cesión de nuestra posición como sujetos morales. De allí la urgencia de desarrollar marcos jurídicos de transparencia y explicabilidad, que garanticen que los humanos sean el fin de toda decisión.

 

En un futuro dominado por la creatividad e imprevisibilidad de la IA, el paciente necesita, ante todo, sabiduría clínica y presencia humana[5]. Diego Gracia[6], desde un enfoque bioético dijo que, en el contexto de las decisiones, hay que racionalizar la incertidumbre, haciendo que las decisiones sean razonables, aunque carezcan de certeza.

 

Esto requiere profesionales capaces de ejercer un juicio reflexivo, contrastando la precisión estadística del algoritmo con la realidad individual y humana presente en cada paciente y sus necesidades de salud. Ese ejercicio reflexivo debe reafirmarse como una responsabilidad indelegable hacia el paciente. Los pilares esenciales de la medicina como: la confianza, la narrativa del paciente, la empatía y la comunicación, serán claves frente a un horizonte tecnológico cuya capacidad creativa es, por definición, imprevisible.

 

La comunicación (pensada como un proceso relacional que supone comprender información y participar) es el vehículo perfecto por el cual el profesional puede asegurarle autonomías al paciente. Es a través de la comunicación que el paciente pasa de ser un objeto pasivo a un sujeto activo que puede decidir si acepta o rechaza una terapia basada en un algoritmo. La efectividad de la comunicación como vehículo para restaurar la soberanía clínica del paciente frente a la IA requiere que el paciente cuente con una serie de garantías y elementos informacionales que van más allá de la mera entrega de datos técnicos.

 

El déficit de algunos elementos informacionales[7] en un contexto de decisiones automatizadas basadas en algoritmos puede requerir que a futuro el paciente necesite mejoras o actualizaciones en muchos de sus actuales derechos. De ahí que pueda sostenerse, que el derecho a la explicación algorítmica se muestra, a priori, en consonancia con la autodeterminación informativa y el derecho del paciente a comprender y controlar los procesos que afectan su salud. Su desarrollo podría dar lugar a un marco de gobernanza que lo consolide como un nuevo estándar de cuidado en salud. Reforzando tres principios interdependientes: la dignidad, como límite ético; la confianza, como capital relacional frente al individualismo del paternalismo tecnológico[8]; y el control del paciente, como eje insustituible de las decisiones asistenciales basadas en IA.

 

 

Asimetrías informativas y gobernanza algorítmica en salud

 

El derecho a la información sanitaria nació como una conquista frente al paternalismo médico, destinado a equilibrar la relación asimétrica entre conocimiento clínico y autonomía del paciente. Actualmente la ley N° 26.529 (Ley de Derechos del Paciente en su Relación con los Profesionales e Instituciones de la Salud) exige que toda práctica médica se sustente en información suficiente y comprensible, permitiendo un consentimiento informado libre, previo, informado y por ello válido. Este estándar es la base de la práctica médica contemporánea y la información es estructurante de la relación entre los profesionales y los pacientes.

 

La irrupción de los algoritmos de decisión automatizada[9], a nuestro juicio, alteran radicalmente aquel equilibrio. El paciente ya no solo desconoce las cuestiones científicas, sino también el código que estructura la decisión sobre su salud. Surge así una nueva capa de asimetrías: una asimetría algorítmica, donde el poder se desplaza del conocimiento médico al control del código.

 

Como advierte (Castells 1998), en la sociedad en red el poder reside en quién controla el código que define las reglas de interacción. En nuestro campo, quien diseña o implementa el algoritmo detenta la potestad de fijar los criterios de valoración: ¿qué es riesgo?, ¿qué se entiende por éxito clínico?, ¿quién es prioritario? Esto se da bajo una lógica frecuentemente opaca. En este escenario, los algoritmos de decisión automatizada no eliminan las asimetrías tradicionales entre médico y paciente; las amplifican al incorporar nuevas capas de complejidad técnica y de invisibilidad del proceso decisorio. El resultado es nuevas capas de paternalismo, en este caso tecnológico. Donde la decisión se acepta por fe en la eficiencia del sistema y no por comprensión informada, erosionando la autonomía conquistada por el derecho histórico.

 

Hace unos años el Tribunal Supremo del Estado de Wisconsin revisó una sentencia[10] , aceptando la validez del uso de algoritmos procesados informáticamente (sistema COMPAS[11]) que era usado para evaluar respuestas penales basado en estimaciones algorítmicas que la empresa se negó a compartir con el acusado y el tribunal. Aun en ausencia de comprensión sobre cómo el sistema COMPAS trataba la información y sugería acciones, el tribunal señaló que ese desconocimiento no afectó el debido proceso y las posibilidades del acusado de acceder a justa condena.

 

Conviene señalar, no obstante, que el Tribunal Supremo de Wisconsin impuso salvaguardas esenciales: exigió advertir sobre las limitaciones del algoritmo y prohibió que sus resultados se usaran como factor determinante en la sentencia.

 

Si en el paradigma clásico la información equivale a autonomía, hoy debe convertirse en herramienta de accountability algorítmico[12]. De lo contrario, el paciente corre el riesgo de ser reducido nuevamente a un mero espectador de su salud. La asimetría del saber clínico ha sido reemplazada por la asimetría del saber algorítmico, más profunda porque el conocimiento ya no reside en la experiencia humana sino en la arquitectura del código.

 

Asimismo, el principio de transparencia algorítmica emerge como núcleo del derecho a la información sanitaria en el entorno digital, al exigir que el paciente conozca la lógica decisional que afecta su salud y pueda actuar como agente moral, o que, en futuros casos como Estado v. Loomis, sea posible verificar el proceso lógico mediante el cual una persona recibe una sanción penal.

 

Esta nueva realidad exige respuestas jurídicas que reconozcan el impacto de las decisiones automatizadas en los derechos de los pacientes. Y hacerlo con un enfoque amplio. En el precedente OQ vs. Land Hessen (SCHUFA)[13] que analizó la calificación jurídica de las decisiones automatizadas y la protección del derecho a la autodeterminación informativa frente al uso de sistemas de scoring crediticio basados en algoritmos se dijo que:

 

a)            Cuando el puntaje generado por un sistema automatizado determina de facto (aunque no formalmente) la decisión de un tercero, en este caso un banco, constituye una decisión automatizada a los efectos del artículo 22 RGPD. Más allá de que solo fuese un sistema probabilístico.

 

b)            El tratamiento de datos que produce ese score debe someterse a las garantías del régimen de decisiones automatizadas, incluyendo transparencia, explicabilidad y supervisión humana.

 

Este criterio proyecta un estándar de transparencia aplicable también al ámbito sanitario, donde las decisiones automatizadas pueden afectar garantías fundamentales, por ejemplo, cuando una empresa de salud niega la afiliación a una persona en función de un sistema de scoring probabilístico.

 

La concentración del poder decisorio y la falta de información sobre las lógicas subyacentes nos vuelven con impulso a esos viejos/nuevos escenarios paternalistas. Ambos modelos (tanto el médico como el tecnológico) limitan la autonomía informativa del paciente, el primero mediante el rol de experto y dueño de la información; el segundo, mediante capitalismo algorítmico, secreto empresarial o complejidad técnica detrás del diseño.

 

En la práctica, ello supone que, el resultado final de ambas brechas converge en el mismo efecto peligroso: la reducción del paciente a un sujeto pasivo.

 

 

Una breve cartografía de los riesgos en la medicina algorítmica.

 

Elaborar una cartografía de los riesgos en el contexto de una medicina algorítmica[14] no es un ejercicio meramente descriptivo, sino un esfuerzo por repensar las partes estructurales del derecho que pretendemos para la salud digital. En ese sentido, hay cinco espacios que podrían darnos insumos para comprender mejor los riesgos del futuro cercano de la medicina: la fuente del riesgo, el grado de trazabilidad de las decisiones en salud, el control del conocimiento y la información, la capacidad de auditoría y control y la tipología del riesgo.

 

En primer lugar, la fuente del riesgo: La noción de riesgo en medicina ha sido históricamente tangible, visible y, sobre todo, atribuible: un evento adverso podía vincularse a una causa, a una decisión o a una técnica concreta, pero sobre todo a un cuerpo o una mente. Sin embargo, la irrupción de la Inteligencia Artificial en la práctica clínica reconfigura radicalmente esa concepción introduciendo otra fuente de riesgo. El riesgo deja de residir únicamente en la ejecución del acto médico, una cirugía, una prescripción, un procedimiento para trasladarse al plano invisible del funcionamiento de los sistemas de decisión que intervienen en la asistencia.

 

Este desplazamiento implica que el daño potencial ya no proviene solo del cuerpo o del instrumento, sino de la arquitectura informacional que guía la acción médica. En este nuevo escenario, el riesgo se vuelve difuso, probabilístico y estructural: se aloja en el diseño del algoritmo, en los datos que lo alimentan y en la lógica que jerarquiza variables, lo que exigirá al derecho y otras disciplinas repensar la noción misma de responsabilidad y de cuidado.

 

En segundo lugar, el grado de trazabilidad: la decisión médica, antes reconstruible mediante la historia clínica, se fragmenta en múltiples capas de código. En la medicina tradicional, cada decisión puede reconstruirse a través de la historia clínica, la evidencia científica o una pericia médica. El vínculo entre causa, acción y consecuencia es altamente verificable, y la responsabilidad encuentra, en la mayoría de los casos un sujeto concreto, bajo la luz de lex artis.

 

En cambio, en la medicina algorítmica, la trazabilidad de ese proceso se fragmenta y se diluye. Las decisiones ya no emergen de un acto individual, sino de procesos automatizados distribuidos entre desarrolladores, programadores, proveedores de datos y profesionales de la salud. El proceso causal se opaca, pues la información circula entre capas de código, modelos de aprendizaje y parámetros probabilísticos, que pocos pueden acceder y comprender.

 

Esta dilución generará brechas en la imputación de responsabilidad jurídica[15]: cuando la decisión resulta dañosa. La trazabilidad[16][17], hoy lineal y documental, deviene difusa y algorítmica, reclamando nuevas formas de registro, auditoría y gobernanza que restituyan la visibilidad del proceso y con ella, la posibilidad de atribuir responsabilidad y proteger al paciente.

 

En tercer lugar, el control del conocimiento y la información: En la medicina analógica, el conocimiento clínico está bajo control humano directo: es producido, interpretado y aplicado por profesionales que comprenden la totalidad del proceso diagnóstico o terapéutico y que fueron formados para eso. El médico es, a la vez, agente epistémico y responsable moral, capaz de justificar su decisión ante el paciente y ante la comunidad científica.

 

Con la incorporación de sistemas de Inteligencia Artificial, ese control se desplaza hacia una esfera tecnificada y corporativa. Ahí el saber se encapsula en modelos algorítmicos muchas veces protegidos por derechos de propiedad intelectual. La autoridad epistémica ya no se basa en la experiencia ni en el razonamiento clínico, sino en la confianza delegada en la precisión estadística del sistema. Este desplazamiento produce una nueva asimetría: quien controla el código controla la decisión, poniendo en jaque el principio de dignidad humana[18]

 

En cuarto término, la capacidad de auditoría y control. En la medicina algorítmica, la auditoría enfrenta una doble opacidad: la opacidad técnica, derivada de la complejidad matemática de los modelos, y la opacidad jurídica, amparada en el secreto empresarial y en los derechos de propiedad intelectual sobre el software. Desde esta perspectiva, el control externo de los sistemas de IA se torna fragmentario o, en muchos casos, imposible. Esta situación erosiona tanto la posibilidad de imputar responsabilidad como la de aprender del error, dos funciones esenciales del control en medicina. Sin una auditoría efectiva —técnica, ética y jurídica—, la IA médica se transforma en una autoridad sin mecanismos reales de rendición de cuentas, incompatible con la legitimidad del acto médico y con algunos de los principios que venimos mencionando.

 

Finalmente, la tipología del riesgo: el error en la medicina tradicional tenía una naturaleza individual, perceptible y finita: era el resultado de una acción humana concreta, una dosis inadecuada, una omisión diagnóstica, una técnica mal aplicada, cuya causa podía identificarse, corregirse y eventualmente sancionarse.

 

En el contexto de la medicina algorítmica, la noción de error se transforma radicalmente. Ya no hablamos de un desvío puntual respecto de la lex artis, sino de un error sistémico, embebido en las estructuras mismas de los modelos utilizados. El fallo puede originarse en etapas previas al acto asistencial, por ejemplo, en el sesgo de los datos de entrenamiento, en la selección de variables o en la ponderación estadística, y reproducirse de forma acumulativa a lo largo de miles de decisiones, sin que sea posible advertir su presencia o el momento en que actuará.

 

A diferencia del error visible, que podía ser subsanado mediante la revisión clínica, el error algorítmico es invisible, expansivo y autoperpetuado: un sesgo mal identificado puede replicarse en todos los sistemas que utilicen el mismo conjunto de datos o arquitectura de red. La lógica del aprendizaje continuo[19] amplifica la magnitud del daño potencial, ya que el sistema aprende del error sin reconocerlo como tal. Esta pérdida de reflexividad distingue a la máquina del médico: el profesional puede deliberar, dudar o rectificar; el algoritmo, en cambio, optimiza sobre supuestos.

 

Estos desplazamiento obligan a, por lo menos, recalcular, el acto médico, para no perder de vista el derecho a la integridad personal y a la salud[20].

 

Esta cartografía, aunque incipiente, nos permite visualizar los nuevos espacios de vulnerabilidad jurídica en la medicina algorítmica y orientar la construcción de marcos normativos adaptativos que configuran los nuevos límites del Derecho de la Salud en la era digital.

 

 

Nuevas fronteras de la obligación de informar: hacia las complejas explicaciones de las lógicas algorítmicas

 

El deber de información en materia sanitaria[21] o la obligación de informar, es hoy una de las estructuras más sensibles del derecho sanitario sobre todo en esta era digital, aunque sus fronteras aun confinadas a la información necesaria para tomar decisiones médicas puede estar cambiando.

 

Ante la vulnerabilidad cognitiva que surge cuando el paciente ignora cómo se construyen las decisiones que lo afectan aparece la incertidumbre del código, de los datos o de los procesos de inferencia, y es donde el deber de información debe superar sus actuales cotos.

 

En la actualidad, muchos de los sistemas sanitarios del mundo utilizan, para clasificar pacientes en situaciones de urgencia[22] protocolos telefónicos como el de Schmitt-Thompson (EEUU) o NHS Pathways (Reino Unido), estos protocolos son guías de ayuda a la toma de decisiones, que identifican síntomas (informados por el paciente) y que tomados por el operador provocan una decisión clínica.

 

En la medicina tradicional, el operador necesita pocos datos para decidir (síntomas), pero en una medicina algorítmica el sistema automatizado puede, en función de su diseño y entrenamiento, ponderar datos que no necesariamente sean lo síntomas como pueden ser: tipo de cobertura, edad, enfermedades crónicas, nacionalidad, orientación sexual, etc.

 

Como vemos ya no se trata solo de tener acceso a información o poder emitirla. Nuestro sistema de salud probablemente ya nos informó que fumar es perjudicial para la salud, la siguiente cuestión será saber si nuestro sistema de emergencia, ante un infarto, priorizara la atención a un no fumador, blanco, con alta cobertura y varón.

 

La identificación de riesgos realizada en los apartados anteriores revela que entre los principales déficits del modelo de medicina algorítmica está el informacional. Frente a ello, emerge la necesidad de reforzar las obligaciones positivas de informar, en este caso sumando las lógicas algorítmicas.

 

Esta obligación debe garantizar que toda persona involucrada en una decisión clínica automatizada reciba información significativa sobre el funcionamiento del sistema, sus variables determinantes, sus márgenes de error y el grado de intervención humana. Su finalidad no es técnica, sino ética y jurídica: restituir la autonomía y la soberanía del juicio clínico dentro de un ecosistema cada vez más gobernado por la opacidad del código.

 

En este contexto, la obligación de informar las lógicas algorítmicas aparece como la extensión necesaria del deber tradicional de información y como su actualización frente a la transformación digital de la práctica médica.

 

Con todo eso, el deber de información deja de ser un acto formal y burocrático para convertirse en una obligación sustantiva de explicabilidad, cuyo cumplimiento permite que el paciente ejerza su soberanía decisoria de manera real y que el profesional conserve su soberanía científica.

 

Como venimos señalando el ordenamiento argentino, con la Ley N.º 26.529 que establece el deber del profesional y las instituciones sanitarias de brindar información clara, suficiente y comprensible sobre el diagnóstico, el tratamiento y los riesgos previsibles, posee un diseño de transparencia orientado a la prevención de daños, pero es insuficiente frente a los desafíos que plantea la digitalización de la medicina.

 

En este punto, el derecho (sobre todo nuestra rama, el Derecho de la Salud) debe atender un nuevo riesgo: el informacional, derivado de las decisiones automatizadas.

 

En Europa, este desplazamiento ya tiene respaldo normativo. El artículo 22 del RGPD[23] y, recientemente, el artículo 86 de ley de Inteligencia Artificial (en adelante, Ley de IA)[24], que reconocen el derecho de toda persona a obtener explicaciones claras y significativas sobre el papel desempeñado por la IA en las decisiones que la afectan.

 

En Argentina, la respuesta más próxima a este debate surge del intento de modificación de la ley de Protección de Datos Personales (en adelante, el Proyecto AAIP) presentado por la Agencia de Acceso a la Información Pública[25] en 2023 que incorpora en su articulado una exigencia de información “significativa sobre la lógica aplicada” en procesos automatizados. Estos instrumentos refuerzan un cambio de paradigma: el deber de informar ya no es solo médico o institucional, sino sistémico, y su finalidad última es garantizar que la autonomía se mantenga operativa en entornos donde las decisiones clínicas son cada vez más el resultado de un razonamiento algorítmico.

 

Esta obligación comprende al menos cuatro dimensiones esenciales: el objeto, los sujetos, el momento y la forma.

 

En cuanto a su objeto, el deber de información no se agota en comunicar la existencia de sistemas de IA, sino que debe abarcar la lógica del proceso decisional, es decir, las variables utilizadas, los criterios de ponderación, los márgenes de error, las limitaciones del sistema y el grado de intervención humana.

 

Respecto de los sujetos obligados, esta obligación alcanza no solo a los profesionales de la salud, sino también a las instituciones sanitarias, los proveedores tecnológicos y los desarrolladores de sistemas de IA médica, quienes comparten, en distintos niveles, la responsabilidad de garantizar una transparencia verificable.

 

En relación con el momento de cumplimiento, el deber debe ejercerse de forma previa, continua y actualizable: al incorporarse la IA al proceso clínico; durante la toma de decisiones; y cada vez que el sistema sea modificado, reentrenado o adaptado.

 

Por último, la forma de la información es determinante: debe presentarse en lenguaje claro, comprensible y contextualizado, diferenciando los niveles de detalle exigibles al profesional, al paciente y al órgano de control. En este sentido, puede entenderse, que el deber de transparencia algorítmica deja de ser una cláusula declarativa para convertirse en una obligación de resultado en materia de transparencia, cuyo cumplimiento efectivo condiciona la validez del consentimiento informado y la legitimidad de la decisión asistencial.

 

La obligación de informar las lógicas algorítmicas cumple una función esencial: actúa como puente entre la autonomía, la confianza social en la medicina y la rendición de cuentas. Desde el plano ético, constituye la garantía mínima para que la persona no sea objeto de una decisión incomprensible, preservando su dignidad cognitiva[26] y su derecho a participar activamente en el proceso asistencial.

 

Desde el plano institucional, transforma la transparencia en una responsabilidad compartida: obliga a cada actor del ecosistema, profesionales de la salud, programadores, instituciones y autoridades de control, a justificar sus decisiones y a hacer rastreable la lógica que las sustenta. En suma, informar la lógica algorítmica no solo cumple una función informativa, sino que refuerza el contrato moral sobre el que se asienta la medicina del futuro, desplazando el foco hacia una ética de la comprensión y del control responsable de la tecnología.

 

El incumplimiento de la obligación de informar produce consecuencias jurídicas directas sobre la validez del consentimiento informado, la responsabilidad institucional y el deber de reparación. En primer lugar, si el paciente no recibe información suficiente y comprensible sobre el modo en que un sistema automatizado ha intervenido en la decisión clínica, el consentimiento carece de efectividad jurídica y moral, ya que la voluntad se forma bajo un déficit cognitivo que vulnera el principio de autonomía previsto en la Ley 26.529. En segundo lugar, la falta de información o la opacidad intencionada del sistema comprometen la responsabilidad de la institución sanitaria y del proveedor tecnológico, al configurar una omisión relevante dentro de los estándares de diligencia exigibles en esta materia.

 

La responsabilidad deja de ser puramente profesional para convertirse en responsabilidad sistémica, pues involucra a quienes diseñan, implementan y supervisan la tecnología. En conjunto, estas consecuencias consolidan la idea de que la transparencia algorítmica no es una opción técnica, sino una condición jurídica para la legitimidad del acto médico en entornos mediados por inteligencia artificial.

 

En perspectiva normativa, esta evolución exige la incorporación explícita de nuevas obligaciones en la legislación sanitaria. Bajo esa trama, la medicina algorítmica inaugura un nuevo capítulo, donde el derecho a la explicación puede consolidarse como un estándar reforzado de la obligación de informar, indispensable para equilibrar innovación, confianza y dignidad humana en el uso ético y responsable de la inteligencia artificial en la salud.

 

 

Hacia la consolidación del Derecho a la Explicación Algorítmica como derecho fundamental del paciente

 

El derecho a la explicación es un concepto desarrollado implícitamente en el art. 22 del RGPD y explicitado por el art. 86 de la Ley de IA europea. Este derecho otorga al paciente, y, por extensión, al profesional y a la institución sanitaria, la facultad de conocer las razones, variables y criterios que condujeron a una determinada recomendación, clasificación o diagnóstico automatizado. Su relevancia no se limita al plano técnico, sino que alcanza el núcleo valorativo de la decisión.

 

Puede sostenerse que el derecho a la explicación se materializa, en el plano jurídico, como expresión del principio ético de control humano significativo en el campo de la salud, asegurando que la innovación tecnológica complemente, pero nunca suplante, el juicio clínico ni el valor moral de la decisión compartida entre médico y paciente.

 

El principio de control humano significativo aún se encuentra en construcción teórica. No existe una definición unívoca, sino distintas corrientes que proponen comprenderlo como un proceso compuesto por tres dimensiones: habilitar, ejercer y evaluar el control humano sobre los sistemas inteligentes. En el ámbito de la salud, ello implica garantizar no solo la posibilidad formal de intervención humana, sino su capacidad efectiva para comprender, cuestionar y, cuando sea necesario, revertir la decisión automatizada. Incorporar este matiz en el debate robustece el estándar de responsabilidad, al transformar el control humano de un requisito declarativo en una obligación práctica de deliberación y cuidado.

 

Desde nuestra perspectiva centrada en los derechos del paciente, el artículo 86 de la Ley de IA europea representa un punto de partida relevante. Su enfoque es principalmente procedimental: garantiza información significativa sobre el funcionamiento de los sistemas de inteligencia artificial, pero no asegura plenamente el reconocimiento de la persona como sujeto moral y agente activo en la decisión que la afecta.

 

Cabe recordar que la Ley de IA, fue publicada en el Diario Oficial de la Unión Europea el 12 de julio de 2024 y entró en vigor el 1 de agosto de 2024, con aplicación escalonada de sus disposiciones entre 2025 y 2027, según el tipo de sistema y el nivel de riesgo. Es preciso señalar que su operatividad plena aún se encuentra en fase de implementación progresiva, y su interpretación deberá armonizarse con el RGPD y con la legislación sectorial en materia de salud.

 

Para convertirse en un verdadero derecho fundamental en la era algorítmica, la explicación debe trascender la transparencia técnica y adquirir una dimensión relacional, deliberativa, participativa y no instrumental. El paciente no necesita solo comprender la decisión automatizada: necesita poder intervenir, cuestionar y obtener una revisión humana con sentido clínico y ético. El valor de la explicación no radica en el acceso a datos o modelos, sino en su capacidad de restaurar la confianza, la autonomía y la dignidad que sostienen la relación médico-paciente. Solo cuando el derecho a la explicación se conciba como un acto de respeto y de cuidado, y no solo como un deber de comunicación técnica, podrá reclamar su lugar entre las garantías fundamentales del siglo XXI.

 

A diferencia del artículo 86 de la Ley de IA, que al menos reconoce la necesidad de una explicación significativa y contextualizada, el artículo 27 del Proyecto AAIP pone de relieve una insuficiencia jurídica con que aún se aborda el fenómeno algorítmico. Concibe la información como un dato que se entrega (visión instrumental), no como un proceso que debe comprenderse y deliberarse. La inclusión de la cláusula “siempre que ello no afecte derechos intelectuales del responsable del tratamiento” revela una prioridad estructural del secreto empresarial por sobre el derecho a la autonomía y a la salud, trasladando el centro de gravedad de la protección desde la persona hacia el sistema técnico. En el campo sanitario, esta asimetría resulta especialmente crítica, pues el paciente puede verse sometido a decisiones automatizadas que desconoce y no puede cuestionar.

 

En conjunto, estas carencias reflejan que, en el contexto latinoamericano, el debate sobre IA y derechos del paciente aún no ha alcanzado el nivel de madurez ética y jurídica necesario para convertir la explicación algorítmica en un derecho humano efectivo.

 

 

Algunos elementos para un nuevo derecho de los pacientes

 

El recorrido realizado a lo largo de este trabajo permite advertir que los marcos normativos actuales, tanto en Europa como en América Latina, están avanzado en reconocer la importancia de la transparencia en los sistemas de inteligencia artificial, pero no han logrado aún convertir la explicación algorítmica en un derecho fundamental pleno.

 

En consecuencia, se impone la necesidad de una disposición específica orientada al ámbito sanitario, que reconozca el derecho del paciente a comprender las lógicas que intervienen en las decisiones automatizadas que afectan su salud, su autonomía y su dignidad. A continuación, ofrecemos nuestra visión de lo que podría ser una futura propuesta de redacción normativa que busque traducir los principios señalados en reglas positivas.

 

Concebimos el derecho a la explicación algorítmica en salud como:

 

Toda persona tiene derecho a recibir una explicación clara, significativa, no manipulada y comprensible de la información vinculada a su salud y cuando existan, del funcionamiento de los sistemas de inteligencia artificial o de tratamiento automatizado de datos que intervengan, total o parcialmente, en decisiones que puedan afectar su salud o su vida.

La información deberá incluir, además de la vinculada a su salud la relativa a las decisiones automatizadas y mínimamente: la finalidad y el alcance del sistema utilizado; las principales variables y criterios que sustentan la decisión; los márgenes de error, sesgos o limitaciones conocidos; el grado de intervención humana en cada etapa del proceso; y la posibilidad de solicitar una revisión humana significativa de la decisión adoptada.

La explicación deberá proporcionarse en lenguaje accesible y contextualizado, adecuado a la capacidad cognitiva del paciente y a las circunstancias del caso.

El derecho a la explicación no podrá ser limitado por razones de secreto comercial, propiedad intelectual o confidencialidad tecnológica cuando de su ejercicio dependa la salud o la dignidad de la persona.

El incumplimiento de este deber generará responsabilidad solidaria de la institución sanitaria y del proveedor tecnológico, sin perjuicio de las sanciones y reparaciones previstas por la legislación aplicable.

 

Esta propuesta introduce cinco cuestiones que podrían definir el modo en que el derecho debe comprender la información debida al paciente en la era algorítmica.

 

La información relevante ya no se limita a los datos clínicos del paciente, sus antecedentes, resultados o imágenes, sino que incluye la lógica mediante la cual esos datos se convierten en una decisión sobre su salud. Comprender cómo el algoritmo ponderó la edad frente al historial clínico, o por qué priorizó ciertas variables sobre otras, se vuelve tan importante como conocer el resultado de la prescripción de uno u otro medicamento.

 

El secreto industrial o la propiedad intelectual no deben operar como escudos frente al derecho del paciente a comprender. Si una tecnología interviene en la decisión sobre su salud, la persona tiene derecho a saber. De ahí que pueda sostenerse que el derecho a la explicación no es un privilegio condicionado, sino una garantía de transparencia que debe prevalecer cuando lo que está en juego es la salud y la vida.

 

Se amplía la noción de información desde la perspectiva del lenguaje. Informar no es entregar un documento, sino garantizar comprensión. En un entorno donde los algoritmos se describen en términos complejos, el deber de información debe traducirse en un lenguaje que el paciente pueda entender y usar para decidir. Esto supone, por ejemplo, que una explicación sobre un sistema de diagnóstico automatizado no se exprese en códigos técnicos, sino en términos equivalentes a los del consentimiento informado: qué hace, qué no hace y qué límites tiene.

 

Se reconoce que toda decisión médica requiere juicio humano con autoridad y competencia científica. Ningún sistema automatizado, por preciso que sea, puede sustituir la deliberación entre médico y paciente. El control humano significativo consiste en que debe existir siempre una instancia de revisión real, donde una persona pueda intervenir, cuestionar y, si corresponde, revertir una decisión algorítmica.

 

Finalmente, se asume que el daño algorítmico no tiene un solo responsable. En la medicina digital, las decisiones son el resultado de una cadena de jugadores (desarrolladores, proveedores, instituciones y profesionales) que comparten la producción del riesgo. Por ello, la responsabilidad debe ser solidaria. Cada eslabón tiene el deber de prevenir, auditar y corregir. En caso de daño, la falta de coordinación o supervisión no puede convertirse en un vacío de responsabilidad. La solidaridad jurídica restituye, en el plano normativo, lo que la tecnología había dañado.

 

Estas cinco innovaciones no buscan burocratizar las innovaciones, sino humanizarlas desde el derecho. Devuelven a la relación médico-paciente el sentido de diálogo y rendición de cuentas que la medicina algorítmica amenaza con diluir.

 

 

Epílogo

 

Toda época histórica tuvo su propia forma de incertidumbre. La nuestra está depositada en los algoritmos: en esa promesa de perfección que, paradójicamente, a veces es muestra de nuestra propia fragilidad.

 

En un tiempo donde los sistemas aprenden de nosotros más de lo que nosotros sabemos de ellos, el derecho a la explicación se convierte en una forma de resistencia: la afirmación de que ningún proceso, por complejo que sea, puede eximirnos de la responsabilidad de entender, decidir y responder por nuestras acciones como seres autónomos. En última instancia, el desafío de esta era no es lograr que los algoritmos funcionen mejor, sino garantizar que nosotros sigamos pensando éticamente frente a ellos.

 

 

Bibliografía

 

Blackman, Justin, and Richard Veerapen. "On the practical, ethical, and legal necessity of clinical Artificial Intelligence explainability: an examination of key arguments." BMC Medical Informatics and Decision Making 25, no. 111 (2025).

Castells, Manuel. The Rise of the Network Society (The Information Age: Economy, Society, Culture. Oxford: Blackwell, 1998.

Ciuro Caldani, Miguel Angel. "El derecho de la salud en el complejo jurídico." Cuaderno Ibero-americanos de Derecho Sanitario 1, no. 1 (2012): 8-29.

Ciuro Caldani, Miguel Angel. "El Derecho de la Salud ante una nueva era histórica." Investigación y Docencia, no. 42 (2009): 61-75.

Floridi, Luciano, Josh Cowls, and Mónica Beltrametti. "Un marco ético para una buena sociedad de IA: oportunidades, riesgos, principios y recomendaciones." Minds and Machines 28, no. 4 (2018): 689-707.

Giorgetti, Claudia, Giuseppe Contissa, and Giuseppe Basile. "Healthcare AI, explainability,and the human-machine relationship: a (not so) novel practical challenge." Front. Med., 2025.

Seoane, José Antonio. "Las autonomías del paciente." Dilemata, no. 3 (2010): 61-75.

Wachter, Sandra, Brent Mittelstadt, and Chris Russell. "Why Fairness Cannot Be Automated: Bridging the Gap Between EU Non-Discrimination Law and AI." Computer Law & Security Review 41 (2021).

 

 

 

 



(*) Abogado especializado en Derecho de la Salud, Políticas públicas y Seguridad Social. Director del Instituto de Derecho de la Salud del Foro de Abogados de San Juan. Responsable del Área de Abogados e Institutos de Derecho de la Salud del Observatorio de Derecho de Salud de la Universidad de Buenos Aires.

[1] SEOANE José Antonio. Las autonomías del paciente. Dilemata. año 2 (2010), nº 3, 61-75

[2] Desde una visión instrumental, la información es útil sólo en la medida en que sirve para algo (informar para consentir, por ejemplo). Mientras que, desde una visión sustantiva o autónoma, la información tiene un valor en sí misma, porque pertenece a la persona y refleja su derecho a conocer, controlar y decidir sobre los datos que la representan, incluso más allá de su uso en decisiones médicas concretas.

[3] La comunicación en salud es un proceso intencional e interactivo, con estrategias, técnicas y principios propios para establecer el diálogo, la confianza y la transmisión de mensajes adecuados, veraces, no manipulados y oportunos entre los sujetos de cuya salud se trate y quienes tengan cualquier tipo de incidencia en ella, por medios digitales o analógicos.

[4] IBARRA Marcos Javier. La comunicación como nuevo determinante de la salud, expansiones del Derecho de la Salud en la era digital. Revista la Voz del Foro (Foro de Abogados de San Juan). Volumen 7. octubre 2020

[5] Compatible con el marco de atención centrada en la persona de la OMS

[6] GRACIA Diego. Procedimientos de decisión en ética clínica. Tricastela. 2007

[7] Los elementos informacionales del paciente comprenden un conjunto de componentes que configuran la generación, circulación y uso de la información en el ámbito sanitario, integrando dimensiones técnicas, jurídicas, éticas y comunicacionales. Por ejemplo: titularidad de la información, canales, códigos, contextos, acceso a la información, transparencia, comprensibilidad, etc.

[8] Es la tendencia a aplicar las normas de autoridad o protección tradicionalmente asignadas al padre de familia a otros ámbitos de relaciones sociales tales como la política, lo tecnológico, la salud y otros.

[9] La toma de decisiones automatizada podría definirse como la utilización de sistemas o modelos computacionales para adoptar resoluciones sin intervención humana directa en el momento de la decisión. Estos sistemas pueden operar sobre datos empíricos o factuales, así como sobre perfiles digitales y datos inferidos mediante técnicas algorítmicas o de aprendizaje automático. En su forma más avanzada, implican la evaluación automatizada de información personal, conductual o contextual con el fin de clasificar, predecir o recomendar acciones.

[10] Estado v. Loomis, 881 NW2d 749, 767 (Wis. 2016)

[11] Sistema comercial de evaluación y generación de perfiles criminales que evalúa riesgos y acciones que pudieran ser jurídicamente relevantes a través de metaanálisis de reincidencias.

[12] La rendición de cuentas algorítmica se refiere al conjunto de obligaciones técnicas, organizacionales y jurídicas orientadas a garantizar que las decisiones influenciadas o adoptadas mediante algoritmos sean trazables, explicables y atribuibles a sujetos responsables. Supone la asignación de responsabilidad por las consecuencias en el mundo real derivadas del uso de sistemas automatizados en procesos de toma de decisiones, así como la existencia de mecanismos efectivos de supervisión, revisión y reparación ante posibles daños o sesgos.

[13] Asunto C-634/21, OQ vs. SCHUFA Holding AG, Sentencia del TJUE, 7 de diciembre de 2023

[14] Una medicina automatizada y con alto uso de predictores

[15] Surgen cuando, al aplicar las normas contractuales, extracontractuales o de responsabilidad vigentes a los daños causados​​por la IA, y por las características inherentes de esta pueden dar lugar a resultados insatisfactorios, en particular para la parte dañada.

[16] Es la capacidad de rastrear el historial de un proceso a lo largo de todo su ciclo de vida. En el ámbito sanitario, puede referirse al seguimiento de datos, medicamentos o instrumental involucrado en un acto médico determinado.

[17] El Art. 13 de la Ley 26529 consagra la obligación de dejar constancia escrita y verificable de toda actuación médica. Frente a sistemas de decisión automatizada, esa obligación exige repensar cómo garantizar un registro auditado y accesible del proceso algorítmico.

[18] Art. 1 de la Declaración Universal de Derecho Humanos

[19] Proceso mediante el cual los sistemas de inteligencia artificial adquieren nuevos conocimientos y mejoran sus capacidades a lo largo del tiempo, utilizando flujos de datos continuos y no estacionarios.

[20] Art. 5 de la Convención Americana de Derechos Humanos

[21] El deber de información en materia sanitaria implica que los profesionales de la salud tienen la obligación de proporcionar a los pacientes, de manera clara y accesible, información sobre su estado de salud, diagnóstico, pronóstico y las alternativas de tratamiento, incluyendo sus riesgos y beneficios

[22] Triage: Sistemas de clasificación de pacientes en sistemas de urgencia médica que los organiza según la gravedad de su situación y la urgencia en la que debe ser atendido.

[23] Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo, de 27 de abril de 2016, relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos

[24] Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas sobre la inteligencia artificial

[25] MENSJ-2023-87-APN-PTE

[26] La dignidad cognitiva se refiere al respeto por la capacidad de una persona para entender, procesar y desenvolverse en el mundo, aunque tenga discapacidades intelectuales o cognitivas o afectaciones a esa capacidad originada, en, por ejemplo, algunas las tecnologías y el derecho a proteger que esas capacidades no sufran degradaciones cognitivas injustas, manipulación, invisibilización del pensamiento, discriminación basada en la inferioridad cognitiva.