La Responsabilidad Profesionalen la era de la InteligenciaArtificial

Dr. Fabián Vítolo

NOBLE Cía de Seguros

La inteligencia artificial (IA) avanza aceleradamente en el sector salud: hoy se
aplica al diagnóstico por imágenes (oftalmología, dermatología,
gastroenterología, anatomía patológica y radiología), al análisis de señales y
datos moleculares, al desarrollo de fármacos y vacunas, a la predicción de
complicaciones y pronóstico, a la clasificación de enfermedades y a la cirugía
robótica.

Además, su uso se expande de forma transversal en múltiples ámbitos
clínicos, con creciente producción científica en los últimos años.
Entre sus oportunidades se destacan la mejora de la precisión diagnóstica y de
la medicina personalizada, el apoyo a la decisión clínica como “segundo lector”,
la priorización/triage más oportuno, la reducción de cargas de trabajo y
tiempos, y potenciales ganancias de eficiencia y costos. En entornos
asistenciales reales, los modelos de IA se integran crecientemente como
tecnologías de apoyo con human-in-the-loop, reforzando la seguridad del
paciente sin desplazar el rol del profesional.

Ante este nuevo panorama, uno de los desafíos centrales para médicos,
instituciones y aseguradoras es jurídico: ¿quién es responsable cuando una
herramienta de IA contribuye a un daño al paciente? La literatura señala que la
jurisprudencia específica aún es escasa y que la naturaleza opaca e intangible
del software plantea dificultades para encuadrar la responsabilidad con
doctrinas tradicionales de productos; al mismo tiempo, emerge la tesis de que
no adoptar herramientas tecnológicas seguras podría, en ciertos contextos,
convertirse también en una decisión riesgosa.


Este artículo busca revisar, con mirada práctica para Argentina, las implicancias
de la IA en la responsabilidad profesional médica, analizando tendencias y
marcos analíticos internacionales (p. ej., escenarios típicos de litigios y
enfoques de gestión del riesgo), con énfasis en usos de IA integrada en la práctica clínica (human-in-the-loop) y en sus efectos sobre el estándar de
cuidado, el consentimiento informado y el nexo causal.
Usos actuales y potenciales de la IA en medicina
La inteligencia artificial se ha introducido de manera creciente en múltiples
áreas clínicas. En el ámbito diagnóstico, ya se aplica a la interpretación de
imágenes médicas en oftalmología, dermatología, gastroenterología, anatomía
patológica y radiología, donde los algoritmos son capaces de identificar
patrones complejos y asistir al médico en la detección precoz de patologías. En
cardiología, por ejemplo, los algoritmos basados en electrocardiogramas han
mostrado superioridad frente al software tradicional para identificar ritmos y
alteraciones, e incluso se proponen como herramientas de tamizaje en
enfermedades valvulares.


En oncología y enfermedades crónicas, la IA ha demostrado ser útil en la
predicción de la evolución, la respuesta terapéutica y la estratificación de
riesgos, contribuyendo a una medicina más personalizada. También se ha
extendido a la cirugía robótica, a la predicción de complicaciones hospitalarias
(ej. sepsis) y a la clasificación más precisa de enfermedades.
Otro uso relevante es el apoyo a la decisión clínica. Diversos autores destacan
que los sistemas de IA funcionan mejor como “segundo lector”,
complementando la interpretación del médico y aumentando la seguridad del
paciente. Este modelo de integración, conocido como human-in-the-loop,
supone que el profesional mantiene el control y valida la recomendación
algorítmica antes de tomar decisiones finales.


Asimismo, la IA contribuye a la eficiencia en la práctica clínica: permite priorizar
estudios urgentes, optimizar la lista de lectura en radiología, filtrar casos menos
complejos y reducir la carga de trabajo de los profesionales, mejorando la
oportunidad diagnóstica y la asignación de recursos.


En síntesis, la IA se perfila no como un sustituto, sino como un amplificador de
la capacidad médica, con potencial para transformar el diagnóstico, el
pronóstico, la terapia y la organización de los sistemas de salud.
Nuevos desafíos éticos y legales


La expansión de la inteligencia artificial en salud no solo abre oportunidades,
sino que plantea dilemas éticos y legales de enorme alcance. Estamos
atravesando un cambio de paradigma: de la medicina basada en la evidencia, que se apoya en hipótesis formuladas y probadas de manera transparente,
hacia una medicina basada en datos, donde los algoritmos generan
predicciones útiles, pero a través de procesos internos difíciles de rastrear. Este
fenómeno, conocido como la “caja negra”, implica que el médico puede recibir
un resultado diagnóstico o pronóstico altamente preciso sin poder explicar con
claridad qué razonamiento condujo a esa conclusión. La opacidad tiene
implicancias críticas: debilita la autonomía del paciente, porque limita su
capacidad de comprender los fundamentos de la decisión clínica, y socava la
validez del consentimiento informado, que solo es pleno cuando se explican de
forma comprensible los beneficios, riesgos y limitaciones de la herramienta
tecnológica utilizada.


Otro desafío relevante es el de los sesgos algorítmicos. Los sistemas
entrenados con poblaciones no representativas corren el riesgo de amplificar
desigualdades preexistentes, generando disparidades en la calidad del
diagnóstico y tratamiento entre distintos grupos poblacionales. Así, una
tecnología que pretende mejorar la equidad en salud puede terminar
acentuando inequidades si no se controla rigurosamente la calidad y diversidad
de los datos utilizados.


La relación médica–paciente también se ve interpelada. El modelo fiduciario
basado en la confianza y la empatía podría debilitarse si las decisiones clínicas
dependen excesivamente de algoritmos. Algunos autores advierten que la
introducción de IA puede reducir la escucha clínica, la exploración física y el
“toque humano”, componentes esenciales del vínculo terapéutico. Esto plantea
riesgos no solo en términos de calidad asistencial, sino también de percepción
social y confianza en la medicina.


A nivel legal, se suma la dificultad de atribuir responsabilidades. Si un error
ocurre, ¿es atribuible al médico que confió en la recomendación, al hospital que
adoptó la herramienta, o al desarrollador del software? La doctrina tradicional
de responsabilidad por productos defectuosos se ajusta mal a programas
intangibles y opacos, lo que genera un vacío normativo.
En conjunto, estos desafíos muestran que la IA no es solo una innovación
técnica: redefine categorías éticas y jurídicas centrales en medicina, y obliga a
repensar marcos de consentimiento, equidad, relación médica–paciente y
atribución de responsabilidad.

Responsabilidad profesional médica
El marco tradicional de la responsabilidad médica se sustenta en cuatro
elementos centrales: la existencia de un acto ilícito, entendido como la
actuación de la profesional contraria a la lex artis; la producción de un daño al
paciente; la comprobación de la culpa del profesional o, en su caso, de la
violación del deber de seguridad por parte de la institución (factor de
atribución); y la demostración del nexo causal entre la conducta y el perjuicio.
En términos jurídicos, un médico será considerado responsable cuando su
proceder se aparte del estándar de cuidado, es decir, de lo que cabría esperar de
un profesional competente en circunstancias semejantes y con recursos
equivalentes.
La incorporación de la inteligencia artificial tensiona este marco. Por un lado, el
error médico puede consistir en confiar ciegamente en la recomendación del
algoritmo sin ejercer juicio crítico. Por otro, el error tecnológico puede originarse
en defectos de diseño, entrenamiento con datos sesgados o falta de
actualización del software. En muchos casos, lo más probable es que se trate de
errores compartidos, donde la decisión clínica surge de la interacción entre
médico y herramienta digital, difuminando la línea de atribución de
responsabilidad.

Este escenario plantea desafíos inéditos para determinar qué constituye el
estándar de cuidado. ¿Debe juzgarse al médico por no seguir la recomendación
de la IA, o por haberla seguido sin cuestionarla? En algunos marcos
doctrinarios, se sugiere que no utilizar herramientas de IA validadas y
disponibles podría ser visto en el futuro como una omisión negligente, del
mismo modo que hoy lo sería no usar una guía clínica o una prueba diagnóstica
estandarizada. Sin embargo, también se advierte que el uso acrítico de
algoritmos opacos puede constituir una violación del deber de prudencia,
especialmente cuando el resultado es lesivo para el paciente.

En este contexto, la documentación clínica cobra un papel central: dejar
asentado cuándo y cómo se usó la IA, cuál fue la interpretación profesional y
cuáles fueron los factores que guiaron la decisión final. Esta práctica no solo
resguarda la trazabilidad clínica, sino que también fortalece la defensa en un
eventual proceso legal, mostrando que el médico mantuvo un rol activo y no
delegó completamente la decisión en la máquina

Como advierten Mello y Guha, el futuro de la doctrina de responsabilidad civil
aplicada a la IA en salud es altamente incierto. Existe aún un cuerpo limitado de
jurisprudencia y, en muchos casos, los tribunales no diferencian entre software
médico tradicional e inteligencia artificial, cuando esas distinciones son
cruciales para determinar responsabilidad. Mientras se aguarda mayor claridad
normativa, el foco debe ponerse en cómo los profesionales y las organizaciones
de salud gestionan de manera preventiva los riesgos. El marco propuesto por
estos autores para evaluar el riesgo de responsabilidad de la IA en el ámbito
sanitario se basa en literatura previa y conceptualiza el riesgo como una función
de cuatro factores principales que deberían guiar las decisiones de adopción y
la supervisión de seguridad posterior a la implementación en función de estos
indicadores de riesgo:

  1. La probabilidad y la naturaleza de los errores (según el modelo de IA, sus
    datos de entrenamiento, el diseño de la tarea y la manera en que se
    integra en el flujo de trabajo clínico).
  2. La probabilidad de que los humanos u otro sistema detecten los errores
    antes de que causen daño a los pacientes (lo cual depende, en parte, del
    tiempo y del nivel de visibilidad que los humanos tengan sobre la
    herramienta de IA).
  3. El daño potencial si los errores no son detectados (especialmente en el
    caso de herramientas que realizan funciones clínicas críticas o que se
    utilizan en la atención de pacientes con condiciones de salud graves).
  4. La probabilidad de que las lesiones reciban compensación en el sistema
    de responsabilidad civil, lo que depende, entre otras cosas, de la
    gravedad de la lesión, la facilidad para probar negligencia y la relación
    causal entre la herramienta de IA y el daño.
    Garantías de calidad y seguridad, con obligación del proveedor de
  5. asegurar que el software cumple con normas regulatorias nacionales
  6. (por ejemplo, ANMAT en Argentina) e internacionales.
  7. Planes de actualización y mantenimiento, que definan tiempos y
    responsabilidades en la instalación de nuevas versiones, parches de
    seguridad y mejoras de rendimiento.
  8. Soporte técnico accesible y documentado, que incluya protocolos claros
    de atención a incidentes críticos y plazos máximos de respuesta.
  9. Responsabilidad compartida en caso de fallas, evitando cláusulas que
    asignen automáticamente toda la carga legal al hospital o al profesional.
    Esto implica, por ejemplo, que el proveedor se haga cargo cuando el
    daño se deba a defectos de diseño o a falta de actualización del
    algoritmo.
  10. Transparencia y auditabilidad, con acceso a información suficiente sobre
    cómo funciona el sistema, tasas de error, sesgos identificados y
    limitaciones conocidas.
  11. Cobertura aseguradora del proveedor, que asegure respaldo económico
    en caso de que un daño atribuible a la tecnología dé lugar a un reclamo
    judicial.
    En definitiva, los contratos no deben limitarse a la provisión del software, sino
    que deben concebirse como una herramienta de gestión de riesgos, que
    distribuya de manera justa las responsabilidades entre el desarrollador, la
    institución y el equipo clínico. La combinación de protocolos, consentimiento
    informado específico, auditorías, capacitación, cláusulas contractuales claras y
    el rol activo de las aseguradoras conforma un marco de mitigación de riesgos
    que permite integrar la IA a la práctica clínica de manera segura y jurídicamente
    sólida.
  12. Pensando a futuro
    La inteligencia artificial no reemplaza al médico, pero sí redefine profundamente
    su rol. El juicio clínico, la capacidad crítica y la documentación rigurosa se
    vuelven más importantes que nunca para mostrar que las decisiones se toman
    en forma informada y responsable. La responsabilidad profesional se convierte
    en un fenómeno compartido, dinámico y más complejo, que involucra a
    médicos, instituciones, desarrolladores y aseguradoras.
  13. También es importante reconocer que las organizaciones de salud se
    encuentran en un mercado favorable para los compradores, en el que muchos
    desarrolladores de IA compiten por asegurar contratos con los sistemas de
    salud y por acceder a los datos de los pacientes. Este mercado otorga a los
    compradores del sector sanitario la oportunidad de negociar condiciones que
    minimicen el riesgo de responsabilidad. Por ejemplo, los acuerdos de licencia
    deberían exigir a los desarrolladores que proporcionen información que permita
    a las organizaciones de salud evaluar y monitorear eficazmente el riesgo,
    incluyendo datos sobre las suposiciones en relación con la información
    utilizada para entrenar el modelo, los procesos de validación y las
    recomendaciones para auditar el desempeño del modelo.

14
Las cláusulas de indemnización representan un recurso clave para asignar
responsabilidades en caso de fallas. A través de ellas, las instituciones de salud
pueden definir de manera anticipada quién asume los costos frente a un error.
Así, por ejemplo, se puede estipular que los desarrolladores respondan cuando
el fallo provenga de una deficiencia en el algoritmo, mientras que los hospitales
lo hagan si el problema deriva de una implementación incorrecta o de un uso
indebido de la herramienta de IA. Además, los contratos entre organizaciones
sanitarias y proveedores tecnológicos deberían incluir condiciones mínimas de
cobertura aseguradora y establecer con claridad el deber de las instituciones de
realizar un seguimiento y monitoreo continuo de los sistemas una vez
incorporados a la práctica clínica.
Los formuladores de políticas pueden desempeñar un papel decisivo en la
prevención de daños asociados a la inteligencia artificial en salud. Una vía
posible es establecer normativas que obliguen a los desarrolladores a brindar
información clara sobre cómo se entrenan y configuran los modelos, de modo
que hospitales y profesionales cuenten con los elementos necesarios para
utilizarlos de forma segura. También sería recomendable definir lineamientos
que indiquen cómo informar a los pacientes cuando la IA interviene en
decisiones diagnósticas o terapéuticas, fortaleciendo así la base del
consentimiento informado. A su vez, el ámbito legal deberá adaptarse: los
abogados tendrán que desarrollar una mayor comprensión sobre IA aplicada a
la salud para poder litigar con eficacia en este terreno emergente.
Para la realidad argentina, estas conclusiones son especialmente pertinentes.
La ausencia de jurisprudencia y regulación específica obliga a médicos e
instituciones a adoptar estándares de gobernanza inspirados en experiencias
internacionales y, al mismo tiempo, a trabajar con aseguradoras para adaptar
pólizas y coberturas. Estas tienen un rol estratégico: acompañar a los
asegurados en la implementación de protocolos de trazabilidad, promover
auditorías periódicas, asesorar en la negociación de contratos con proveedores
y diseñar coberturas que contemplen la interdependencia entre profesionales,
instituciones y desarrolladores tecnológicos.
En definitiva, la seguridad del paciente y la confianza social en el uso de
inteligencia artificial dependerán de cómo logremos equilibrar la innovación
tecnológica con la responsabilidad ética y legal. Gestionar de manera
responsable la responsabilidad civil no solo permitirá aprovechar el potencial de
la IA para mejorar la calidad de la atención, sino también construir un entorno
de práctica más seguro y sostenible para médicos e instituciones.

15
Resumen de recomendaciones
Actor Recomendaciones prácticas
Reguladores/Decisores
Políticos

  • Establecer requisitos de transparencia para los desarrolladores
    (entrenamiento de modelos, validación, limitaciones
    conocidas).
  • Definir estándares mínimos de auditoría y monitoreo posimplementación en hospitales.
  • Incorporar en la normativa la obligación de informar a los
    pacientes cuando se utilice IA en decisiones clínicas,
    fortaleciendo el consentimiento informado.
  • Promover políticas que exijan seguros mínimos a los
    desarrolladores y cláusulas de responsabilidad compartida en
    los contratos.
    Médicos e Instituciones de
    salud
  • Documentar en la historia clínica el uso de IA, la interpretación
    del profesional y la decisión final.
  • Incorporar en el consentimiento informado la referencia al uso
    de IA como herramienta de apoyo.
  • Mantener programas de capacitación continua y legajos
    institucionales que acrediten la formación en el uso seguro de
    estas tecnologías.
  • Realizar auditorías periódicas de desempeño, actualizaciones
    y sesgos del software.
  • Negociar contratos con proveedores que incluyan garantías de
    calidad, soporte, actualización y cláusulas de indemnización
    equilibradas.
    Abogados y asesores legales
  • Desarrollar alfabetización en IA aplicada a la salud para litigar
    eficazmente en un terreno emergente.
  • Diferenciar entre casos de software médico tradicional y de IA,


Actor Recomendaciones prácticas
evitando generalizaciones que invisibilicen matices críticos.

  • Asesorar a hospitales y médicos en la redacción de contratos
    con proveedores tecnológicos, con foco en la distribución
    justa de responsabilidades.
  • Promover marcos de cobertura compartida médico–
    institucional–tecnológica que reflejen la realidad de la práctica
    clínica contemporánea.
    Bibliografía
    Terranova C, Cestonaro C, Fava L, Cinquetti A. AI and professional liability
    assessment in healthcare. A revolution in legal medicine? Front Med
    (Lausanne). 2024 Jan 8;10:1337335.
    Cestonaro C, Delicati A, Marcante B, Caenazzo L, Tozzo P. Defining medical
    liability when artificial intelligence is applied on diagnostic algorithms: a
    systematic review. Front Med (Lausanne). 2023 Nov 27;10:1305756.
    Mello MM, Guha N. Understanding Liability Risk from Using Health Care Artificial
    Intelligence Tools. N Engl J Med. 2024 Jan 18;390(3):271-278.
    MedTech Europe. Liability Challenges in AI medical technologies. August 2022.
    https://www.medtecheurope.org/resource-library/liability-challenges-in-aimedical-technologies/
    Solaiman B, Cohen IG, editors. Research Handbook on Health, AI and the Law.
    Cheltenham, UK: Edward Elgar Publishing

Publicado por saludbydiaz

Especialista en Medicina Interna-nefrología-terapia intensiva-salud pública. Director de la Carrera Economía y gestión de la salud de ISALUD. Director Médico del Sanatorio Sagrado Corazon Argentina. 2010-hasta la fecha. Titular de gestión estratégica en salud

Deja un comentario