Mello MM. Trotsvuk AA. Djiberou Mahamadou JD
Abstract
Las aseguradoras de salud y las organizaciones de proveedores de atención médica utilizan cada vez más herramientas de inteligencia artificial (IA) en los procesos de autorización previa y reclamaciones. La IA ofrece muchos beneficios potenciales, pero su adopción ha suscitado inquietudes sobre el papel de los «humanos en el circuito», la comprensión de la IA por parte de los usuarios, la opacidad de las determinaciones algorítmicas, el bajo rendimiento en ciertas tareas, el sesgo de automatización y las consecuencias sociales no deseadas.
Hasta la fecha, la gobernanza institucional por parte de las aseguradoras y los proveedores no ha superado plenamente el reto de garantizar un uso responsable. Esto ha llevado a un creciente debate sobre cómo integrar adecuadamente la IA en los procesos médicos sin comprometer la ética ni la confianza del público. Las herramientas de IA, si bien pueden aumentar la eficiencia, también plantean dilemas sobre la transparencia y la responsabilidad en la toma de decisiones. La incertidumbre acerca de la manera en que se generan las decisiones algorítmicas puede minar la confianza de los pacientes y profesionales en el sistema.
Sin embargo, se podrían tomar varias medidas para ayudar a obtener los beneficios del uso de la IA y, al mismo tiempo, minimizar los riesgos. Basándonos en el trabajo empírico sobre el uso de la IA y en nuestras propias evaluaciones éticas de las herramientas de cara al proveedor como parte del proceso de gobernanza de la IA en Stanford Health Care, examinamos por qué la revisión de la utilización ha atraído tanta innovación en IA y por qué es un desafío garantizar un uso responsable de la IA. La exploración y discusión activa de estos conceptos dentro de las instituciones de salud es fundamental para construir un futuro más seguro y controlado en la aplicación de la tecnología.
Concluimos con varias medidas que se podrían tomar para ayudar a obtener los beneficios del uso de la IA y, al mismo tiempo, minimizar los riesgos. La necesaria implementación de auditorías regulares de las herramientas de IA, la capacitación constante de los profesionales en el uso responsable de estas tecnologías y la creación de canales de comunicación transparentes entre aseguradoras, proveedores y pacientes son algunos de los pasos cruciales a seguir.
Si bien la inteligencia artificial (IA) es muy prometedora para mejorar la atención médica, dos tercios de los adultos estadounidenses tienen poca confianza en que se utilice de forma responsable. La desconfianza en la tecnología se asiente a otros problemas, como el miedo al reemplazo de profesionales humanos en la atención médica por sistemas automatizados. Esto no solo genera resistencia a la adopción de nuevas tecnologías, sino que también provoca una incertidumbre general respecto a cómo se manejarán los datos personales y la información médica sensible. 1 La confianza en las aseguradoras de salud también es baja: los consumidores las consideran uno de los sectores menos confiables del sistema de salud. 2 Es en este contexto de desconfianza donde el uso de tecnologías como la IA por parte de las aseguradoras de salud ha generado controversia y litigios, poniendo en relieve la necesidad urgentemente de una regulación más estricta y de prácticas éticas en su implementación. 3
Tanto las aseguradoras como los proveedores de atención médica pueden usar IA. Los proveedores suelen comercializar herramientas de IA a las aseguradoras para la revisión de utilización, los procesos que estas utilizan para decidir si aprueban el pago de los servicios recomendados por el médico de un afiliado. La revisión de utilización implica tres actividades en las que se puede utilizar la IA: autorización previa (aprobación previa de cirugías, procedimientos y medicamentos), revisión concurrente (evaluación de la necesidad continua de hospitalización, atención postaguda o medicación) y decisiones sobre reclamaciones por servicios ya prestados. Los proveedores también comercializan herramientas a los proveedores de atención médica que buscan estrategias para prevalecer en los procesos de revisión de utilización de las aseguradoras. La adopción de herramientas de IA por parte de ambos grupos se ha denominado una «carrera armamentística» de la IA. 8
En este informe de políticas, analizamos por qué la revisión de la utilización ha atraído tanta innovación en IA y por qué es difícil garantizar su uso responsable. Nos basamos en trabajos empíricos sobre el uso de IA entre aseguradoras de salud y proveedores de atención médica, incluyendo evaluaciones éticas que hemos realizado de herramientas de atención al paciente como parte del proceso de gobernanza de IA en Stanford Health Care, en Stanford, California.
El próspero mercado de la IA
La adopción de herramientas de IA por parte de las aseguradoras ha sido drástica. Una encuesta realizada en 2024 por la Asociación Nacional de Comisionados de Seguros a noventa y tres grandes aseguradoras de salud en dieciséis estados reveló que el 84 % utilizaba IA para fines operativos.<sup> 9 </sup> Las aseguradoras utilizan IA para muchas funciones más allá de la revisión de la utilización, como la detección de fraudes, la gestión de enfermedades, el marketing, la fijación de precios y el ajuste de riesgos. El 37 % de las aseguradoras informa que utiliza IA (actualmente o dentro de un año) para la autorización previa; el 44 % para la adjudicación de reclamaciones; y el 56 % para las actividades de gestión de la utilización, en sentido amplio.<sup> 9</sup> En el mercado de grandes empleadores, el 70 % utiliza o explora el uso de IA para la autorización previa.<sup> 9</sup>
Las estimaciones del uso de IA por parte de los proveedores de atención médica son escasas, pero una revisión de las ofertas en línea de los proveedores de IA en junio de 2025 reveló un mercado sólido ( gráfico 1 ). Aunque algunas plataformas colaborativas emergentes apuntan a cerrar la brecha entre pagadores y proveedores a través de intercambios de datos estandarizados y marcos de decisión compartidos, la mayoría de las soluciones se dirigen a las aseguradoras o a los proveedores. Las ofertas incluyen herramientas de IA generativas y predictivas. Las herramientas de IA generativas utilizan modelos de lenguaje grandes (similares a ChatGPT) para crear texto novedoso en respuesta a una solicitud ingresada por el usuario. Las herramientas de IA predictivas utilizan técnicas de aprendizaje automático para pronosticar un resultado (por ejemplo, días de atención requeridos o la probabilidad de que se revoque una denegación si se apela) o clasificar algo en una categoría (por ejemplo, cumple o no con los criterios de cobertura).
| Producto y proveedor, por tipo de usuario | Tipo de IA | Proceso dirigido | Función anunciada |
| Aseguradoras | |||
| UM inteligente (AuthAI) de Availity | Profético | Autorización previa | Clasifica las solicitudes para permitir la aprobación y el enrutamiento basados en reglas en tiempo real |
| Inteligencia clínica de Cohere Health | Profético | Autorización previa | Aprueba automáticamente solicitudes rutinarias de cardiología y musculoesqueléticas según los datos de la política. |
| nH Predict de Optum | Profético | Revisión concurrente | Pronostica la duración de la estancia postaguda y el momento óptimo del alta |
| Revisión automática de InterQual de Optum | Profético | Revisión concurrente | Examina los signos vitales y los análisis de laboratorio según los criterios de necesidad médica. |
| Facetas TriZetto de Cognizant | Profético | Adjudicación de reclamaciones | Aplica la lógica de pago y las modificaciones de políticas a las reclamaciones antes del pago. |
| Suite de precisión de pagos de Cotiviti | Profético | Auditoría pospago | Marca y recupera pagos indebidos mediante análisis de datos retrospectivos |
| Soluciones de integridad de pagos de Optum | Profético | Auditoría pospago | Puntuaciones reclamadas para identificar anomalías de facturación y riesgos de fraude |
| Alcance de pago de Codoxo | Ambos | Auditoría pospago | Scores afirma identificar anomalías de facturación y riesgos de fraude y explica por qué |
| Proveedores | |||
| eScan Insurance Discovery de TransUnion Healthcare | Profético | Comprobación de elegibilidad | Encuentra cobertura oculta o secundaria |
| Administrador de autorizaciones de Waystar | Ambos | Autorización previa | Determina la necesidad de autorización; extrae datos de EHR para completar y enviar formularios |
| Autorizaciones inteligentes de Notable Health | Generativo | Autorización previa | Extrae datos de EHR para completar y enviar formularios |
| Asesor de Autorización de AKASA | Generativo | Autorización previa | Extrae datos de EHR; el chatbot encuentra respuestas a preguntas sobre necesidad médica mediante EHR |
| Plataforma PA de Myndshft | Generativo | Autorización previa | Completa los campos del formulario narrativo; valida las reglas del pagador |
| Doximity GPT de Doximity | Generativo | Autorización previa | Borradores de cartas de solicitud y apelaciones |
| Asistente de apelaciones de denegaciones de Epic | Generativo | Apelaciones denegatorias | Redacta cartas de apelación para reclamaciones denegadas |
| Probabilidad de pago por parte de Epic | Profético | Apelaciones denegatorias | Califica las denegaciones según la probabilidad de anulación |
| Plataforma de apelaciones de IA de Counterforce Health | Generativo | Apelaciones denegatorias | Lee cartas de negación y redacta apelaciones. |
| Altitud creada por Waystar | Generativo | Apelaciones denegatorias | Genera paquetes de apelación específicos para el pagador |
| Anomalía por Anomaly Insights | Profético | Apelaciones denegatorias | Analiza las cartas de explicación de beneficios y clasifica las oportunidades de apelación. |
| Plataformas colaborativas | |||
| Análisis de tarjetas doradas de Rhyme | Profético | Autorización previa | Identifica a los proveedores de bajo riesgo para renunciar a futuras autorizaciones previas |
| Libélula de XSOLIS | Ambos | Revisión concurrente | Calcula la puntuación compartida entre pagador y proveedor; redacta notas de revisión de utilización |
FUENTE Análisis de los autores de los sitios web de los proveedores de IA, junio de 2025. NOTAS La IA «predictiva» utiliza técnicas de aprendizaje automático para pronosticar un resultado o clasificar algo en una categoría. La IA «generativa» genera texto novedoso. «Autorización previa» se refiere a la solicitud de un proveedor para la aprobación de la cobertura antes de proporcionar un servicio de atención médica. «Revisión concurrente» es la revisión de la aseguradora de una solicitud del proveedor después del inicio de la atención. «Adjudicación de reclamaciones» es la revisión de la aseguradora de una reclamación del proveedor después de que se haya prestado un servicio. «Auditoría posterior al pago» se refiere a la búsqueda de una aseguradora de fraudes, errores y otras anomalías en las solicitudes de pago del proveedor. «Verificación de elegibilidad» es una búsqueda del proveedor para la cobertura de un servicio. EHR es un registro de salud electrónico.
Algunas herramientas de IA para aseguradoras ayudan a evaluar rápidamente las solicitudes de autorización previa, a la vez que afirman mejorar la precisión y la consistencia. Estos sistemas verifican los requisitos de autorización previa, extraen información clínica de los historiales clínicos electrónicos (HCE) y comparan las solicitudes con los criterios de necesidad médica. En casos de fácil aprobación, los médicos pueden proceder de inmediato; los casos complejos se remiten a revisores humanos. Otras herramientas para aseguradoras realizan una revisión concurrente, que puede implicar la comparación de los datos del paciente con los criterios de cobertura o la previsión de resultados como la duración de la estancia hospitalaria. Las herramientas generan recomendaciones y redactan correspondencia basándose en estas determinaciones. Las herramientas para proveedores buscan reducir la carga administrativa mediante la recopilación de documentación clínica y el llenado de formularios de seguros. Cuando se producen denegaciones, la IA puede identificar qué reclamaciones tienen más probabilidades de ser pagadas si se apelan y redactar cartas de apelación citando información clínica relevante y el lenguaje de la póliza.
El potencial de la IA para mejorar los procesos de seguros
A pesar de las efusivas afirmaciones de marketing, aún no se ha encontrado evidencia rigurosa de que las herramientas de IA mejoren la eficiencia, la precisión, la experiencia del personal u otras métricas. Sin embargo, existen buenas razones para el interés en la IA. Los procesos de revisión de la utilización son engorrosos para todos los involucrados, a menudo de maneras que parecen susceptibles de mejora mediante la automatización. 7 , 11 La autorización previa, en particular, ha atraído la atención debido a su uso extendido con el tiempo, su contribución al agotamiento de los proveedores, el impacto en la recepción oportuna de la atención y los altos costos administrativos tanto para los proveedores como para las aseguradoras. 12– 14 Investigaciones que datan de hace más de una década han descubierto que la autorización previa está sujeta a altas tasas de rechazo y altas tasas de revocación en apelación. 15 , 16 Un estudio de los planes Medicare Advantage, por ejemplo, encontró una tasa de revocación de casi el 82 por ciento. 17
También existen problemas bien conocidos con las decisiones de las aseguradoras sobre reclamaciones. El volumen masivo de reclamaciones presentadas requiere automatización, 18 pero algunos algoritmos antiguos, que no son de IA, han cometido errores a gran escala. 16 , 19 Las tasas de denegación alcanzaron el 20 por ciento en un estudio reciente de los planes del Mercado de la Ley de Atención Médica Asequible; menos del 1 por ciento fueron apelados, pero casi la mitad de las apelaciones resultaron en reversión. 20 Una investigación de los planes Medicare Advantage concluyó que casi una de cada cinco denegaciones debería haber sido aprobada y que los errores fueron cometidos tanto por sistemas automatizados como por revisores humanos (quienes, por ejemplo, pasaron por alto documentos en archivos voluminosos). 16 Finalmente, las denegaciones de reclamaciones culminan en cartas de «Explicación de Beneficios» que a menudo confunden a los consumidores con un lenguaje vago e incomprensible, 21 quizás contribuyendo a las bajas tasas de apelación.
La IA podría abordar estos problemas de tres maneras. En primer lugar, existen oportunidades para automatizar completamente la autorización previa y la aprobación de reclamaciones. A pesar de la preocupación por las denegaciones, la mayoría de las solicitudes se aprueban. Los planes Medicare Advantage, por ejemplo, aprobaron más del 93 % de las solicitudes de autorización previa durante el período 2019-23.<sup> 17</sup> La autorización previa y la determinación de reclamaciones a menudo implican tareas para las que la IA es muy adecuada, como comparar las normas de cobertura con el texto de una solicitud o extraer información directa del historial clínico electrónico.<sup> 22</sup> Que la IA apruebe solicitudes claramente admisibles podría reducir el estrés y los retrasos, a la vez que permitiría a los revisores médicos de las aseguradoras centrarse en solicitudes más complejas.<sup> 23</sup>
En segundo lugar, la IA podría reducir los casos en que las solicitudes de autorización previa o pago de los proveedores se deniegan debido a información incompleta o mal explicada. 22 Las aseguradoras no tienen acceso directo a los registros médicos electrónicos (HME); dependen de resúmenes de la situación clínica preparados por el personal de los proveedores. Quienes preparan estas solicitudes a menudo carecen de formación clínica y pueden tener dificultades para localizar información relevante en el HME. Las herramientas de IA pueden extraer automáticamente información básica del HME, permitir que el personal pregunte a un chatbot por qué un servicio es médicamente necesario, vincular a documentos de respaldo del HME y verificar la integridad antes del envío. Ciertamente, las herramientas de IA generativa tienen limitaciones significativas, incluyendo su tendencia a «alucinar» o inventar información y presentarla como un hecho en su resultado. 24 Una solicitud de autorización previa generada por IA, por ejemplo, podría incluir información falsa sobre el diagnóstico del paciente. 25 Sin embargo, dado el rápido ritmo al que los modelos de IA generativa están mejorando, 26 y la aparición de nuevos métodos para minimizar el riesgo de alucinaciones no detectadas, 27 las aplicaciones de IA generativa para tareas relacionadas con los seguros son prometedoras.
En tercer lugar, la IA puede reducir las barreras para apelar las denegaciones, ayudando a rectificar las denegaciones erróneas y fortaleciendo los incentivos de las aseguradoras para evitarlas. Las herramientas predictivas orientadas a los proveedores ayudan a estos a asignar recursos escasos para la tramitación de apelaciones al identificar las denegaciones con mayor probabilidad de reversión según la información sobre el pagador y el servicio. Las herramientas de IA generativa ayudan a los proveedores a redactar cartas de apelación localizando información clínica relevante en el historial clínico electrónico (HCE) y resumiéndola de forma que aborde la objeción de la aseguradora. Si las aseguradoras utilizaran IA generativa para redactar cartas de Explicación de Beneficios más comprensibles para los pacientes, esto también podría impulsar más apelaciones. Las herramientas de IA generativa también podrían ayudar a las aseguradoras a responder a las nuevas normas de los Centros de Servicios de Medicare y Medicaid (CMS) que exigen que se proporcionen razones específicas para las denegaciones de autorización previa. 28
Problemas que surgen en los usos actuales de las herramientas de IA
Han surgido varias grietas en la visión de un ecosistema de seguros impulsado por IA y que funcione bien.
Desdentado ‘Humanos en el circuito’
Una preocupación importante es que se estén produciendo denegaciones injustificadas debido a la falta de una revisión humana significativa de las recomendaciones realizadas por la IA. Los planes de salud afirman sistemáticamente que ninguna solicitud se deniega sin haber sido revisada por un profesional médico, como lo exige la ley para los planes Medicare Advantage y muchos planes regulados por los estados. 29 Sin embargo, la minuciosidad de estas revisiones es cuestionable, y el tema ha dado lugar a demandas e investigaciones. 7 Las declaraciones de las aseguradoras de que la IA ha acelerado las decisiones de autorización previa de varios días, en promedio, a menos de un minuto han generado alarma. 30 Sin embargo, ese resultado puede simplemente reflejar que las aprobaciones, que constituyen la mayoría de las decisiones, están completamente automatizadas. Más relevante es el tiempo que las personas dedican a revisar los archivos que finalmente se deniegan, información que las aseguradoras no han compartido.
El contexto en el que los revisores realizan sus revisiones plantea dos inquietudes. En primer lugar, al menos algunas herramientas de IA recopilan información para los revisores, generan un resumen y les indican la evidencia que respalda la determinación de la herramienta de que la solicitud no es aprobable. 4 Si bien es útil para agilizar las búsquedas en registros voluminosos, esto presenta un caso muy diferente a si un revisor médico abriera un archivo sin una noción preconcebida de la respuesta correcta. Puede desencadenar un sesgo de anclaje: la tendencia humana bien documentada a confiar demasiado en las impresiones iniciales y la información temprana. En segundo lugar, las culturas organizacionales pueden ejercer presión sobre los revisores para que no se desvíen de las recomendaciones de la IA. Algunas aseguradoras estaban explorando maneras de reducir las aprobaciones de autorización previa incluso antes de la llegada de la IA. 4 Las organizaciones que rastrean la productividad de los revisores (por ejemplo, las decisiones por hora) socavan los incentivos para verificar los documentos fuente y tomar otras precauciones que consumen mucho tiempo para evitar errores. En algunas empresas, se ha reportado una presión más abierta para no desviarse de las recomendaciones de la IA para mantener los costos bajos. 3 , 7 Ningún estudio ha comparado las tasas de denegaciones o denegaciones erróneas (aquellas revocadas en apelación) en revisiones con y sin IA, lo que dificulta desentrañar las posibles causas del aumento de las tasas de denegación o evaluar los impactos del uso de IA.
Baja familiaridad de los usuarios con la IA
Una preocupación relacionada se relaciona con la experiencia de los usuarios humanos de herramientas de IA. El sesgo de automatización —o la dependencia excesiva del soporte informático para la toma de decisiones— siempre es un problema en las interacciones entre humanos e IA, pero cobra especial importancia cuando los usuarios tienen poca conciencia de las debilidades de la tecnología, dificultad para detectar errores y una gran confianza en su precisión. El personal de las compañías de seguros y los hospitales que gestionan reclamaciones podría no tener un alto nivel educativo ni formación en los fundamentos de la IA. Al realizar evaluaciones éticas de las herramientas en nuestra institución, Stanford Health Care, 31, descubrimos que algunos empleados no podían explicar, ni siquiera en términos básicos, cómo la IA generativa genera resultados, desconocían que la IA podía estar sesgada y no podían identificar las posibles formas en que las herramientas pudieran presentar problemas de rendimiento. Sin embargo, expresaron una gran confianza en su capacidad para utilizar las herramientas eficazmente. ¿Serán estos usuarios capaces de formular indicaciones eficaces para los chatbots o de estar lo suficientemente familiarizados con los fallos comunes de la IA generativa como para saber qué buscar al revisar los resultados? El riesgo de una dependencia excesiva se agrava por el hecho de que el trabajo en seguros implica un gran volumen de trabajo, presión temporal y tareas repetitivas.
La falta de experiencia clínica de los usuarios puede aumentar el riesgo de que las alucinaciones no se corrijan. Especialmente si la herramienta de IA no proporciona enlaces a los documentos fuente, los usuarios pueden tener dificultades para detectar dichos errores, sobre todo porque la información alucinada suele parecer plausible. Las deficiencias de los usuarios a la hora de corregir resultados inexactos o incompletos también podrían degradar el rendimiento de la IA con el tiempo. El aprendizaje por refuerzo se utiliza a menudo para mejorar las herramientas de IA generativa, lo que significa que el software examina el texto generado por la IA que el usuario aceptó. Este método asume que el comportamiento de los usuarios proporciona buena información sobre cómo se compara el resultado generado por la IA con la respuesta real a la pregunta (por ejemplo, por qué el médico consideró necesario un tratamiento). Sin embargo, los usuarios que carecen de experiencia clínica y una sólida familiaridad con la IA podrían no ser capaces de proporcionar esta información, lo que dificulta la capacidad de aprendizaje del algoritmo.
Opacidad de las predicciones de la IA
Una tercera preocupación es que, si bien la IA podría mejorar las posibilidades de apelar las denegaciones, también podría debilitarlas. Los modelos predictivos de IA ofrecen poca información sobre qué impulsa exactamente una clasificación en particular (por ejemplo, «aprobar» o «recomendar la denegación»). Esto, junto con la falta de información sobre el rendimiento general de la herramienta, puede dificultar la impugnación de determinaciones por considerarlas irrazonables. 7 , 32 Es posible que los proveedores y los pacientes ni siquiera sepan que la IA estuvo involucrada. Menos de una cuarta parte de las aseguradoras informan a los proveedores cuando han utilizado IA, y solo la mitad cuenta con un proceso para determinar cuándo revelar el uso de IA a los pacientes. 9
Problemas de bajo rendimiento
En cuarto lugar, ha surgido una serie de inquietudes sobre el rendimiento de los modelos de IA para la toma de decisiones de seguros. Como se destacó en una demanda, cuando se utiliza IA para estimar las necesidades de atención de un paciente (como los días de atención postaguda), pero el modelo omite factores importantes (por ejemplo, el apoyo social en el hogar), las estimaciones pueden ser muy erróneas. 7 La omisión de información sobre determinantes sociales en los modelos predictivos es común porque los proveedores de IA generalmente solo tienen acceso a datos estructurados de HCE, que comúnmente carecen de información sobre determinantes sociales. Estas omisiones pueden causar un rendimiento deficiente en la predicción de las necesidades de atención de pacientes históricamente marginados. 7
Los datos de entrenamiento también pueden no ser representativos. Esto puede ser especialmente preocupante para los modelos que ayudan a los proveedores a predecir o responder a las decisiones o políticas de cobertura de las aseguradoras, ya que la combinación de planes de salud en un conjunto de datos de entrenamiento puede diferir de la que cubre a los pacientes del proveedor. Otro problema es que las políticas de cobertura de las aseguradoras cambian con frecuencia, y los datos utilizados para entrenar un modelo de IA pueden no reflejar las prácticas actuales. Además, la mayoría de las herramientas que se utilizan hoy en día se entrenaron en una época en la que revisores humanos o algoritmos basados en reglas tomaban decisiones de cobertura para las aseguradoras. ¿Serán estos modelos eficaces para predecir y responder a las determinaciones realizadas o influenciadas por la IA?
Consecuencias no deseadas
Algunas herramientas de IA se entrenan con información sobre las decisiones históricas de las aseguradoras sobre solicitudes de autorización previa o reembolso. Por ejemplo, una herramienta orientada al proveedor que predice la probabilidad de que una reclamación denegada en particular pueda ser apelada con éxito puede depender en gran medida de los resultados anteriores de las apelaciones para ese tipo de servicio. Con el tiempo, el uso de dichas herramientas podría reforzar y recompensar prácticas indeseables de las aseguradoras. Esa herramienta de probabilidad de pago, por ejemplo, despriorizará las reclamaciones para apelación cuando la aseguradora se haya mostrado recalcitrante en el pasado. Esto no es un problema de rendimiento; el modelo puede predecir con mucha precisión la probabilidad de ganar una apelación. Es un problema de incentivos perversos: los planes de salud inescrupulosos pueden desviar la atención de los proveedores de las reclamaciones que han denegado al negarse persistentemente a reconocer el mérito de las apelaciones. De manera similar, si un algoritmo de seguros se entrena con decisiones pasadas que estuvieron plagadas de errores, codificará y perpetuará esos errores.
Prácticas de gobernanza desiguales
La capacidad de las aseguradoras y las organizaciones de atención médica para abordar los posibles problemas con las herramientas de IA es cuestionable a la luz de su gobernanza desigual de la IA. Muchos hospitales no realizan una evaluación local de los modelos de IA. 33 , 34 De manera similar, más de una cuarta parte de las grandes aseguradoras no documentan la precisión de los resultados del modelo ni prueban el sesgo o los cambios en el rendimiento del modelo a lo largo del tiempo. 9 Alrededor del 40 por ciento no ha adoptado prácticas relacionadas con la rendición de cuentas por los impactos de las herramientas de IA en las áreas de autorización previa y adjudicación de reclamaciones, como tener un comité de gobernanza que revise el rendimiento de las herramientas. 9 Algunas aseguradoras describen amplios esfuerzos para garantizar el uso responsable de la IA, pero han adoptado tantas aplicaciones tan rápidamente (más de 1000 en una gran aseguradora 18 ) que es difícil imaginar cómo podrían realizar un monitoreo sólido de todas ellas. Las regulaciones federales imponen algunos estándares relacionados con el uso de la IA para la autorización previa en los planes Medicare Advantage, pero no requieren que los planes tengan un proceso para garantizar que se cumplan los estándares. Algunos estados aplican requisitos similares a los planes de salud regulados por el estado; la mayoría no lo hace.
Recomendaciones
Las aseguradoras y los legisladores reconocen la necesidad de cambiar los procesos de autorización previa. En junio de 2025, varias docenas de aseguradoras se comprometieron a reformar la autorización previa, reduciendo la gama de tratamientos que la requieren y agilizando el proceso. 35 Dado que se han comprometido a emitir al menos el 80 % de las aprobaciones de autorización previa «en tiempo real» y que las nuevas normas federales exigen plazos de respuesta rápidos para las decisiones de autorización previa, 28 la automatización sin duda formará parte de la estrategia de las aseguradoras. Abordar los aspectos problemáticos del uso de la IA también debería serlo. La implementación de las siguientes medidas sería útil.
Gobernanza institucional más fuerte
Todas las aseguradoras y organizaciones proveedoras deben contar con procesos para evaluar las herramientas de IA antes de su adopción y para supervisar su rendimiento. La cadencia con la que las organizaciones implementan nuevas herramientas debe reflejar su capacidad para gestionarlas. Dado que las herramientas relacionadas con los seguros no influyen directamente en la atención al paciente, los proveedores pueden pasar por alto la necesidad de gobernanza, pero incluso las herramientas «administrativas» pueden afectar el acceso a la atención. Al evaluar las herramientas, los proveedores deben asegurarse de que los proveedores proporcionen información sobre su rendimiento, incluyendo las debilidades y los riesgos conocidos, y preguntarles qué medidas adoptarán para ayudarles a realizar la supervisión.
Los reguladores estatales de seguros han tomado medidas útiles para exigir la prueba de los marcos de gobernanza de la IA y los protocolos de gestión de riesgos. 36 Al crear estos procesos, las aseguradoras deberían aplicar el escrutinio más riguroso a aquellas herramientas de IA que presentan el mayor riesgo de daño al sugerir erróneamente que las solicitudes de tratamiento no son aprobables. Esto puede significar que la IA simplemente no debería integrarse en algunas funciones de revisión de utilización, al menos hasta que las capacidades evolucionen más. Evaluar la necesidad médica de maneras que vayan más allá de la simple coincidencia de los criterios de cobertura con los datos estructurados de los pacientes, por ejemplo, es complejo. Ejecutar bien esta tarea puede requerir nuevas formas de procesar la información que emulen mejor cómo los humanos deciden la idoneidad del tratamiento. 37
Monitoreo de modelos para detectar bajo rendimiento
Monitorear los resultados de la IA en las decisiones de cobertura debería implicar más que examinar métricas simples como el tiempo de decisión y las tasas de aprobación, denegación y revocación. Las aseguradoras y las organizaciones proveedoras deberían examinar minuciosamente las solicitudes que se deniegan persistentemente o que implican largas demoras en la aprobación para identificar puntos en común que puedan sugerir sesgo o factores omitidos en los modelos de IA. Deberían examinar si los datos utilizados para entrenar los modelos son representativos de su propia combinación de pacientes y planes de salud. Deberían comunicarse con los proveedores de IA para confirmar que los modelos se actualicen rápidamente para reflejar los cambios en las políticas de cobertura y deberían informar a los usuarios cuando los cambios de cobertura aún no se hayan incorporado. Deberían recopilar los comentarios de los usuarios sobre las alucinaciones generativas de IA para comprender mejor el rendimiento de las herramientas. De manera similar, deberían monitorear la evidencia de que los modelos de IA están aprendiendo de maneras perversas, por ejemplo, redactando texto que es común en solicitudes de autorización previa exitosas pero que caracteriza erróneamente la situación de un paciente.
Capacitación del personal fortalecida
Los usuarios de primera línea de herramientas de IA deben recibir capacitación para comprender sus fortalezas y debilidades. Las aseguradoras y las organizaciones proveedoras deben asegurarse de que sus capacitaciones proporcionen al menos una comprensión básica de cómo un modelo genera resultados y los tipos de errores y sesgos más comunes (por ejemplo, mediante simulaciones). Comprender dónde suelen ocurrir los problemas de rendimiento puede ayudar a los usuarios a enfocar su atención donde es más probable que rinda frutos.
Revisión humana significativa
Garantizar que los revisores médicos de las aseguradoras no se vean indebidamente influenciados por los resultados de la IA es todo un reto. Las aseguradoras ponen a prueba la paciencia de los reguladores y del público cuando afirman que las denegaciones son «exclusivamente» realizadas por profesionales médicos, pero utilizan la IA para recopilar la información que estos profesionales revisan. Los reguladores deberían exigir a las aseguradoras que certifiquen que utilizan la IA únicamente para aprobar solicitudes e identificar aquellas que no pueden aprobarse automáticamente, enviándolas a profesionales médicos para su revisión sin necesidad de un análisis previo mediante herramientas de IA. No presentar a los revisores archivos procesados por IA significa ahorrar tiempo, pero realizar una revisión minuciosa y minuciosa antes de denegar la cobertura es fundamental.
Mayor transparencia
Las aseguradoras se han comprometido a proporcionar explicaciones más claras sobre las denegaciones de autorizaciones previas. 35 Esta medida es bienvenida, ya que, si bien los CMS y muchos estados exigen que los planes especifiquen los motivos de las denegaciones, las explicaciones pueden ser difíciles de descifrar. Los revisores médicos podrían utilizar IA generativa para garantizar que sus narrativas utilicen un lenguaje adaptado a los destinatarios (médicos o pacientes).
También es recomendable una mayor transparencia en las comunicaciones públicas sobre cómo las aseguradoras utilizan la IA. 23 Las aseguradoras no deberían utilizar la IA para denegaciones, a fin de poder comunicarlo claramente al público. Las aseguradoras también deberían explicar cómo el uso de la IA beneficia a los afiliados (por ejemplo, facilitando aprobaciones instantáneas) y cómo supervisan el rendimiento de las herramientas.
Finalmente, los CMS y muchos estados exigen que algunos planes de salud reporten estadísticas agregadas sobre las decisiones de autorización previa, pero no de una manera que permita extraer conclusiones sobre cómo el uso de herramientas de IA está afectando los resultados. 23 Para facilitar dicho análisis, los reguladores deberían exigir la divulgación de qué herramientas se utilizaron, cómo y cuáles fueron los resultados. Las nuevas normas de los CMS para el reporte de métricas de autorización previa deberían revisarse para exigir este nivel de claridad. 28
Conclusión
Al igual que en otros sectores, el uso de IA en la revisión de la utilización del seguro de salud podría conducir a múltiples futuros posibles, que dependen en gran medida de cómo se implementen estas tecnologías y de las decisiones éticas y operativas que se tomen.
En el escenario más prometedor, la integración de la IA facilitará a las aseguradoras la aprobación de solicitudes de forma más eficiente. Esto no solo beneficiaría a las compañías aseguradoras, sino que también mejoraría la experiencia de los proveedores de salud y pacientes. La IA podría optimizar la comunicación entre todas las partes, permitiendo un intercambio de información más rápido y preciso. Esto podría incluir la capacidad de analizar solicitudes en tiempo real, identificando patrones y soluciones que podrían haber pasado desapercibidos en un análisis manual.
Además, al liberar tiempo a los revisores de aseguradoras, estos podrían dedicar más recursos a casos complejos y difíciles, donde las solicitudes de atención podrían no estar basadas en evidencia clara. Este mayor enfoque en los casos difíciles y complicados también podría llevar a una revisión más cuidadosa y a una atención más personalizada. La IA tiene el potencial de reconocer cuándo una situación requiere intervención adicional o una evaluación más minuciosa, aumentando así la eficacia del sistema.
Esta mejora en la toma de decisiones podría resultar en mejores resultados de salud para los pacientes debido a un enfoque más basado en la evidencia, garantizando que las decisiones sobre atención médica se tomen en base a datos sólidos y no solo a juicios subjetivos. Con una inteligencia artificial debidamente diseñada y entrenada, los errores humanos podrían minimizarse considerablemente, lo que no solo beneficiaría a los pacientes, sino que también podría conducir a una disminución de costos operativos para las aseguradoras. Esto podría, a su vez, dar lugar a primas de seguros más asequibles y un acceso más equitativo a la atención médica de calidad para un mayor número de personas.
Finalmente, al adoptar la IA de forma ética y responsable, el sector de seguros de salud podría transformarse en un sistema más ágil, justo y centrado en el paciente, beneficiando a todos los involucrados en el proceso.
Sin embargo, en el escenario más sombrío, el uso de la IA podría agravar los problemas existentes en el sistema de salud. Si se aplica de manera ineficiente, podría promover procesos deficientes y hacer que la administración de la autorización previa sea más sencilla, pero a costa de una evaluación rigurosa de las solicitudes. Esto podría llevar a una expansión sin control en la utilización de procedimientos y tratamientos que no son clínicamente necesarios, lo que afectaría negativamente tanto a la calidad de la atención como a los costos de salud a largo plazo. La automatización de decisiones podría también eliminar el juicio clínico necesario en ciertas situaciones, llevando a un aumento en los errores médicos. Además, este enfoque insensible a las necesidades individuales de los pacientes podría resultar en un desinterés general por parte de los profesionales de la salud, desalentando la innovación y el desarrollo de tratamientos más personalizados que sí respondan a las verdaderas necesidades de los pacientes. Por lo tanto, es crucial que se establezcan marcos adecuados y regulaciones estrictas para evitar que el uso de la inteligencia artificial comprometa la integridad del sistema de salud.
Las aseguradoras definitivamente tienen incentivos financieros para actuar en ambas direcciones; la IA puede facilitar sus mejores y peores impulsos. En este sentido, es esencial que se implementen límites y directrices claras que no solo regulen el uso de esta tecnología, sino que también promuevan una ética en la toma de decisiones. Se necesita una regulación y gobernanza robustas para garantizar que el desarrollo y la implementación de la IA en la revisión de seguros de salud se dirijan hacia el beneficio del sistema en su conjunto, protegiendo así tanto a los asegurados como a los proveedores de salud. Esta supervisión es crucial para evitar que la carrera armamentística en el uso de inteligencia artificial tenga consecuencias destructivas, lo que podría resultar en una atención menos efectiva y en un sistema de salud que prioriza los intereses económicos sobre el bienestar de los pacientes. Además, es necesario fomentar la transparencia en los algoritmos utilizados para que haya una comprensión clara de cómo se toman las decisiones y qué factores se consideran, lo que podría contribuir a generar confianza tanto en los consumidores como en los profesionales del sector salud.