La revolución de la inteligencia artificial en medicina: Impacto y proyecciones futuras

A medida que las computadoras y el concepto de inteligencia artificial (IA) se desarrollaron casi simultáneamente en las décadas de 1940 y 1950, el campo de la medicina se apresuró a ver su potencial relevancia y beneficio. 1,2 En 1959, Keeve Brodman y colegas afirmaron que «la realización de interpretaciones diagnósticas correctas de los síntomas puede ser un proceso en todos los aspectos lógico y tan completamente definido que puede ser llevado a cabo por una máquina». 3 Once años después, William B. Schwartz escribió en el Journal : «La ciencia de la computación probablemente ejercerá sus principales efectos al aumentar y, en algunos casos, reemplazar en gran medida las funciones intelectuales del médico». 4 Predijo que para el año 2000, las computadoras tendrían un papel completamente nuevo en la medicina, actuando como una poderosa extensión del intelecto del médico.

Sin embargo, a finales de los años setenta, hubo decepción porque los dos principales enfoques de la informática en medicina (sistemas basados ​​en reglas y sistemas de reconocimiento de patrones o de correspondencia) no habían tenido tanto éxito en la práctica como se esperaba.

Los sistemas basados ​​en reglas se basaban en la hipótesis de que el conocimiento experto consta de muchas reglas independientes y específicas de la situación y que las computadoras pueden simular el razonamiento experto uniendo estas reglas en cadenas de deducción.

Las estrategias de correspondencia intentaban hacer coincidir las características clínicas de un paciente con un banco de “perfiles almacenados”, a los que ahora nos referimos como “guiones de enfermedad”, 5 de los hallazgos en una enfermedad determinada. Se puso más empeño en comprender el proceso de toma de decisiones clínicas en sí. 6 Se hizo evidente que las deficiencias clave en la mayoría de los programas anteriores se derivaban de su falta de conocimiento patofisiológico. Cuando se incorporó ese conocimiento, el rendimiento mejoró mucho. Sin embargo, en la década de 1980, las computadoras no estaban a la altura de la tarea. En 1987, los sistemas basados ​​en reglas habían demostrado ser útiles en una variedad de tareas comerciales, pero no habían funcionado en la medicina clínica. De hecho, Schwartz y sus colegas observaron que “el proceso es tan lento que resulta impráctico incluso con las computadoras modernas de alta velocidad”. 7 Continuaron: “Después de escuchar durante varias décadas que las computadoras pronto podrán ayudar con diagnósticos difíciles, el médico en ejercicio puede preguntarse por qué no se ha producido la revolución”. 7

Progreso en la ciencia de datos

En la década de 1950, los ordenadores eran grandes y lentos. El primer disco duro fue el IBM Model 350 Disk File, presentado en 1956. Tenía una capacidad total de almacenamiento de 5 millones de caracteres (poco menos de 5 MB). El primer disco duro con más de 1 GB de capacidad fue el IBM 3380, presentado en 1980. Tenía el tamaño de un frigorífico y pesaba 250 kg (550 lb); el precio era de 100.000 dólares. Pero la tecnología de circuitos integrados estaba mejorando. En 1965, Gordon Moore, cofundador de Fairchild Semiconductor e Intel, predijo que la cantidad de transistores en un circuito integrado y, por tanto, su potencial de potencia de cálculo, se duplicaría cada dos años. Su predicción fue correcta; este cambio en la densidad de semiconductores se conoce como la ley de Moore. Sin embargo, la ley de Moore nos dice más que el número de transistores por centímetro cuadrado, ya que otros aspectos del progreso tecnológico, como la velocidad de procesamiento y el precio de los productos electrónicos, están fuertemente vinculados a ella. Con circuitos más densos, la memoria de las computadoras y las velocidades de procesamiento aumentaron, y hoy en día, dispositivos de bolsillo que son más potentes que las supercomputadoras de los años 1980, que ocupaban habitaciones enteras, son comunes y están disponibles a una fracción del precio ( Figura 1 ).

Figura 1

Mejoras a lo largo de 50 años en la capacidad de las computadoras para almacenar y procesar datos.

El progreso en la ciencia de datos no es simplemente una cuestión de mayor rendimiento, velocidad y almacenamiento. Además del tipo de información que se encuentra en las bibliotecas, los datos generados en las organizaciones y los sistemas establecidos diseñados para recopilar y codificar datos, las nuevas formas de tecnología pueden utilizar datos generados tanto por personas como por máquinas. Estos datos suelen ser caóticos y no estructurados. Los datos ahora provienen de muchas otras fuentes, incluidas las redes sociales, los blogs, las salas de chat, los sitios de revisión de productos, las comunidades, las páginas web, el correo electrónico, los documentos, las imágenes, los videos y la música, junto con los sensores ambientales y portátiles. Muchas personas abren aspectos de sus registros médicos y datos genéticos personales para que cualquier persona pueda acceder a ellos en línea. La capacidad de almacenamiento es tan grande que se pueden almacenar y acceder fácilmente a grandes porciones del corpus de conocimiento y actividad humana registrados.Una vez que tuvimos los datos, necesitábamos algo más que datos; necesitábamos formas de identificarlos y procesarlos. Google se convirtió en el líder de las búsquedas en línea al aprovechar las búsquedas realizadas por otros para identificar lo que la gente quería saber. Esto requirió una segunda revolución: algoritmos matemáticos que pudieran rastrear rápidamente y con una fiabilidad razonable este comportamiento y ayudar al usuario final a encontrar información específica. Un almacenamiento de información más denso y una computación más rápida permitieron soluciones prácticas y en tiempo real de expresiones matemáticas que podían usarse para encontrar relaciones en los datos que antes eran incognoscibles. Como resultado, la ciencia de datos pudo florecer y ejercitar su poder de una manera que antes era imposible.Ahora podemos utilizar datos no estructurados para identificar relaciones no explicadas entre elementos de los datos, lo que permite el uso de datos dinámicos y datos con múltiples contextos que, cuando se abordan y analizan de formas no tradicionales, brindan información útil sobre el comportamiento humano. Las redes neuronales se volvieron más sofisticadas a medida que la potencia informática permitió obtener resultados funcionales en tiempo real para las consultas de datos. Los transformadores (es decir, modelos de aprendizaje profundo que ponderan de manera diferencial la importancia de cada parte de los datos de entrada) hicieron posible el procesamiento del lenguaje natural. Con este enfoque, las complejidades de los modelos informáticos subyacentes y el corpus de datos del que esos modelos podían extraer información crecieron y se volvieron más poderosos. El objetivo de una computadora que pudiera emular ciertos aspectos de la interacción humana pasó de ser un sueño imposible a una realidad.La conectividad que permite la ciencia de datos está impulsando un nuevo tipo de descubrimiento. Las personas están utilizando las redes sociales para crear sus propias conexiones entre amigos, cosas, eventos, gustos, disgustos, lugares, ideas y emociones. Los gobiernos están analizando las redes sociales para detener los actos terroristas. Las empresas están extrayendo información social y transaccional en busca de conexiones que les ayuden a descubrir nuevas oportunidades. Los científicos están construyendo redes masivas de datos conectados para extraer nuevos hallazgos, utilizando la inteligencia artificial y el aprendizaje automático. Como se explica con más detalle a continuación, estos avances han permitido el surgimiento de computadoras que pueden ayudarnos a realizar tareas que antes eran tediosas. El personaje de Star Wars C-3PO era una versión rudimentaria de los asistentes virtuales basados ​​en inteligencia artificial (por ejemplo, Siri de Apple, el Asistente de Google y Alexa de Amazon) que se han convertido en parte de nuestra vida diaria y pueden ayudarnos a realizar tareas definidas. Cualquiera que haya utilizado uno de estos dispositivos ha experimentado su comodidad (por ejemplo, indicarle al asistente virtual que “programe el temporizador del horno durante 20 minutos” para que la comida se cocine correctamente), pero también la molestia de que el asistente interrumpa una conversación con algunos datos no relacionados. La inteligencia artificial y el aprendizaje automático constituyen la fuerza impulsora detrás de estos dispositivos.

Inteligencia artificial y aprendizaje automático en medicina

En los años 1990 y principios de los años 2000, incluso con ordenadores lentos y memoria limitada, se estaba resolviendo el problema de que las máquinas pudieran realizar con éxito ciertas tareas médicas que eran repetitivas y, por lo tanto, propensas a errores humanos. Mediante una inversión sustancial de dinero y esfuerzo intelectual, la lectura por ordenador de electrocardiogramas (ECG) y recuentos diferenciales de glóbulos blancos, el análisis de fotografías de retina y lesiones cutáneas y otras tareas de procesamiento de imágenes se han convertido en una realidad. Muchas de estas tareas asistidas por aprendizaje automático han sido ampliamente aceptadas e incorporadas a la práctica diaria de la medicina. El desempeño de estas tareas de las máquinas no es perfecto y a menudo requiere una persona capacitada para supervisar el proceso, pero en muchos casos es lo suficientemente bueno, dada la necesidad de una interpretación relativamente rápida de las imágenes y la falta de experiencia local.Sin embargo, el uso de la IA y el aprendizaje automático en medicina se ha expandido más allá de la lectura de imágenes médicas. Los programas de IA y aprendizaje automático han entrado en la medicina de muchas maneras, incluyendo, pero no limitado a, ayudar a identificar brotes de enfermedades infecciosas que pueden tener un impacto en la salud pública; combinar resultados clínicos, genéticos y de muchos otros laboratorios para identificar enfermedades raras y comunes que de otro modo podrían haber escapado a la detección; y ayudar en las operaciones comerciales de los hospitales ( Figura 2 ). En los próximos meses, la Revista publicará otros artículos de revisión que analizan selectivamente la IA y el aprendizaje automático en medicina en 2023. Pero antes de que aparezca el primer artículo, en aproximadamente un mes, es importante considerar las cuestiones primordiales que deben considerarse a medida que aprendemos a trabajar de la mano con las máquinas.Figura 2

Espectro de la Inteligencia Artificial (IA) en Medicina.

Cuestiones pendientes de la IA y el aprendizaje automático en medicina

Establecimiento de normas

Como se señaló anteriormente, el uso de la IA y el aprendizaje automático ya se ha convertido en una práctica médica aceptada en la interpretación de algunos tipos de imágenes médicas, como electrocardiogramas, radiografías simples, tomografías computarizadas (TC) y resonancias magnéticas (RM), imágenes de la piel y fotografías de retina. Para estas aplicaciones, se ha demostrado que la IA y el aprendizaje automático ayudan al proveedor de atención médica al señalar aspectos de las imágenes que se desvían de la norma.Esto nos lleva a una pregunta clave: ¿cuál es la norma? Esta simple pregunta muestra una de las debilidades del uso de la IA y el aprendizaje automático en la medicina tal como se aplica en gran medida hoy en día. ¿Cómo influye el sesgo en la forma en que se “enseñaron” los algoritmos de IA y aprendizaje automático en su funcionamiento cuando se aplican en el mundo real? ¿Cómo podemos incorporar valores humanos a los algoritmos de IA y aprendizaje automático para que los resultados obtenidos reflejen los problemas reales a los que se enfrentan los profesionales de la salud? ¿Qué cuestiones deben abordar los reguladores para garantizar que las aplicaciones de IA y aprendizaje automático funcionen como se anuncia en entornos de uso múltiple? ¿Cómo se deben modificar los enfoques clásicos de inferencia estadística, si es que se deben modificar, para las intervenciones que dependen de la IA y el aprendizaje automático? Estos son solo algunos de los problemas que enfrentamos; la serie “IA en medicina” abordará algunos de estos asuntos.

El papel de la IA y el aprendizaje automático en la práctica clínica

Dejando a un lado los inconvenientes, hay mucho que prometer. Si los algoritmos de inteligencia artificial y aprendizaje automático se pueden reducir a “aplicaciones” clínicamente útiles, ¿serán capaces de abrirse camino a través de montañas de datos clínicos, genómicos, metabolómicos y ambientales para ayudar a un diagnóstico de precisión? ¿Pueden las aplicaciones impulsadas por la inteligencia artificial y el aprendizaje automático convertirse en su escriba personal y liberar el tiempo que dedica a la documentación para que pueda pasar más tiempo con los pacientes? ¿Pueden las aplicaciones incitarlo a hacer una pregunta clave que podría ayudar en el diagnóstico diferencial? ¿Pueden burlar a los algoritmos de inteligencia artificial y aprendizaje automático, utilizados por las compañías de seguros, que le dificultan solicitar una tomografía computarizada por emisión de positrones o cobrar el reembolso por el tiempo que pasó con un paciente y su familia? En cada área se han logrado avances. ¿Es lo suficientemente bueno?

Investigación clínica sobre aplicaciones de inteligencia artificial y aprendizaje automático

La evaluación de los avances tiene sus propios problemas. En la investigación clínica tradicional, cuando el progreso toma la forma de un nuevo medicamento para una enfermedad definible, los estándares para probar y aceptar el medicamento como un avance están bien establecidos. Cuando la intervención es un algoritmo de inteligencia artificial y aprendizaje automático en lugar de un medicamento, la comunidad médica espera el mismo nivel de seguridad, pero los estándares para describir y probar las intervenciones de inteligencia artificial y aprendizaje automático están lejos de ser claros. ¿Cuáles son los estándares que debe cumplir la investigación intervencionista basada en la IA y el aprendizaje automático, si se va a aceptar una aplicación como el estándar que dará forma, reformará y mejorará la práctica clínica? Esa investigación tiene tres componentes. Primero, la investigación debe estar estructurada para responder a una pregunta clínicamente significativa de una manera que pueda influir en el comportamiento del profesional de la salud y conducir a una mejora en los resultados para un paciente. Segundo, la intervención debe ser definible, escalable y aplicable al problema en cuestión. No debe estar influenciada por factores ajenos al dominio del problema y debe producir resultados que se puedan aplicar a problemas clínicos similares en una amplia gama de poblaciones y prevalencias de enfermedades. ¿Puede la atención impulsada por la IA y el aprendizaje automático cumplir con estos estándares (los que exigimos de una nueva intervención terapéutica o prueba de diagnóstico basada en laboratorio) o necesitamos tener un conjunto único de estándares para este tipo de intervención? Tercero, cuando los resultados de la investigación se aplican de tal manera que influyan en la práctica, el resultado debe ser beneficioso para todos los pacientes en consideración, no solo para aquellos que son similares a aquellos con características y hallazgos con los que se entrenó el algoritmo. Esto plantea la cuestión de si dichos algoritmos deberían tener en cuenta la salud pública (es decir, el uso de recursos escasos) cuando se hacen recomendaciones de diagnóstico o tratamiento y en qué medida dichas consideraciones forman parte del proceso de toma de decisiones del algoritmo. Tales consideraciones éticas han involucrado a los profesionales de la salud y al público durante siglos. 8

Uso de aplicaciones de inteligencia artificial y aprendizaje automático en la realización de investigaciones clínicas

La IA y el aprendizaje automático tienen el potencial de mejorar y posiblemente simplificar y acelerar los ensayos clínicos mediante un reclutamiento y emparejamiento más eficiente de los participantes del estudio y análisis más exhaustivos de los datos. Además, es posible crear grupos de control sintéticos haciendo coincidir los datos históricos con los criterios de inscripción del ensayo objetivo. La IA y el aprendizaje automático también se pueden utilizar para predecir y comprender mejor los posibles eventos adversos y las subpoblaciones de pacientes. Parece posible que la IA pueda generar «pacientes sintéticos» para simular resultados diagnósticos o terapéuticos. Pero el uso de aplicaciones e intervenciones de IA y aprendizaje automático introduce un conjunto de incertidumbres que deben abordarse tanto en los protocolos como en la presentación de informes de ensayos clínicos. 9,10En esta serie sobre IA en medicina, tenemos previsto abordar los avances, los obstáculos, las promesas y la promulgación en la interfaz entre la IA y la medicina. Es importante entender que se trata de un campo que avanza rápidamente, por lo que, hasta cierto punto, lo que publiquemos puede tener la resolución de una instantánea del paisaje tomada desde un tren bala. En concreto, las cosas que suceden en las proximidades temporales cercanas a la publicación pueden verse borrosas porque están cambiando rápidamente, pero el fondo distante estará razonablemente bien enfocado. Un área de progreso sustancial en IA y aprendizaje automático (es decir, en primer plano, en nuestra analogía de la instantánea) es la aparición de chatbots sofisticados que están disponibles para su uso por parte del público en general. Aunque los chatbots se han introducido recientemente a un nivel de sofisticación que podría tener un impacto en la práctica médica diaria, creemos que su potencial para influir en la forma en que se practica la medicina es sustancial y que seríamos negligentes si no abordáramos ese potencial, así como los posibles problemas relacionados con su uso.

Chatbots en medicina

En este número de la revista , un artículo de Lee et al. 11 presenta el chatbot GPT-4 y sus aplicaciones médicas. El artículo fue escrito por un equipo de investigadores que trabajan para las entidades que crearon GPT-4, un chatbot con una amplia formación que incluye conocimientos médicos. Antes de ver el futuro, será útil echar un vistazo rápido al pasado. Un chatbot es un programa informático que utiliza IA y procesamiento del lenguaje natural para comprender preguntas y automatizar las respuestas a ellas, simulando una conversación humana. Un chatbot médico muy temprano, ELIZA, fue desarrollado entre 1964 y 1966 por Joseph Weizenbaum en el Laboratorio de Inteligencia Artificial del Instituto Tecnológico de Massachusetts ( Figura 3 ).

Figura 3

Chatbots en medicina.

La tecnología de chatbots está ahora prácticamente en todas partes, desde el servicio de atención al cliente hasta los asistentes virtuales personales, como se ha señalado anteriormente. Con las potentes computadoras disponibles en la actualidad, los modelos de lenguaje tienen cientos de miles de millones de parámetros que se pueden utilizar para generar texto nuevo. Esta capacidad, combinada con una cantidad casi infinita de datos disponibles (de Internet) con los que entrenar la red, significa que los modelos de lenguaje pueden hacer cada vez más, como lo demuestra el Chat Generative Pre-trained Transformer o ChatGPT.ChatGPT es un modelo de lenguaje entrenado por OpenAI. Se presentó públicamente en noviembre de 2022 ( https://openai.com/blog/chatgpt ) y ha demostrado una nueva forma en que las máquinas impulsadas por IA pueden interactuar con las personas. Los chatbots de nueva generación prometen ser un escriba y un entrenador, pero con algunas advertencias clave. Muchas de estas advertencias fueron descritas por los desarrolladores de ChatGPT en su lanzamiento, pero merecen una consideración especial cuando se utilizan en medicina, como detallan Lee et al. 11 En su iteración actual, la nueva generación de chatbots puede ayudar con el problema de la documentación médica y responder preguntas clave que podrían ayudar en el diagnóstico diferencial, como se señaló anteriormente. Pero es difícil saber si las respuestas proporcionadas se basan en hechos apropiados. La responsabilidad de revisar el trabajo del chatbot recaería en los médicos, al igual que los médicos deben revisar las notas clínicas que dictan. La dificultad es que dicha revisión puede estar más allá de la experiencia del usuario. Es probable que la corrección de una nota sobre la visita de un paciente esté dentro del ámbito de experiencia del proveedor, pero si se le hace una pregunta al chatbot como una «consulta en la acera», la veracidad de la respuesta puede ser mucho más difícil de determinar.La aplicación con mayor potencial y mayor preocupación es el uso de chatbots para realizar diagnósticos o recomendar tratamientos. Un usuario sin experiencia clínica podría tener problemas para diferenciar los hechos de la ficción. Ambas cuestiones se abordan en el artículo de Lee y sus colegas, 11 quienes señalan las fortalezas y debilidades del uso de chatbots en medicina. Dado que los autores han creado una de esas entidades, es probable que exista sesgo.Sin embargo, creemos que los chatbots se convertirán en herramientas importantes en la práctica médica. Como cualquier buena herramienta, pueden ayudarnos a hacer mejor nuestro trabajo, pero si no se utilizan adecuadamente, tienen el potencial de causar daños. Dado que las herramientas son nuevas y difíciles de probar con el uso de los métodos tradicionales mencionados anteriormente, la comunidad médica aprenderá a usarlas, pero debemos aprender. No hay duda de que los chatbots también aprenderán de sus usuarios. Por lo tanto, anticipamos un período de adaptación tanto por parte del usuario como de la herramienta.

Conclusiones

Creemos firmemente que la introducción de la IA y el aprendizaje automático en la medicina ha ayudado a los profesionales de la salud a mejorar la calidad de la atención que pueden ofrecer y promete mejorarla aún más en el futuro cercano y en el futuro. Así como la adquisición por computadora de imágenes radiográficas eliminó la sala de archivos de rayos X y las imágenes perdidas, la IA y el aprendizaje automático pueden transformar la medicina. Los profesionales de la salud descubrirán cómo trabajar con la IA y el aprendizaje automático a medida que crezcamos junto con la tecnología. La IA y el aprendizaje automático no dejarán a los profesionales de la salud fuera del negocio; por el contrario, permitirán que los profesionales de la salud hagan mejor su trabajo y dejen tiempo para las interacciones entre humanos que hacen de la medicina la profesión gratificante que todos valoramos.

Publicado por saludbydiaz

Especialista en Medicina Interna-nefrología-terapia intensiva-salud pública. Director de la Carrera Economía y gestión de la salud de ISALUD. Director Médico del Sanatorio Sagrado Corazon Argentina. 2010-hasta la fecha. Titular de gestión estratégica en salud

2 comentarios sobre “La revolución de la inteligencia artificial en medicina: Impacto y proyecciones futuras

  1. Como escritor de Blogs puedo decir que la información de este blog es realmente sobresaliente, aunque a veces es algo técnico tiene muchas partes aptas para todo público. En términos generales, los temas son excelente y los que me he leído me han gustado. Hay una cosa que podrían mejorar un poco la experiencia y la indexación. El colocar tablas de contenidos en los artículos y que el sitio web tenga una forma fácil de ver los artículos publicados (un índice).

    ¡Saludos!

    Me gusta

Deja un comentario