
Autores : Dr. Raja- Elie E. Abdulnour https://orcid.org/0000-0002-8053-0145, Brian Gin , MD, Ph.D. https://orcid.org/0000-0001-7655-3750y Christy K. Boscardin , Ph.D
Publicado el 20 de agosto de 2025 N Engl J Med 2025 ; 393 : 786 – 797DOI: 10.1056/NEJMra2503232 VOL. 393 NÚM. 8
Nota del blog:
Este artículo, publicado en la edición del 20 de agosto de 2025 del New England Journal of Medicine (VOL. 393, NÚM. 8), explora las estrategias educativas dirigidas a la supervisión clínica durante la integración y utilización de la inteligencia artificial en el campo médico. Las personas autoras —Dr. Raja-Elie E. Abdulnour, Brian Gin, MD, Ph.D., y Christy K. Boscardin, Ph.D.— presentan un análisis detallado sobre la importancia de formar a profesionales de la salud en el uso responsable y ético de herramientas basadas en inteligencia artificial.
A lo largo del texto se enfatiza cómo la supervisión clínica debe adaptarse a los retos y oportunidades que surgen con la adopción de tecnologías avanzadas. El artículo aborda métodos educativos, consideraciones éticas y la evaluación de competencias necesarias para garantizar una atención segura y de calidad para pacientes, en un entorno donde la toma de decisiones médicas se apoya cada vez más en sistemas inteligentes. Asimismo, se discuten métricas, citas bibliográficas y referencias relevantes que sustentan los argumentos principales y marcan tendencias actuales en la supervisión clínica asociada a inteligencia artificial.
El artículo contribuye al debate académico sobre el futuro de la educación médica y señala la necesidad de adaptar los programas de formación clínica a la realidad tecnológica, promoviendo la excelencia y la seguridad en la práctica profesional.
Las interacciones entre humanos y computadoras se han dado durante décadas, pero los recientes avances tecnológicos en inteligencia artificial (IA) médica han dado lugar a interacciones más efectivas y potencialmente más peligrosas. Si bien el entusiasmo en torno a la IA resuena con revoluciones tecnológicas previas, como el desarrollo de internet y la historia clínica electrónica,<sup> 1</sup> la aparición de los grandes modelos de lenguaje (LLM) parece diferente. Los LLM pueden simular la generación de conocimiento y el razonamiento clínico con una fluidez similar a la humana, lo que les da la apariencia de agencia y procesamiento independiente de la información.<sup> 2 </sup> Por lo tanto, la IA tiene la capacidad de transformar fundamentalmente el aprendizaje y la práctica médica. <sup>3,4</sup> Al igual que en otras profesiones,<sup> 5</sup> el uso de la IA en la formación médica podría resultar en profesionales altamente eficientes, pero menos capaces de resolver problemas de forma independiente y realizar evaluaciones críticas que sus contrapartes pre-IA.Un desafío de este tipo presenta oportunidades y riesgos educativos. La IA puede mejorar el aprendizaje basado en simulación, 6 la recuperación de conocimientos y la retroalimentación justo a tiempo 7 y puede usarse para la descarga cognitiva de tareas memorísticas. Con la descarga cognitiva, los estudiantes dependen de la IA para reducir la carga en su memoria de trabajo, una estrategia que facilita la participación mental con tareas más exigentes. 8 Sin embargo, la descarga de tareas complejas, como el razonamiento clínico y la toma de decisiones, puede conducir potencialmente al sesgo de automatización (dependencia excesiva de sistemas automatizados y riesgo de error), «descualificación» (pérdida de habilidades previamente adquiridas), «nunca adquirir habilidades» (no desarrollar competencias esenciales) y «falta de habilidades» (refuerzo de comportamiento incorrecto debido a errores o sesgos de la IA). 9 Estos riesgos son especialmente preocupantes porque los LLM funcionan como cajas negras impredecibles 10 ; generan respuestas probabilísticas con baja transparencia de razonamiento, lo que limita la evaluación de su confiabilidad. Por ejemplo, en un estudio, más de un tercio de los estudiantes de medicina avanzados no respondieron correctamente a preguntas de LLM sobre escenarios clínicos. 11La variabilidad inherente y las posibles imprecisiones de los resultados generados por la IA pueden generar incertidumbre incluso en los médicos clínicos experimentados sobre las recomendaciones de IA. Este dilema no es nuevo; refleja el desafío más amplio de afrontar problemas clínicos desconocidos. Estos momentos requieren práctica adaptativa: la capacidad de cambiar con fluidez entre un comportamiento eficiente, familiar y rutinario y una resolución de problemas innovadora y flexible. 12 El pensamiento crítico es el conjunto de herramientas cognitivas estructuradas que subyace a la práctica adaptativa ante la incertidumbre. Permite a los médicos sacar a la luz las suposiciones y participar en la autorreflexión que les ayuda a reconocer las lagunas y los sesgos de conocimiento, mitigar errores, adaptarse a nuevos problemas y generar o adoptar nuevos conocimientos (es decir, aprender). 13,14 Por lo tanto, el pensamiento crítico es fundamental para la práctica adaptativa en la era de la IA.Los profesionales clínicos que supervisan a estudiantes de medicina, en adelante denominados educadores, deben enseñar, evaluar y modelar explícitamente el pensamiento crítico para promover una práctica adaptativa a lo largo de la vida. Las partes interesadas están desarrollando estrategias sistémicas para la integración segura de la IA en la formación médica,<sup> 15</sup> pero persiste una brecha crítica: la ausencia de estrategias estructuradas que doten a educadores y estudiantes de las habilidades necesarias para interactuar críticamente con la IA. <sup>16</sup> En esta revisión, proponemos un marco que aprovecha las estrategias educativas para enseñar y evaluar el pensamiento crítico durante la supervisión clínica de estudiantes dondequiera que se utilice la IA.
Enseñar mientras se aprende
A medida que las herramientas de IA se expanden en las aulas y los entornos clínicos, los educadores se ven obligados a supervisar el uso de una tecnología en la que los alumnos pueden ser más hábiles que ellos mismos. Esta inversión de la experiencia es similar a cambios anteriores en la educación médica, como el auge del hogar médico centrado en el paciente, donde el profesorado debía enseñar, aprender y practicar simultáneamente los cambios del sistema.<sup> 17</sup> En estos contextos, el desarrollo del profesorado debe basarse en un modelo de aprendizaje compartido, ampliando la definición de educador para incluir a todos los miembros del equipo clínico (incluidos los alumnos y pacientes con conocimientos de IA) y apoyando «comunidades de práctica» reflexivas y basadas en equipos.<sup> 17</sup> Estos principios se aplican directamente a la supervisión de la IA: los educadores deben aprovechar los momentos de reflexión guiados por los alumnos e invitar a la indagación compartida sobre las capacidades y limitaciones de la IA. De esta manera, se transforma la incomodidad en una oportunidad para la gestión conjunta de la incertidumbre, <sup>18</sup> lo que sienta las bases para momentos educativos estructurados que promueven el pensamiento clínico y la alfabetización en IA para todos. Las estrategias que describimos a continuación no solo son herramientas para la enseñanza, sino también andamiajes para que los educadores desarrollen su propia comprensión de la IA. En este nuevo terreno, los profesores también son estudiantes.
Estrategias educativas para la supervisión clínica del uso de la inteligencia artificial
•El uso de inteligencia artificial (IA) para el desarrollo de prácticas expertas presenta oportunidades sin precedentes, pero también plantea riesgos, como la “descapacitación”, la “nunca capacitación” y la “competencia inadecuada”.•Los supervisores clínicos pueden tener menos experiencia con la IA que los estudiantes. El desarrollo del profesorado debe incorporar entornos de aprendizaje compartido que permitan la exploración conjunta de las capacidades y limitaciones de la IA.•La práctica adaptativa —la alternancia entre eficiencia e innovación— es fundamental en el aprendizaje basado en IA. El pensamiento crítico apoya este cambio y debe enseñarse y modelarse.•Las interacciones con IA dan lugar a momentos en los que los profesionales clínicos reciben resultados que no pueden rastrear por completo, lo que les incita a confiar. Reconocer estos momentos es esencial para el pensamiento crítico.•DEFT-AI (diagnóstico, evidencia, retroalimentación, enseñanza y recomendación para el uso de IA) es un marco estructurado para promover el pensamiento crítico y la alfabetización en IA durante las interacciones entre alumnos e IA.•Surgen dos comportamientos de uso de la IA: cíborg (estrecha interrelación entre el usuario y la IA para cada tarea) y centauro (división de tareas entre el usuario y la IA, con supervisión crítica). La práctica de la IA adaptativa requiere la capacidad de alternar entre estos comportamientos según la complejidad de la tarea y el riesgo implicado.
Promesas y peligros de la IA en el aprendizaje médico
Considere este ejemplo ficticio pero realista: durante una sesión clínica, un médico residente consulta discretamente su teléfono inteligente después de evaluar a un paciente y solicita a un LLM que genere un diagnóstico diferencial y un plan de manejo ( Figura 1 ). En cuestión de segundos, la IA presenta un argumento bien razonado y persuasivo. El estudiante inserta las recomendaciones generadas por la IA en la nota del paciente. Al observar esta interacción desde el otro lado de la sala, el educador piensa: «¿Y ahora qué? ¿Qué indicaciones le proporcionó el residente a la IA? ¿Está el residente cuestionando a la IA o aceptando sus sugerencias tal como son? ¿Se le puede confiar a esta IA el razonamiento clínico? ¿Debo intervenir y, de ser así, cómo? ¿Es este el futuro del razonamiento clínico?»Figura 1

La última pregunta del educador resalta la incertidumbre en torno a la definición del uso de la IA para asistir a los médicos. <sup>19</sup> Hoy en día, las interacciones con IA ocurren a lo largo de la jornada laboral del estudiante. Por ejemplo, los estudiantes con poca experiencia en la interpretación de trazados electrocardiográficos (ECG) a menudo se apoyan en la interpretación del ECG para orientar su evaluación clínica de un paciente con dolor torácico.<sup> 20</sup> A medida que la tecnología evoluciona, los médicos pueden delegar muchas tareas clínicas a la IA, desde la interpretación de imágenes en radiología <sup>21,22</sup> hasta la documentación clínica automatizada. <sup>23</sup>La pregunta del educador sobre si confiar el razonamiento clínico a la IA es familiar y oportuna. Mientras que las generaciones anteriores de herramientas de IA para apoyar la toma de decisiones clínicas no han logrado aumentar el razonamiento humano, 24 varios estudios han documentado el desempeño experto de los LLM en varias competencias de razonamiento clínico, incluyendo el recuerdo de conocimientos, 25,26 la solución de desafíos diagnósticos complejos, 27-29 el razonamiento probabilístico, 30 el razonamiento de gestión, 31 y la comunicación. 32 Sin embargo, es probable que durante el entrenamiento de los modelos de IA se incorporen artefactos sesgados que reflejan sesgos existentes en la atención médica 33 , una situación que tiene el potencial de perpetuar (e informar 34 ) las inequidades diagnósticas. 35 Además, los LLM confabulan 36 y exhiben sesgos cognitivos similares a los de los humanos. 37 Por lo tanto, aunque la IA puede servir como un complemento, el diagnóstico final y el plan de tratamiento deben seguir siendo un esfuerzo humano. 38,39 Centramos esta revisión en el uso de la IA en el razonamiento clínico, un área que conlleva un alto riesgo para los estudiantes y, por lo tanto, para sus futuros pacientes 40 y, por lo tanto, debe ser una prioridad para los educadores y los estudiantes. 41
Descalificación y nunca capacitación
Como se muestra en la Figura 2 , el uso de IA como sustituto del razonamiento clínico (descarga) en lugar de como apoyo del razonamiento clínico (información) plantea varios riesgos con respecto al desarrollo de habilidades: descualificación, 42 nunca desarrollar habilidades, 43 y habilidades incorrectas. La dependencia excesiva de la IA puede conducir a la pérdida de las habilidades de razonamiento clínico que el alumno acaba de comenzar a adquirir, incluida la recuperación de información, como se muestra con el uso de la búsqueda web.44 En un estudio que midió el uso de herramientas de IA, la descarga cognitiva y las habilidades de pensamiento crítico, los investigadores encontraron una correlación negativa significativa entre el uso frecuente de herramientas de IA y las habilidades de pensamiento crítico, que fue mediada por una mayor descarga cognitiva.45 Los participantes que informaron una mayor dependencia de la IA mostraron una participación reducida en la resolución independiente de problemas y el razonamiento analítico, hallazgos que indican un cambio hacia soluciones generadas por IA en lugar del esfuerzo cognitivo personal. El mismo estudio mostró que los participantes más jóvenes tenían una mayor dependencia de las herramientas de IA y puntuaciones de pensamiento crítico más bajas que los participantes de mayor edad, 45 que sugiere que el uso excesivo de la IA puede resultar en una falla en el desarrollo del pensamiento crítico. Estas preocupaciones se reflejan en un ensayo aleatorizado en el que los usuarios que adoptaron ciegamente los resultados de la IA sin un análisis crítico obtuvieron peores resultados con el uso de la IA que sin ella en tareas que requerían habilidades analíticas complejas, 5 un efecto que fue más pronunciado entre los usuarios con un rendimiento general más bajo. Los autores atribuyeron este hallazgo a una interacción poco comprometida con la IA, en la que los usuarios ignoraron su propio juicio y aceptaron los resultados del sistema.Figura 2

Habilidades incorrectas
La falta de competencias puede ocurrir cuando los estudiantes confían ciegamente ciertas tareas de razonamiento a modelos de IA inexactos o sesgados. 9,33 Por ejemplo, los médicos a quienes se les mostraron predicciones diagnósticas generadas por IA con sesgos sistemáticos, como sobreestimar la probabilidad de neumonía en pacientes mayores o insuficiencia cardíaca en pacientes con un alto índice de masa corporal, fueron más propensos a adoptar estas predicciones incorrectas. 46 Además, la asistencia de IA perjudicó desproporcionadamente a los médicos con un bajo rendimiento inicial. 47,48 De hecho, cuando la IA superó a los médicos, la combinación tuvo un rendimiento peor que la IA sola. Las explicaciones del modelo de IA no lograron mitigar estos errores, 46,47 lo que puede indicar que los médicos no pudieron reconocer ni corregir los sesgos de la IA y que la falta de competencias podría reforzarse aún más. Ignorar las recomendaciones de IA, incluso cuando son correctas, resalta una subdependencia de la IA y oportunidades perdidas para una asistencia de IA efectiva. Por el contrario, cuando los médicos superaron a la IA, la combinación de razonamiento humano e IA aumentó el rendimiento, lo que sugiere que un alto rendimiento inicial promueve una asistencia de IA efectiva y segura. 47
Estrategias educativas durante las interacciones con IA
Reconociendo estos riesgos, los programas e instituciones educativas han establecido principios para el uso de la IA en la educación médica 15 y han comenzado a definir competencias y currículos para el uso de la IA en la atención médica. 19,49,50 Sin embargo, los educadores aún enfrentan el desafío de promover el desarrollo de la práctica adaptativa durante las interacciones con IA en el momento. Aquí, proponemos un enfoque gradual para las interacciones entre estudiantes e IA que los educadores pueden usar para modelar y estructurar el pensamiento crítico para el desarrollo simultáneo de habilidades clínicas efectivas y la interacción con la IA. Como se mencionó anteriormente, promover conocimientos y habilidades fundamentales sólidos maximiza los beneficios y mitiga el riesgo del uso de la IA y, creemos, debe ser un objetivo declarado en cualquier marco para interacciones de IA efectivas y seguras. El auge de las interacciones con IA debe enmarcarse como oportunidades educativas para aumentar la alfabetización clínica y en IA. 51
Definición de interacciones de IA
El término “inteligencia artificial” abarca diversas definiciones en distintas disciplinas y contextos, que pueden agruparse en definiciones técnicas, basadas en capacidades y relacionales (véase la Tabla S1 en el
Apéndice complementario , disponible con el texto completo de este artículo en NEJM.org). De estas tres perspectivas sobre la IA, una definición relacional de la IA como la que se ilustra en la viñeta del residente-preceptor ( Figura 1 ) es particularmente útil en un contexto de educación médica. Esta definición se basa en los efectos de la IA en el razonamiento y la práctica en lugar de en su composición o capacidad técnica. 52 Una interacción de IA se define como un momento en el que, “en el contexto de una interacción particular, un artefacto computacional proporciona un juicio para informar un curso de acción óptimo y… este juicio no puede rastrearse”, lo que impulsa al usuario a considerar dar un salto de fe para confiar en el resultado de la IA. 53 Dichos saltos de fe son comunes cuando los niños usan una calculadora por primera vez o, en el caso de la IA en la clínica, cuando un estudiante de medicina solicita a la IA generativa un diagnóstico diferencial. La definición relacional de IA es independiente de los detalles tecnológicos de cómo la IA realiza su tarea. Por lo tanto, esta definición de IA se aplica a la viñeta, ya sea que la IA sea una computadora del tamaño de una habitación de la década de 1940 o un robot viajero en el tiempo del futuro. Nuestro punto aquí es que el salto de fe inherente a las interacciones de IA reconoce que los resultados generados por IA no son completamente confiables sin verificación,
54 lo que impulsa la necesidad de detenerse y evaluar críticamente la confiabilidad de la herramienta de IA y sus resultados.
Creando un momento educativo
Una vez que el educador reconoce una interacción con IA, surge la oportunidad de crear un momento educativo y cultivar el pensamiento crítico. 14 Basándose en modelos existentes 55 que aprovechan los efectos de un enfoque socrático para mejorar el pensamiento crítico, 56 el marco DEFT (diagnóstico, evidencia, retroalimentación y enseñanza) enfatiza debates estructurados de razonamiento clínico, apoyo probatorio y retroalimentación dirigida. 57 Proponemos un enfoque adaptado, “DEFT-IA”, que está diseñado para promover el pensamiento crítico y el desarrollo de prácticas adaptativas cuando un alumno, con la ayuda de IA, participa en el razonamiento clínico ( Figura 3 y Tabla S2). Aunque DEFT se desarrolló fuera del contexto de las interacciones con IA, tiene fuertes raíces en la teoría educativa, 55,57 y su enfoque de sentido común resonará con los educadores de primera línea que negocian cualquier interacción alumno-IA. A continuación, revisamos cómo cada uno de los componentes de DEFT conduce a una recomendación para interactuar con IA.Figura 3

Diagnóstico, discusión y discurso
El educador comienza por explorar el proceso de razonamiento clínico del alumno y el uso de la IA. Este paso implica preguntarle sobre su síntesis del problema clínico, que refleja la adquisición de datos y el razonamiento inductivo, y sobre el diagnóstico diferencial, que refleja su razonamiento deductivo y su acervo de conocimientos. El educador también pregunta cómo interactuó el alumno con la IA: específicamente, qué herramienta de IA y qué indicaciones utilizó, si las indicaciones de seguimiento se estructuraron para comprobar la validez de los resultados generados por la IA y cómo, y si estos influyeron, reemplazaron o ampliaron su enfoque diagnóstico.
Evidencia
En esta etapa, el educador indaga en el uso de evidencia a favor y en contra para evaluar sus conocimientos médicos y de IA, así como su aplicación. Este proceso implica evaluar su uso de marcos diagnósticos para generar hipótesis diagnósticas, su confirmación o refutación, y su capacidad para aprovechar el conocimiento para generar hipótesis alternativas, un sello distintivo de la experiencia adaptativa. El educador también puede pedirle que justifique su razonamiento con evidencia y explorar su comprensión de la patobiología en juego, la aplicación de las guías clínicas y la literatura pertinentes, y el uso de un marco de medicina basada en la evidencia.Al mismo tiempo, el educador puede involucrar al aprendiz en la autoevaluación con respecto a la alfabetización en IA. Primero, las preguntas se centran en la comprensión técnica («¿Cómo cree que la IA llegó a sus conclusiones?»), la evaluación crítica («¿Cuáles son las debilidades de esta IA? ¿Puede evaluar las capacidades y limitaciones de la aplicación de IA?») y la aplicación práctica («¿Qué problema está diseñada para resolver la IA que utilizó? ¿Esta IA apoya o impide la práctica? ¿Cuáles son las estrategias de recordatorio efectivas?»). 58,59 A continuación, los educadores deben incitar a los aprendices a identificar evidencia que respalde su uso de la herramienta de IA: «¿Qué investigación revisada por pares respalda el uso de esta herramienta para el apoyo del razonamiento clínico?» Las escalas generales de alfabetización en IA se pueden utilizar para determinar hasta qué punto el aprendiz comprende el funcionamiento de la aplicación de IA elegida. 60 El educador puede pedirle al aprendiz que razone en voz alta a través de una presentación de caso modificada sin IA para evaluar la capacidad del aprendiz para explorar nuevos problemas independientemente de la IA e identificar una posible dependencia excesiva de la IA.
Comentario
La autorreflexión guiada es fundamental en esta fase. El educador pide al alumno que, basándose en la autoevaluación, reflexione sobre las posibles oportunidades de crecimiento relevantes para el caso en cuestión y su uso de la IA. Estas oportunidades pueden incluir consideraciones diagnósticas omitidas, lagunas en el conocimiento médico relevante para el caso, y conocimientos sobre la tecnología de IA y sus aplicaciones.
Enseñanza
El educador puede basarse en la autorreflexión del alumno para proporcionar retroalimentación sobre su capacidad de razonamiento y el uso de la herramienta de IA específica en una actividad específica, así como sobre principios generales de enseñanza adaptados a sus necesidades. Esto puede implicar reforzar el proceso de razonamiento clínico, fomentar la aplicación de los principios de la medicina basada en la evidencia (incluida la evaluación crítica de la evidencia) y promover la alfabetización en IA (que se analiza más adelante).
Recomendación sobre la interacción con la IA
El educador concluye con recomendaciones que promueven simultáneamente las habilidades fundamentales y la alfabetización en IA. Salvo raras excepciones, el educador debe fomentar la práctica continua con IA. Más específicamente, el educador puede concluir que el alumno puede interactuar con cautela con la herramienta de IA bajo supervisión indirecta o directa intermitente, o que puede usar la herramienta de forma segura sin supervisión, pero con autosupervisión y educación continuas. A medida que se desarrolla este episodio, es probable que surja uno de dos comportamientos distintos de colaboración entre humanos y IA; estos comportamientos se conocen como centauro y cíborg 5 ( Figura 4 ). Los usuarios de centauro dividen estratégicamente las tareas entre ellos mismos y la IA; asignan responsabilidades en función de las fortalezas y capacidades de cada entidad, como lo haría la criatura mítica mitad humano, mitad caballo que da nombre al comportamiento. La IA se puede utilizar para la ideación, el resumen o la redacción de borradores, pero los usuarios de centauro confían en su juicio clínico para el diagnóstico y la toma de decisiones. Por el contrario, los usuarios de cíborg entrelazan su trabajo con la IA en todas las etapas de una tarea; el nombre deriva del cíborg de la ciencia ficción, que es un híbrido entre humano y máquina. Los usuarios de cíborg escriben un plan de evaluación con IA mediante indicaciones, correcciones y solicitudes de justificaciones iterativas, y luego refinan el resultado junto con la IA. Este enfoque puede ser eficiente y eficaz, especialmente para tareas bien definidas o de bajo riesgo dentro del rango de capacidades de la IA, pero conlleva el riesgo de no adquirir habilidades, perderlas o adquirirlas incorrectamente debido al sesgo de automatización. Los comportamientos de cíborg y centauro no son mutuamente excluyentes. Los usuarios deben alternar entre ellos en función de la tarea y los riesgos, un ejemplo de práctica adaptativa que puede maximizar la eficiencia y la innovación, a la vez que preserva el desarrollo de las habilidades de razonamiento clínico ( Figura 4 ).Figura 4

Los educadores pueden ayudar a los estudiantes a reflexionar sobre su estilo de interacción con la IA mediante el marco cíborg-centauro. Por ejemplo, pueden recomendar que los estudiantes adopten un enfoque centauro para tareas de alto riesgo, inciertas o de diagnóstico, especialmente aquellas fuera del uso validado de la herramienta de IA (p. ej., usar un chatbot de IA de propósito general como ChatGPT para la toma de decisiones complejas). En estos entornos, los educadores podrían animar a los estudiantes a usar la IA y validar cuidadosamente sus resultados. Por el contrario, las estrategias cíborg pueden ser apropiadas para tareas de bajo riesgo, bien definidas o creativas para las que la herramienta de IA ha demostrado un rendimiento confiable, como borradores de comunicación general o ideación inicial. En el modo cíborg, los estudiantes pueden co-construir soluciones iterativamente con la IA, siempre que mantengan una supervisión reflexiva y puedan justificar su enfoque a los educadores según sea necesario.En general, los educadores deben advertir explícitamente a los estudiantes contra la adopción pasiva de los resultados de la IA sin previo interrogatorio. En su lugar, se debe recomendar una interacción adaptativa: elegir el estilo de interacción adecuado para la tarea correcta, reflexionar críticamente sobre las sugerencias de la IA, perfeccionar las indicaciones para obtener resultados validados y modificar las interacciones clínicas con la IA a medida que evolucionan las capacidades del estudiante y cambia el contexto. Al identificar y analizar estos estilos de interacción, los educadores ayudan a los estudiantes a cultivar una práctica adaptativa con la IA que pueda crecer con los avances tecnológicos y la complejidad clínica.
Promoción de la alfabetización en IA
La alfabetización en IA comienza con la capacidad de identificar una interacción con IA como un momento en el que no se puede revertir el juicio del sistema informático y se requiere una pausa cognitiva. 62 DEFT-AI promueve la práctica adaptativa mediante el pensamiento crítico y facilita la transición fluida entre comportamientos de centauro, cíborg e independientes de la IA, según la tarea. Dos áreas clave de la alfabetización en IA en las que los educadores deben centrarse son un enfoque estructurado para la evaluación crítica de la IA y el uso eficaz de indicaciones para maximizar la precisión y la relevancia («ingeniería de indicaciones»).Una evaluación crítica de la IA requiere una evaluación estructurada de la propia herramienta y sus resultados para emitir un juicio basado en la evidencia sobre su fiabilidad. La práctica basada en la evidencia, arraigada en los principios fundamentales de la medicina basada en la evidencia, ofrece un proceso estructurado para introducir nueva evidencia en la práctica clínica. 63 El modelo de cinco pasos de Sackett (formular la pregunta, obtener la mejor evidencia, evaluar la evidencia, aplicar los hallazgos a la práctica y evaluar los resultados) proporciona un marco integral y estructurado para la práctica basada en la evidencia. 64 Incorporar dicho proceso puede ayudar a determinar la fiabilidad de la IA en una tarea específica mediante la estructuración de indagaciones independientes sobre la herramienta de IA y sus resultados.
Evaluación basada en evidencia de la herramienta de IA
Para evaluar la fiabilidad de la herramienta de IA, el primer paso es determinar la pregunta que inicia la búsqueda de evidencia. En el caso de la viñeta, el educador puede plantear la siguiente pregunta: «¿Cuál es la precisión de este LLM para el diagnóstico diferencial en pacientes adultos ambulatorios?»El segundo y tercer paso implican la adquisición y evaluación de evidencia, respectivamente, sobre la confiabilidad de la IA, como investigaciones revisadas por pares, tarjetas de puntuación de IA 65 y tablas de clasificación relacionadas (marcadores que muestran los nombres y clasificaciones de las herramientas de IA), 66,67 e información regulatoria de los sistemas de salud o los organismos gubernamentales (p. ej., la Administración de Alimentos y Medicamentos). Si bien las tarjetas de puntuación, las tablas de clasificación y los marcos regulatorios son útiles para evaluar las herramientas de IA, son insuficientes para un juicio en tiempo real en momentos educativos y actualmente tienen una utilidad limitada para los educadores. Parece razonable asumir que una evaluación integral de las herramientas de IA en sí mismas está fuera del alcance de la mayoría de los educadores y estudiantes.
Evaluación basada en evidencia de los resultados de la IA
En lugar de evaluar las herramientas de IA, los médicos están preparados para evaluar los resultados de la IA integrando sus habilidades clínicas, las preferencias de los pacientes y la evidencia de la investigación para evaluar la precisión de los resultados en un escenario clínico determinado. 64 Los médicos adquieren y evalúan de forma independiente la evidencia, como las directrices establecidas, la literatura publicada o la opinión de un consultor experto, sobre la pregunta clínica que se utilizó la IA para responder y comparan sus conclusiones con los resultados de la IA. Una concordancia fiable entre la IA y los resultados humanos puede disminuir, pero nunca eliminar, la necesidad de vigilancia humana y promover la fiabilidad en el uso de la herramienta de IA. Los estudiantes deben desarrollar estas habilidades independientes para que puedan comparar de forma fiable los resultados de la IA con los resultados de su propio razonamiento clínico con respecto a la evaluación clínica de un paciente.
Impulsando los LLM
La inducción eficaz es una habilidad crucial para maximizar la utilidad de las aplicaciones médicas basadas en LLM y realizar una evaluación significativa de ellas. 68 Al igual que cuando se solicita la opinión de un especialista sobre un paciente, la inducción de LLM determina la relevancia y la calidad de la respuesta. Al igual que en las consultas humanas, las preguntas vagas o mal formuladas pueden generar confusión o distracción. La calidad del resultado depende de la información aportada. Las características clave de una buena indicación incluyen la especificidad y la contextualización. Una consulta bien definida, en comparación con una consulta general, produce una respuesta más precisa (p. ej., «¿Cuáles son los factores de riesgo más comunes para la enfermedad coronaria?» en lugar de «Hábleme de la enfermedad cardíaca»). La contextualización ayuda a los terapeutas de habla inglesa a generar respuestas más relevantes al incorporar información de contexto (p. ej., «Soy neumólogo y atiendo a un paciente en mi clínica con asma refractario al tratamiento con inhaladores. Enumere varias hipótesis para explicar la falta de respuesta al tratamiento»). Las indicaciones sesgadas que guían al terapeuta (p. ej., «¿Cuál es el diagnóstico? Creo que es asma») pueden promover respuestas aduladoras 69 y sesgos cognitivos similares a los de los humanos 37. Por lo tanto, la práctica y la iteración con indicaciones imparciales durante las conversaciones con los terapeutas de habla inglesa son esenciales 54 .Proporcionar casos de ejemplo como parte de la indicación inicial mejora la precisión. Además, pedirle al modelo de IA que «piense en voz alta» (es decir, la indicación de cadena de pensamiento) revela el discurso de razonamiento de la IA, lo que mejora la precisión de sus resultados 70,71 y permite la evaluación del razonamiento. 72 Por ejemplo, la indicación para «generar un diagnóstico diferencial priorizado» es seguida por «explique su razonamiento». Los modelos LLM más nuevos tienen razonamiento de cadena de pensamiento integrado en su interfaz, 71 una característica que facilita la evaluación crítica de sus resultados. Cuando un resultado de IA parece inexacto o provoca una mayor reflexión, involucrar al modelo en una conversación de seguimiento, como incitarlo a explicar o revisar su respuesta, puede transformar el uso pasivo en aprendizaje activo, fortalecer el pensamiento crítico y maximizar el valor educativo de la IA.
Verificar y confiar
A pesar de los avances técnicos de las herramientas de IA, su uso aún requiere actos de fe con una cuidadosa consideración; la necesidad de verificación es fundamental en las interacciones de IA. A medida que los estudiantes de medicina utilizan cada vez más estas herramientas, a menudo como parte integral de las evaluaciones de sus pacientes, los educadores médicos deben afrontar la realidad de que las interacciones de IA llegaron para quedarse. Si bien el pensamiento crítico es el baluarte contra la descualificación, la falta de cualificación y la falta de cualificación que pueden surgir de una dependencia excesiva de la IA, 73 la oportunidad de promover el pensamiento crítico como andamiaje puede acelerar el desarrollo de habilidades de práctica adaptativa y, al mismo tiempo, mejorar la alfabetización en IA tanto de los estudiantes como de los educadores. DEFT-AI proporciona un enfoque estructurado y de sentido común para promover el pensamiento crítico durante las interacciones entre estudiantes e IA y subraya la importancia de establecer la validez de un resultado de IA como parte del proceso de uso de la IA. Los educadores tienen la responsabilidad de inculcar en sus alumnos la convicción de que la verificación es clave para el uso de la IA. Para lograr esto eficazmente, se requerirá un rediseño curricular, con una estrecha colaboración entre los desarrolladores de IA, los sistemas de salud y los programas educativos, a fin de promover las competencias en IA entre estudiantes y educadores. También debemos incluir la evaluación sistemática de las interacciones entre estudiantes e IA en los entornos educativos donde se producen. 74 Sin estructuras de gobernanza, marcos de validación rigurosos y un seguimiento continuo, el riesgo de errores y sesgos provocados por la IA puede superar los beneficios de las tecnologías de IA, lo que puede, por lo tanto, poner en peligro la educación médica en lugar de mejorarla. En última instancia, fomentar un paradigma de «verificar y confiar» es crucial para garantizar que la IA sea un complemento beneficioso de la experiencia humana.
Usar la IA resulta muy útil como COMPLEMENTO de una presunción diagnóstica pero no puede ser tomado como respuesta. Además, siempre contar con la opinión/ayuda de profesionales avezados
Dr. Jorge Wasserman
jwasserman63@gmail.com
INFORME DE CONFIDENCIALIDAD — Esta comunicación, incluyendo los archivos adjuntos a ella, son para uso exclusivo del destinatario identificado y pueden contener información privilegiada o de carácter confidencial. Si usted no es el destinatario identificado de esta comunicación cualquier uso, copia, diseminación o distribución está estrictamente prohibido. Si hay alguna razón para pensar que usted no es el destinatario identificado por favor notifique al remitente respondiéndole esta comunicación y destruya todas las copias. Gracias.
CONFIDENTIALITY NOTICE — This communication, including any attachments, is for the exclusive use of the intended recipient and may contain proprietary, confidential or privileged information. If you are not the intended recipient, any use, copying, disclosure, dissemination or distribution is strictly prohibited. If there is any reason to believe you are not the intended recipient, please notify the sender immediately by return email and delete this communication and destroy all copies. Thank you.
Me gustaMe gusta
Muy bueno el artículo
Dr. Jorge Wasserman
jwasserman63@gmail.com
INFORME DE CONFIDENCIALIDAD — Esta comunicación, incluyendo los archivos adjuntos a ella, son para uso exclusivo del destinatario identificado y pueden contener información privilegiada o de carácter confidencial. Si usted no es el destinatario identificado de esta comunicación cualquier uso, copia, diseminación o distribución está estrictamente prohibido. Si hay alguna razón para pensar que usted no es el destinatario identificado por favor notifique al remitente respondiéndole esta comunicación y destruya todas las copias. Gracias.
CONFIDENTIALITY NOTICE — This communication, including any attachments, is for the exclusive use of the intended recipient and may contain proprietary, confidential or privileged information. If you are not the intended recipient, any use, copying, disclosure, dissemination or distribution is strictly prohibited. If there is any reason to believe you are not the intended recipient, please notify the sender immediately by return email and delete this communication and destroy all copies. Thank you.
El jue, 28 de ago de 2025, 10:00 a. m., Jorge Wasserman < jwasserman63@gmail.com> escribió:
Me gustaMe gusta
Muchas gracias Jorge, mi respeto y afecto de siempre
Me gustaMe gusta