Donde las estadísticas médicas se encuentran con la inteligencia artificial
David J. Hunter, MB, BS, y Christopher Holmes, Ph.D.
La estadística surgió como una disciplina distinta a principios del siglo XX. Durante este tiempo, se desarrollaron conceptos fundamentales, incluido el uso de aleatorización en ensayos clínicos, pruebas de hipótesis, inferencia basada en probabilidad, valores P y análisis bayesiano y teoría de la decisión. 1,2 La estadística se convirtió rápidamente en un elemento esencial de las ciencias aplicadas, hasta el punto de que en el año 2000, los editores de la revista citaron la “Aplicación de la estadística a la medicina” como uno de los avances más importantes de la ciencia médica en los 1000 años anteriores. . 3 La estadística se refiere al razonamiento con información incompleta y a la interpretación y comunicación rigurosas de hallazgos científicos a partir de datos. La estadística incluye la determinación del diseño óptimo de experimentos y la cuantificación precisa de la incertidumbre con respecto a las conclusiones y declaraciones inferenciales del análisis de datos, expresadas a través del lenguaje de la probabilidad.
En el siglo XXI, la inteligencia artificial (IA) ha surgido como un enfoque valioso en la ciencia de datos y una influencia creciente en la investigación médica, 4-6 con un ritmo acelerado de innovación. Este desarrollo se debe, en parte, a la enorme expansión de la potencia informática y la disponibilidad de datos. Sin embargo, las mismas características que hacen de la IA una herramienta adicional tan valiosa para el análisis de datos son las mismas que la hacen vulnerable desde una perspectiva estadística. Esta paradoja es particularmente pertinente para la ciencia médica. Las técnicas que son adecuadas para la publicidad dirigida a votantes y consumidores o que mejoran la predicción del tiempo pueden no cumplir con las rigurosas demandas de la predicción o el diagnóstico de riesgos en medicina. 7,8 En este artículo de revisión, analizamos los desafíos estadísticos al aplicar la IA al análisis de datos biomédicos y el delicado equilibrio que enfrentan los investigadores al desear aprender tanto como sea posible de los datos y al mismo tiempo garantizar que las conclusiones basadas en datos sean precisas, sólidas y reproducible.
Comenzamos destacando una característica distintiva de la IA que la convierte en un enfoque tan poderoso y al mismo tiempo la hace estadísticamente vulnerable. Luego exploramos tres desafíos particulares en la interfaz de la estadística y la IA que son de particular relevancia para los estudios médicos: inferencia poblacional versus predicción, generalización e interpretación de la evidencia, y estabilidad y garantías estadísticas. Nos centramos en cuestiones de análisis de datos e interpretación de hallazgos. Las limitaciones de espacio impiden una discusión sobre la importante área de la IA y el diseño experimental o una inmersión profunda en el área emergente de la IA generativa y los chatbots médicos; sin embargo, comentamos brevemente esta área emergente.
Aprendizaje de representación de características
Características de los modelos estadísticos y de inteligencia artificial (IA).

El modelado estadístico tradicional utiliza una cuidadosa selección práctica de mediciones y características de datos para incluir en un análisis (por ejemplo, qué covariables se incluirán en un modelo de regresión), así como cualquier transformación o estandarización de mediciones. Las técnicas semiautomáticas de reducción de datos, como los bosques aleatorios y la regresión por pasos con selección hacia adelante o hacia atrás, han ayudado a los estadísticos en esta selección práctica durante décadas. Los supuestos y características del modelado suelen ser explícitos y, por lo general, se conoce la dimensionalidad del modelo, cuantificada por el número de parámetros. Aunque este enfoque utiliza el criterio de expertos para proporcionar un análisis manual de alta calidad, tiene dos deficiencias potenciales. En primer lugar, no se puede ampliar a conjuntos de datos muy grandes (por ejemplo, millones de imágenes). En segundo lugar, se supone que el estadístico conoce o es capaz de buscar el conjunto de características o mediciones más apropiado para incluir en el análisis ( Figura 1A ).
Podría decirse que el aspecto más impresionante y distintivo de la IA es su capacidad automatizada para buscar y extraer de los datos características arbitrarias, complejas y orientadas a tareas: el llamado aprendizaje de representación de características. Las funciones 9-11 se diseñan algorítmicamente a partir de datos durante una fase de entrenamiento para descubrir transformaciones de datos que sean correctas para la tarea de aprendizaje. La optimización se mide mediante una «función objetiva» que cuantifica qué tan bien el modelo de IA está realizando la tarea en cuestión. Los algoritmos de IA eliminan en gran medida la necesidad de que los analistas especifiquen previamente características para la predicción o seleccionen manualmente transformaciones de variables. Estos atributos son particularmente beneficiosos en dominios de datos grandes y complejos, como el análisis de imágenes, la genómica o el modelado de registros médicos electrónicos. Los modelos de IA pueden buscar potencialmente miles de millones de transformaciones de covariables no lineales para reducir una gran cantidad de variables a un conjunto más pequeño de características adaptadas a la tarea. Además, de manera un tanto paradójica, aumentar la complejidad del modelo de IA a través de parámetros adicionales, lo que ocurre en el aprendizaje profundo, sólo ayuda al modelo de IA en su búsqueda de conjuntos de características internas más ricas, siempre que los métodos de entrenamiento se adapten adecuadamente. 12,13
El resultado es que los modelos de IA entrenados pueden diseñar funciones adaptativas de datos que están más allá del alcance de las funciones que los humanos pueden diseñar, lo que lleva a un desempeño de tareas impresionante. El problema es que tales características pueden ser difíciles de interpretar, son frágiles frente a los datos cambiantes y carecen de sentido común en el uso del conocimiento previo y las comprobaciones cualitativas que los estadísticos aplican al decidir qué conjunto de características utilizar en un modelo. . Los modelos de IA a menudo no pueden rastrear la línea de evidencia desde los datos hasta las características, lo que dificulta la auditabilidad y la verificación. Por lo tanto, se necesitan mayores controles y equilibrios para garantizar la validez y generalización de los hallazgos científicos basados en la IA ( Figura 1B ). 14,15
La verificación de los hallazgos respaldados por la IA es particularmente importante en el campo emergente de la IA generativa a través del aprendizaje autosupervisado, como grandes modelos de lenguaje y chatbots de ciencias médicas que pueden usarse, entre muchas aplicaciones, para tomar notas médicas en registros médicos electrónicos. 16 El aprendizaje autosupervisado mediante estos modelos básicos implica grandes cantidades de datos de entrenamiento no documentados y el uso de funciones objetivas amplias para entrenar los modelos con billones de parámetros (en el momento de escribir este artículo). Esto contrasta con el aprendizaje «supervisado» con modelos de predicción de IA, como los clasificadores de aprendizaje profundo, en los que los datos del entrenamiento se conocen y se etiquetan según el resultado clínico, y el objetivo del entrenamiento es claro y está dirigido a la tarea de predicción particular en el momento. mano. Dada la opacidad de los modelos básicos de IA generativa, se necesita precaución adicional para su uso en aplicaciones de salud.
Predicción versus inferencia poblacional
La IA está especialmente adaptada y en gran medida diseñada para tareas de predicción a gran escala. 17 Esto es cierto, en parte, porque con tales tareas, el objetivo de entrenamiento para el modelo es claro y la métrica de evaluación en términos de precisión predictiva generalmente está bien caracterizada. Los modelos y algoritmos adaptativos pueden aprovechar grandes cantidades de datos anotados para descubrir patrones en covariables que se asocian con resultados de interés. Un buen ejemplo es predecir el riesgo de enfermedad. 18 Sin embargo, el objetivo final de la mayoría de los estudios médicos no es predecir explícitamente el riesgo, sino más bien comprender algún mecanismo biológico o causa de enfermedad en la población en general o ayudar en el desarrollo de nuevas terapias. 19,20
Existe una brecha de evidencia entre un buen modelo predictivo que opera a nivel individual y la capacidad de hacer afirmaciones inferenciales sobre la población. 21 La estadística se ocupa principalmente de las tareas de inferencia poblacional y de la generalización de la evidencia obtenida de un estudio para la comprensión de una hipótesis científica en la población en general. La predicción es una tarea importante pero más sencilla, mientras que la inferencia científica suele tener una mayor influencia en la comprensión mecanicista. Como observó Hipócrates: «Es más importante saber qué tipo de persona tiene una enfermedad que saber qué tipo de enfermedad tiene».
Un ejemplo proviene de la reciente pandemia de enfermedad por coronavirus de 2019 (Covid-19). Se han informado varias herramientas de predicción para determinar si una persona tiene infección por coronavirus 2 del síndrome respiratorio agudo severo, 22 pero pasar de la predicción individual a la inferencia sobre la prevalencia poblacional y la comprensión de los subgrupos de riesgo en la población es mucho más desafiante. 23
Un desafío adicional en el uso de herramientas predictivas es que hay muchas maneras de medir e informar la precisión predictiva, por ejemplo, con el uso de medidas como el área bajo la curva característica operativa del receptor, precisión y recuperación, error cuadrático medio , valor predictivo positivo, tasa de clasificación errónea, índice de reclasificación neta y puntuación de probabilidad logarítmica. Elegir una medida que sea apropiada para el contexto es de vital importancia, ya que la precisión en una de estas medidas puede no traducirse en precisión en otra y puede no estar relacionada con una medida clínicamente significativa de desempeño o seguridad. 24,25 Por el contrario, los objetivos y estimaciones inferenciales para las estadísticas de población tienden a ser menos ambiguos y la incertidumbre se caracteriza más claramente mediante el uso de valores P, intervalos de confianza e intervalos de credibilidad. Dicho esto, los modelos de predicción de IA robustos y precisos indican la existencia de señales repetibles y asociaciones estables en los datos que justifican una mayor investigación. 26 Los procedimientos bayesianos tienen un vínculo inherente entre la predicción y la inferencia mediante el uso de modelos probabilísticos conjuntos. 27-29
Un área interesante donde se encuentran los métodos de predicción de la IA y la inferencia estadística es el aprendizaje automático causal que presta especial atención a las cantidades inferenciales. 30-32 La adopción de modelos causales estructurales o marcos de resultados potenciales, con herramientas como gráficos acíclicos dirigidos, utiliza el conocimiento del dominio para reducir la probabilidad de que un modelo de IA cometa errores basados en datos, como especificar incorrectamente la relación temporal entre exposición y resultado, condicionamiento sobre una variable causada tanto por la exposición como por la enfermedad (un “colisionador”), o resaltando una asociación espuria, por ejemplo, un efecto por lotes en un estudio de biomarcadores. 33 Los métodos de inferencia causal también se pueden aplicar a la IA para la interpretación de imágenes radiológicas o patológicas 34 y para la toma de decisiones clínicas y el diagnóstico, 35 y pueden facilitar el manejo de factores de confusión de alta dimensión. 36 Aunque los métodos de IA pueden automatizar y ayudar a aplicar métodos de inferencia causal a datos biomédicos, es probable que el juicio humano sea necesario en el futuro previsible, aunque sólo sea porque diferentes algoritmos de IA pueden presentarnos conclusiones diferentes. Además, para evitar posibles sesgos derivados de la verificación, la mediación y la confusión, el análisis causal a partir de datos observacionales requiere suposiciones que se encuentran fuera de lo que se puede aprender de los datos.
Generalización e interpretación
Un desafío a la hora de interpretar los resultados de la IA es que los algoritmos para la representación de características internas están diseñados para adaptar automáticamente su complejidad a la tarea en cuestión, con una flexibilidad casi infinita en algunos enfoques. Esta flexibilidad es una gran fortaleza, pero también requiere cuidado para evitar el sobreajuste de los datos. El uso de regularización y optimización estocástica controlada de los parámetros del modelo durante el entrenamiento puede ayudar a prevenir el sobreajuste, pero también significa que los algoritmos de IA tienen nociones mal definidas de grados de libertad estadísticos y el número de parámetros libres. Por lo tanto, no se pueden utilizar las garantías estadísticas tradicionales contra el exceso de optimismo, y se deben sustituir técnicas como la validación cruzada y las muestras retenidas para imitar el rendimiento real fuera de la muestra, con la contrapartida de que la cantidad de datos disponibles para el descubrimiento sea menor. reducido. Considerando estos factores en conjunto, se corre el riesgo de sobreinterpretar la generalización y reproducibilidad de los resultados.
Las prácticas a las que los científicos médicos deben prestar especial atención al planificar estudios basados en IA incluyen publicar todo el código y proporcionar declaraciones claras sobre el ajuste del modelo y los datos reservados utilizados para informar la precisión a fin de facilitar la evaluación externa de la reproducibilidad de los hallazgos. 15 Un informe reciente de McKinney et al. sobre el uso de la IA para predecir el cáncer de mama basándose en mamografías 37 provocó un llamamiento por parte de Haibe-Kains et al. para una mayor transparencia: “En su estudio, McKinney et al. mostró el alto potencial de la IA para la detección del cáncer de mama. Sin embargo, la falta de detalles sobre los métodos y el código del algoritmo socava su valor científico”. 38 El uso de métodos de predicción estadística tradicionales junto con métodos de IA interpretables puede contribuir a la comprensión de la señal de predicción y mitigar asociaciones sin sentido. La información clara de los resultados y la disponibilidad del código aumentan el potencial de replicación externa y refinamiento por parte de otros grupos, pero pueden verse limitados por una tendencia a buscar derechos de propiedad intelectual para productos comerciales de IA.Tabla 1 Similitudes y diferencias entre la inteligencia artificial
Tabla 1. Similitudes y Diferencias entre Inteligencia Artificial y Estadística Convencional.
| Característica | Métodos de inteligencia artificial | Métodos estadísticos convencionales |
|---|---|---|
| Hipótesis previas | Agnóstico o muy general | Específico; A menudo se clasifican en primarias, secundarias y exploratorias. |
| Técnicas (ejemplos) | Bosques aleatorios, redes neuronales, XGBoost | Comparaciones paramétricas y no paramétricas entre grupos; Modelos de regresión y supervivencia con predictores lineales. |
| Estabilidad (de extremo a extremo) | Los análisis son más propensos a la inestabilidad y variabilidad como resultado de los dominios de aplicación (por ejemplo, integración de datos multimodales) y las elecciones del usuario en la especificación de algoritmos (por ejemplo, arquitectura en aprendizaje profundo). | Análisis estables que siguen la especificación previa de un plan de análisis estadístico con opciones mínimas disponibles definidas por el usuario en la especificación del modelo. |
| Aplicaciones | Análisis de imágenes, salidas de monitores, conjuntos de datos masivos (p. ej., registros médicos electrónicos, procesamiento de lenguaje natural) | Datos con un número menor de predictores, datos tabulares, ensayos aleatorios. |
| Objetivo | Descubrimiento de patrones; representación automática de características; reducción de funciones a un conjunto más pequeño y manejable; modelos de predicción | Inferencia estadística y prueba de factores específicos para desviarse de una hipótesis nula, control de sesgos de confusión y verificación, cuantificación de la incertidumbre. |
| Reproducibilidad | A menudo interna (es decir, realizada con el conjunto de datos original); validación cruzada o muestras divididas | Idealmente externo (es decir, realizado con datos “nuevos”); Pruebas formales de significancia contra hipótesis nulas. |
| Barreras | Cada vez más, se recurre al uso de algoritmos propietarios que no están disponibles para otros investigadores; falta de claridad en los informes | Progreso lento en el intercambio de datos primarios para permitir que otros verifiquen o amplíen los resultados. |
| Interpretabilidad | A menudo, caja negra; La ingeniería de características algorítmicas automáticas introduce opacidad. | Funciones explícitas, número claro de parámetros libres y grados de libertad |
| Equidad | El aprendizaje de funciones basado en datos es susceptible a sesgos presentes en los datos, lo que agrava las inequidades en salud | Modelos menos flexibles y más explícitos (interpretables), cuya equidad se verifica más fácilmente si se dispone de datos relevantes. |
y la estadística convencional.
Los enfoques de IA pueden ser útiles para reducir un conjunto de datos con una gran cantidad de características, como conjuntos de datos «ómicos» (por ejemplo, datos metabolómicos, proteómicos o genómicos), en una cantidad menor de características que luego se pueden probar. con el uso de métodos estadísticos convencionales. Los métodos populares de IA, como los bosques aleatorios, XGBoost y los árboles de regresión aditiva bayesiana 39-41 , proporcionan una clasificación de covariables por “relevancia de característica”, y los métodos estadísticos, como el operador de selección y contracción mínima absoluta 42, utilizan la selección explícita de variables como parte del modelo. adecuado. Aunque es posible que muchos procedimientos de IA no distingan eficazmente entre variables altamente correlacionadas, las técnicas de regresión estándar con un número menor de características seleccionadas por IA pueden hacerlo. La reducción de características también ayuda al analista humano a examinar los datos y aplicar restricciones adicionales en un análisis que se basan en conocimientos previos del tema. Por ejemplo, la característica A a menudo se confunde con la característica X, o un período de latencia de varios años entre la exposición a la característica A y el resultado de la enfermedad significa que no se espera ninguna relación en el seguimiento temprano. En la Tabla 1 se resumen algunas similitudes y diferencias entre la IA y las estadísticas convencionales .
Los enfoques de IA desafían algunas tendencias recientes en el análisis estadístico convencional de estudios clínicos y epidemiológicos. Los ensayos aleatorios de medicamentos en investigación se han mantenido con un alto nivel de rigor, y las preocupaciones sobre la sobreinterpretación de los resultados de los análisis de subgrupos y de criterios secundarios han llevado a un enfoque aún más fuerte en la descripción preespecificada de las hipótesis primarias y el control de la tasa de error familiar. para limitar los resultados falsos positivos. Ahora los protocolos suelen especificar las estimaciones precisas y los métodos de análisis que se utilizarán para obtener valores P para la inferencia y pueden incluir las covariables que se controlarán y las tablas ficticias que se completarán una vez que se completen los datos. Los análisis en los estudios observacionales suelen estar preespecificados con menos rigor, aunque cada vez más se espera que un plan de análisis estadístico establecido antes del inicio del análisis de datos sea material complementario en los informes publicados. 43
Los enfoques de IA, por el contrario, a menudo buscan patrones en los datos que no están preespecificados, lo cual es uno de los puntos fuertes de dichos enfoques (como se analizó anteriormente) y, por lo tanto, el potencial de resultados falsos positivos aumenta a menos que se apliquen procedimientos rigurosos para evaluar la reproducibilidad de los datos. Se incorporan los hallazgos. Se han establecido nuevas directrices y recomendaciones para la presentación de informes sobre la IA en la ciencia médica para garantizar una mayor confianza y generalización de las conclusiones. 44-48 Además, los algoritmos de IA altamente adaptables heredan todos los sesgos y la falta de representatividad que podrían estar presentes en los datos de entrenamiento, y al utilizar herramientas de predicción de IA de caja negra, puede ser difícil juzgar si las señales predictivas surgen como resultado de la confusión de Sesgos ocultos en los datos. 49-52 Los métodos del campo de la IA explicable (XAI) pueden ayudar a contrarrestar el aprendizaje de representación de características opacas, 53 pero para aplicaciones en las que la seguridad es una cuestión crítica, la naturaleza de caja negra de los modelos de IA merece una cuidadosa consideración y justificación. 54
Obermeyer y sus colegas 55 describen un algoritmo basado en IA que se aplicó a una población de 200 millones de personas en los Estados Unidos cada año para identificar a los pacientes que tenían el mayor riesgo de incurrir en costos sustanciales de atención médica y derivarlos a “centros de alto riesgo”. programas de gestión de atención de riesgos”. Su análisis sugirió que el algoritmo discriminaba involuntariamente a los pacientes negros. La razón parece ser que en todos los niveles de gasto en atención médica y edad, los pacientes negros tienen más condiciones coexistentes que los pacientes blancos, pero pueden acceder a la atención médica con menos frecuencia. Por lo tanto, el algoritmo con una función objetivo que se propuso predecir la utilización de la atención médica sobre la base de costos anteriores no reconoció las disparidades relacionadas con la raza en las necesidades de atención médica. En el futuro, los algoritmos de IA pueden ser lo suficientemente sofisticados como para evitar este tipo de discriminación, pero este ejemplo ilustra tanto la necesidad de que los expertos humanos en la práctica clínica y las políticas de atención médica exploren las consecuencias de las aplicaciones de la IA en estos dominios como la necesidad de especificar cuidadosamente Funciones objetivas de formación y evaluación.
Estabilidad y Garantías Estadísticas
La ciencia médica es un proceso iterativo de observación y refinamiento de hipótesis con ciclos de experimentación, análisis y conjeturas, que conducen a más experimentos y, en última instancia, a un nivel de evidencia que refuta las teorías existentes y respalda nuevas terapias, recomendaciones de estilo de vida o ambas. Se utilizan métodos analíticos, incluidos algoritmos estadísticos y de inteligencia artificial tradicionales, para mejorar la eficiencia de este ciclo científico. El contexto y las consecuencias de las decisiones tomadas sobre la base de la evidencia reportada en estudios médicos conllevan importantes implicaciones para la salud de los pacientes.
En gran medida, la preocupación por prevenir resultados falsos positivos en las estadísticas médicas convencionales se centra en las posibles consecuencias clínicas de dichos resultados. Por ejemplo, los pacientes pueden verse perjudicados por la concesión de licencia a un medicamento que no tiene ningún beneficio y puede tener efectos adversos. En los análisis genéticos, concluir erróneamente que un segmento cromosómico o una variante genética está asociado con una enfermedad puede desperdiciar muchos esfuerzos al intentar comprender la asociación causal. Por esta razón, el campo ha insistido en puntuaciones altas de LOD (logaritmo de las probabilidades) para el ligamiento y valores de P muy pequeños para una asociación en estudios de todo el genoma como evidencia de que es probable que a priori la asociación represente un resultado positivo verdadero. Por el contrario, si se analizan datos para decidir si a uno se le debe mostrar un anuncio particular en un navegador, incluso una pequeña mejora en la asignación aleatoria es una mejora, y un error impone una penalización financiera sólo al anunciante.
Esta diferencia entre el análisis estadístico en medicina y el análisis de IA tiene consecuencias sobre el potencial de la IA para afectar la ciencia médica, ya que la mayoría de los métodos de IA están diseñados fuera de la medicina y han evolucionado para mejorar el rendimiento en dominios no médicos (por ejemplo, clasificación de imágenes de números de casas para mapeo). software 56 ). En la ciencia médica, hay más en juego, ya sea porque las conclusiones pueden usarse en la clínica o, como mínimo, los resultados falsos positivos agotarán los recursos científicos y distraerán a los científicos. La confianza en la solidez y estabilidad de los análisis y los informes es vital para que la comunidad científica médica pueda proceder de manera eficiente y segura. La estabilidad se refiere a la variabilidad de un extremo a otro en el análisis, realizado por personas expertas en el arte del análisis, desde la concepción del proyecto hasta los informes o la implementación del usuario final. Los estudios basados en IA son cada vez más complejos con la integración de múltiples técnicas de datos y la fusión de datos. Por lo tanto, la evaluación de la estabilidad de un extremo a otro del análisis que incluye la ingeniería de datos, así como la elección del modelo, se vuelve vital. 57,58
Los métodos que brindan garantías estadísticas para los hallazgos de la IA, como el análisis de subgrupos en ensayos aleatorios 59 o estudios observacionales, 60 pueden ayudar. En el área emergente de las operaciones de aprendizaje automático, que combina el aprendizaje automático, el desarrollo de software y las operaciones de tecnología de la información, se presta especial atención a la importancia de la ingeniería de datos en el ciclo de desarrollo de la IA 61 y al problema de “basura que entra, basura sale”. lo que puede afectar el aprendizaje automático automatizado en ausencia de una intervención humana cuidadosa.
Hay muchos ejemplos de análisis de datos en la ciencia médica en los que emprendemos un análisis “agnóstico” porque no existe una hipótesis específica, o si existe, es global (por ejemplo, algunas variantes genéticas entre el gran número que se está probando están asociadas con la enfermedad de interés). Obviamente, esto conduce a un importante problema de multiplicidad. La multiplicidad se puede controlar mediante el uso de enfoques estándar como la corrección de Bonferroni o el uso explícito de una especificación previa bayesiana de hipótesis, pero se están desarrollando nuevos enfoques de IA para los procedimientos gráficos para controlar la multiplicidad. 62 Otro enfoque estándar es validar los hallazgos en un conjunto de datos independiente en función de si se reproducen las predicciones de la IA. Cuando dicha validación independiente no sea posible, debemos recurrir a imitar este enfoque mediante el uso de particiones en la muestra. Dividir los datos en dos conjuntos, uno para el descubrimiento y otro para la validación, puede proporcionar garantías estadísticas sobre los hallazgos del descubrimiento. 63 De manera más general, múltiples divisiones con el uso de validación cruzada pueden estimar el riesgo predictivo futuro, 64 aunque la incertidumbre estadística en la estimación del riesgo predictivo es más difícil de evaluar. Las técnicas emergentes de inferencia conforme parecen prometedoras para cuantificar la incertidumbre en entornos de predicción. sesenta y cinco
Sentido estadístico y el arte de la estadística
Gran parte del arte de la estadística aplicada y las habilidades de un estadístico o epidemiólogo capacitado involucran factores que se encuentran fuera de los datos y, por lo tanto, no pueden ser capturados únicamente por algoritmos de IA basados en datos. Estos factores incluyen un diseño cuidadoso de los experimentos, una comprensión de la pregunta de investigación y los objetivos del estudio, y la adaptación de los modelos a la pregunta de investigación en el contexto de una base de conocimientos existente, teniendo en cuenta el sesgo de verificación y selección y una sana sospecha de resultados que parecen demasiado bueno para ser verdad, seguido de una cuidadosa comprobación del modelo. Hacer que estas habilidades se apliquen a los estudios habilitados por la IA a través del desarrollo «humano en el circuito» (en el que la IA apoya y asiste al juicio humano experto) mejorará el efecto y la adopción de los métodos de IA y resaltará las brechas metodológicas y teóricas que deben abordarse. en beneficio de la ciencia médica. La IA tiene mucho que aportar a la ciencia médica. Los estadísticos deberían adoptar la IA y, en respuesta, el campo de la IA se beneficiará de un mayor pensamiento estadístico.