El Colegio Americano de Cirujanos, Normas mínimas para hospitales 1917

Dr. James R. Wright, Jr.,

Arch Pathol Lab Med (2017) 141 (5): 704–717.

https://doi.org/10.5858/arpa.2016-0348-HP

Donde comenzó la historia de la acreditación y la calidad.

Contexto.

El primer proyecto importante del Colegio Americano de Cirujanos (Chicago, Illinois), fundado en 1913, fue la implementación de las Normas Mínimas para Hospitales. La norma de 1918 (1) estableció organizaciones de personal médico en los hospitales; (2) restringió la membresía a profesionales con licencia y en regla; (3) ordenó que el personal médico trabajara con la administración del hospital para desarrollar y adoptar regulaciones y políticas que regulen su trabajo profesional; (4) exigió registros médicos estandarizados y accesibles; y (5) exigió la disponibilidad de instalaciones de diagnóstico y terapéuticas. Hace cien años, estas eran expectativas radicales.

Las condiciones de la práctica quirúrgica y de los servicios hospitalarios en Norteamérica a principios del siglo XX eran pésimas. 1  Sin embargo, se estaban poniendo en marcha los mecanismos para solucionarlo. Había un gran exceso de profesionales médicos y muchos de ellos estaban mal formados. Además, la distinción entre la práctica médica y la práctica quirúrgica aún no estaba formalizada, por lo que algunos de estos médicos incompetentes también practicaban la cirugía. A principios del siglo XX, los médicos mejor formados comenzaron a agruparse y a formar organizaciones especializadas. La afiliación dependía de demostrar un nivel mínimo adecuado de competencia. Los especialistas asumieron naturalmente que los pacientes que necesitaran tratamiento médico o quirúrgico acudirían en masa a los miembros de estos gremios de élite, lo que beneficiaría tanto a los pacientes como a los intereses económicos de los profesionales. 2 , 3  El Colegio Americano de Cirujanos (ACS, Chicago, Illinois) se creó en 1913, con planes audaces para estandarizar no sólo a los cirujanos sino también el lugar de trabajo de los cirujanos: el hospital. 4 , 5  Un año antes de la formación de la ACS, se formaron 2 comités en el Congreso Clínico de Cirujanos de Norteamérica (CCSNA) de 1912: (1) presidido por el cirujano ginecológico de Chicago, Illinois, Franklin H. Martin, MD ( Figura 1 ), debía supervisar los acuerdos para establecer la ACS; y (2) presidido por el cirujano de Boston Ernest Amory Codman, MD ( 
Figura 2 ), debía supervisar la reforma hospitalaria. 5  Reconociendo que ni la CCSNA ni la ACS tendrían un mandato legal para reformar los hospitales, las reformas tendrían que llevarse a cabo con gran diplomacia, con esfuerzos para no alienar a otros médicos o a la Asociación Médica Estadounidense (AMA, Chicago, Illinois) y requerirían la participación voluntaria de los hospitales. Desafortunadamente, la diplomacia nunca había sido el punto fuerte del Dr. Codman.

Junta de regentes del Colegio Americano de Cirujanos de 1919. Franklin H. Martin, MD, está a la extrema derecha; John G. Bowman, MA, LittD es el segundo desde la extrema derecha; Charles H. Mayo, MD es el cuarto desde la extrema izquierda; George W. Crile, MD es el sexto desde la extrema izquierda. Crédito: Archivos del Colegio Americano de Cirujanos .

Fotografía de Ernest Amory Codman realizada por el Notman Studio de Boston (circa 1911). Crédito: Se trata de una reproducción que se conserva en la Biblioteca Médica de Boston, en la Biblioteca de Medicina Francis A. Countway (Boston, Massachusetts) .

El Dr. Codman estaba fascinado por los estudios de tiempo-movimiento, la eficiencia, la gestión científica de la industria ferroviaria y el movimiento de estandarización que caracterizó la revolución industrial estadounidense de mediados y fines del siglo XIX. Cuando trabajaba como cirujano asistente en el Hospital General de Massachusetts (Boston, Massachusetts) en 1900, desarrolló un interés especial en la eficiencia y la estandarización hospitalaria, y esos intereses pronto se convirtieron en su pasión de toda la vida. 6 , 7  El Dr. Codman desarrolló e impulsó incansablemente un visionario «sistema de resultados finales» de organización hospitalaria, que explicó en sus términos más simples de la siguiente manera 8 (p. 315) :

Este sistema es perfectamente simple, y su única dificultad es su revolucionaria simplicidad. Requiere respuestas directas y veraces a estas preguntas: ¿Qué le pasaba al paciente? ¿Qué le hizo el médico? ¿Cuál fue el resultado? Si el resultado no fue bueno, ¿cuál fue la razón? ¿Fue culpa del médico, del paciente, de la enfermedad o de la organización o el equipo del hospital? Hasta ahora, en la organización hospitalaria nunca se ha intentado sistemáticamente determinar quién es el responsable del éxito o el fracaso de cada caso tratado. Sostengo que nuestro sistema de registros debería permitirnos determinar quién es el responsable y que debería utilizarse para este fin.

El Dr. Codman apoyó la idea de mantener registros hospitalarios detallados con resultados (basados ​​en el seguimiento 1 año después del alta) para cada admisión, generando puntajes de resultados para hospitales y para médicos para cada tipo de enfermedad o procedimiento, permitiendo a los médicos realizar solo procedimientos quirúrgicos para los cuales tuvieron puntajes de resultados suficientemente altos, promoción de cirujanos basados ​​en sus puntajes de resultados en lugar de antigüedad o popularidad y, lo que es importante, supervisión del programa de resultados finales de cada hospital por parte de los fideicomisarios del hospital, que creía que deberían aceptar la responsabilidad de «la calidad del Producto que sus fábricas hospitalarias dan al Público». 9 (p76) El Dr. Codman fue inflexible en que los resultados de los hospitales y cirujanos individuales deberían publicarse porque eso permitiría a los pacientes potenciales tomar decisiones informadas relacionadas con la atención quirúrgica y hospitalaria futura. El Dr. Codman se sintió tan convencido de sus ideas que renunció al personal del Hospital General de Massachusetts, comenzó su propio pequeño hospital en el que implementó su sistema completo a pequeña escala y luego publicó sus resultados. 10  El Dr. Codman, que en otro tiempo había caído en el olvido, ha sido redescubierto en las últimas décadas y mucho se ha escrito recientemente sobre él 6 – 8 , 11 , 12  ; por lo tanto, este ensayo no se centrará en él, sino más bien en un movimiento que él ayudó a iniciar. Aunque el modelo completo del Dr. Codman resultó ser demasiado radical para ser implementado en la década de 1910, o incluso hoy, 12  el Dr. Codman es ahora reconocido correctamente como un pionero de la “investigación de resultados”, y él y su modelo tuvieron papeles importantes en la formulación del programa de estandarización hospitalaria de la ACS. Debido a que el Dr. Codman era impetuoso, franco y carecía de tacto y diplomacia, no pudo ver personalmente cómo este programa se concretaba, y algunos de los elementos más controvertidos que más apreciaba fueron abandonados. Dos años después de la formación de la ACS, uno de los trucos publicitarios del Dr. Codman, que avergonzó al Hospital General de Massachusetts, a sus cirujanos y a la Universidad de Harvard (Boston, Massachusetts), lo obligó a renunciar a la presidencia del comité de reforma hospitalaria del CCSNA. 5  Nahrwold y Kernahan 5 (pág. 33) resumieron los logros del Dr. Codman de la siguiente manera:

Defendió con fuerza, aunque no siempre con tacto, su «sistema de resultados finales»… Desafortunadamente, Codman carecía de las habilidades ejecutivas de Franklin Martin. Su comité elaboró ​​dos informes que confirmaban la necesidad de mejorar el hospital, pero dejaban cualquier acción en manos de la AMA o la Fundación Carnegie. La AMA no tenía ningún interés en asumir un proyecto que pudiera conducir a un conflicto con los miembros locales. Los intentos de Codman de interesar a la Fundación Carnegie en una encuesta sobre hospitales no tuvieron éxito….. Con sus propios problemas políticos en aumento, Codman renunció al comité a fines de 1915. Con eso, el comité de la CCSNA se disolvió y el Colegio asumió la tarea de estandarizar los hospitales.

El resto de este ensayo se centrará en el desarrollo y la implementación del programa de estandarización hospitalaria de la ACS; es un tema que, sorprendentemente, se ha abordado, en el mejor de los casos, superficialmente en el contexto del Dr. Codman y la eficiencia hospitalaria, 13-15 o se  ha abordado de manera fragmentada 2 , 9  en fuentes estándar que tratan de la historia de los hospitales estadounidenses. De hecho, una fuente afirma directamente en una nota a pie de página que «no hay un trabajo adecuado sobre el movimiento de estandarización…» 14 (p148, nota a pie de página 34). Sin embargo, los lectores deben saber, aunque no es una historia per se, que hay un artículo fascinante que sostiene que la estandarización hospitalaria estaba «estrechamente vinculada» al movimiento filosófico pragmático estadounidense, que comenzó a fines del siglo XIX y que «representa un hito importante en la historia de la regulación estadounidense, tal vez el primer sistema de autorregulación empapado en principios pragmáticos de ordenamiento social, un modelo de gobernanza de la era progresista que presagió durante mucho tiempo algunas de las innovaciones regulatorias más significativas de la actualidad». 16 (p9) Sin embargo, independientemente de sus orígenes filosóficos, el programa de estandarización hospitalaria de la ACS fue un marco regulatorio importante para los hospitales durante 32 años antes de evolucionar hacia la Comisión Conjunta de Acreditación de Hospitales en 1951, que pasó a llamarse Comisión Conjunta de Acreditación de Organizaciones de Atención Médica en 1987 y Comisión Conjunta (Oakbrook Terrace, Illinois) en 2007. 17  Hacia el final de este artículo, analizaré cómo los Estándares Mínimos para hospitales afectaron a los laboratorios hospitalarios, una perspectiva que, hasta donde yo sé, no se ha abordado en la limitada literatura sobre estandarización hospitalaria.

FORMACIÓN DE LA ACS Y SUS ESTÁNDARES MÍNIMOS PARA HOSPITALES

La primera reunión de la ACS se celebró en Washington, DC, la tarde del lunes 5 de mayo de 1913. Asistieron 450 cirujanos estadounidenses y canadienses, tanto generalistas como especialistas. Esta reunión fue planificada por un comité organizador de 12 cirujanos destacados designados por la CCSNA en su reunión de noviembre de 1912. Los miembros del Comité Organizador de la CCSNA recorrieron los Estados Unidos y Canadá a través de una serie de reuniones regionales. Esencialmente, en «cada gran ciudad universitaria», se organizó una reunión por 3 cirujanos locales y 1 de los 12 miembros del comité organizador. De estas reuniones regionales, se invitó a 500 cirujanos, asistieron 450 y nació la ACS. 4 , 5  La ACS tenía objetivos elevados de mejorar la calidad de la atención a los pacientes quirúrgicos elevando la formación y la práctica quirúrgicas.

En 1914, la dirección de la ACS, mientras todavía “perfeccionaba la organización de la Facultad y… obtenía una base financiera sólida”, 18(p114) determinó que la estandarización hospitalaria era su primera gran iniciativa y, por lo tanto, “comenzó a adquirir información de primera mano sobre las condiciones hospitalarias en Canadá y los Estados Unidos. Se reunió con médicos, fideicomisarios y superintendentes de hospitales sobre el trabajo; con sociedades médicas y con organizaciones hospitalarias, pidiendo su ayuda y cooperación para formular un plan de acción”. 18(p114) Aunque no está claro que esta estandarización hospitalaria comenzara como una iniciativa educativa, rápidamente adquirió ese tono porque esto ayudó a justificar por qué la estandarización hospitalaria estaba claramente dentro del mandato de la facultad. Había razones potenciales por las que la estandarización hospitalaria, si era supervisada por la ACS, podría beneficiar financieramente a los miembros de la ACS (nb, según el sociólogo Paul Starr, controlar el lugar de trabajo del hospital era un objetivo a largo plazo de los gremios de médicos para que pudieran “evitar el destino del trabajador asalariado sin herramientas”). 15(p165) El 22 de junio de 1914, los becarios aprobaron un plan para recaudar un fondo de dotación permanente y acordaron que los ingresos de ese fondo se utilizarían para promover los propósitos de la ACS. Tras bambalinas, varios cirujanos destacados de la ACS, como George W. Crile, MD ( Figura 1 ) (presidente de cirugía en el University Hospitals Case Medical Center [Cleveland, Ohio] y, pronto, cofundador de la Cleveland Clinic [Cleveland, Ohio]), Charles H. Mayo, MD ( Figura 1 ), y William J. Mayo, MD (es decir, los hermanos Mayo que transformaron el St. Mary’s Hospital en la Mayo Clinic [Rochester, Minnesota]), inicialmente no apoyaron porque crearía una carga financiera significativa para la universidad, 5  lo que precipitó conversaciones infructuosas con la AMA pidiéndoles que asumieran este papel en su lugar. 2  En febrero de 1915, John G. Bowman, MA, LittD ( Figura 1 ), presidente de la Universidad de Iowa (Iowa City, Iowa) y ex secretario de la Fundación Carnegie para el Avance de la Enseñanza (Stanford, California), fue nombrado director de educación de la ACS. 5  El Dr. Martin continuó como el poderoso secretario de la universidad.

Para el 1 de diciembre de 1915, el Dr. Martin ya había recaudado $526 000 de los aproximadamente 3400 cirujanos miembros. 19  En enero de 1916, la ACS anunció oficialmente que tenía un fondo de dotación de $500 000. Ese mismo anuncio decía: “[d]en la medida en que la capacitación adecuada en cirugía está inseparablemente relacionada con la conducta y eficiencia del hospital, el Colegio buscará datos precisos sobre todos los asuntos relacionados con los hospitales”. 20 (pp116–117) Para fines de mes, los Dres. Martin y Bowman, confiando en las conexiones personales de este último, también habían recaudado $30 000 adicionales de la Fundación Carnegie, específicamente para la estandarización del hospital. 2 , 5 

En la reunión anual de becarios celebrada en Filadelfia (Pensilvania) el 27 de octubre de 1916, el informe del director Bowman 21  proporcionó una orientación aún más clara. El discurso del Dr. Bowman se centró en sólo dos temas: la admisión a la beca y la investigación de las condiciones hospitalarias. Como esta última era una nueva orientación pública y él necesitaba “educar” a los becarios, eso comprendió la mayor parte de su charla. El Dr. Bowman justificó la nueva orientación enteramente dentro del contexto de la educación quirúrgica 21 (p. 745) :

Este trabajo no es simplemente algo que podemos hacer, es algo que debemos hacer. Es nuestro deber saber qué significa la verdadera formación en cirugía. Eso ha sido obvio para todos nosotros desde el principio. Y es una estimación acertada, creo, decir que el ochenta por ciento de lo que un cirujano utiliza en la práctica lo adquiere durante su internado [ sic ] y su formación hospitalaria. En otras palabras, el campo de formación particular para el cirujano es el hospital. Se nos impone, entonces, la obligación de saber cuál es este campo de formación y qué tipo de estándar debemos establecer como formación adecuada de un cirujano en un hospital. Además, el problema de la formación de un cirujano en un hospital no puede aislarse como un factor separado del programa del hospital… Sin embargo, existen divisiones específicas en cada hospital que podemos investigar y, si tenemos datos precisos, podemos señalar el camino del progreso.

El Dr. Bowman abordó luego una serie de temas específicos, entre ellos la conservación de los registros hospitalarios (¿están completos los registros de casos y son “accesibles para su estudio y orientación futura?”), el estado de los servicios de laboratorio, la relación del personal médico del hospital con el consejo de administración del hospital y el superintendente del hospital, la acreditación del hospital, la relación del hospital con la sociedad médica local o del condado y la relación del hospital con el público. En relación con esto último, el Dr. Bowman tuvo palabras contundentes 21 (p. 746) :

¿Por qué los administradores no deberían poder garantizar honestamente a sus comunidades servicios honestos y competentes? Tal es una de las cosas que el Colegio Americano de Cirujanos se propone lograr. Se propone abordar estos problemas de una manera que no sea incierta ni a medias. La parte central de su esfuerzo será una serie de folletos escritos de manera tan sencilla que el hombre que mueve los labios al leer pueda entenderlos. Estos folletos tratarán uno tras otro de las cosas que hacen que los hospitales sean el tipo adecuado de instituciones para el cuidado de los enfermos. A veces puede ser necesario convocar reuniones de los clubes comerciales locales, o de otros organismos de laicos, para concienciar a la comunidad sobre las condiciones reales de sus hospitales. Si este camino es necesario, se seguirá. Ya pasó el día en que cualquier tipo de práctica indiferente o incompetente se podía proteger en un hospital. Ya pasó el día en que los administradores de los hospitales podían descansar en una actitud irresponsable hacia la confianza depositada en ellos.

Aunque ahora estaba plenamente integrado en el mandato educativo de la universidad, lo que en realidad se estaba proponiendo podría haber sido fácilmente interpretado por personas ajenas a la institución como una guerra abierta contra el status quo de la atención hospitalaria en Norteamérica, e incluso la poderosa AMA, aunque reconocía plenamente la necesidad de una reforma hospitalaria, no estaba dispuesta a hacerse cargo de este problema, una decisión de la que la AMA se arrepentiría más tarde. 1 , 4 , 5  Cada área de la reforma contenía minas terrestres potenciales para una o más partes interesadas. Por ejemplo, en el ámbito de la conservación de registros médicos, ni siquiera estaba del todo claro si los hospitales tenían el derecho. Según la historiadora médica y socióloga Rosemary A. Stevens, PhD 9 (pág. 60) :

Un médico que admitiera a sus propios pacientes no tenía incentivos para crear registros que otros pudieran usar o que sirvieran al hospital en su conjunto… Los médicos podían afirmar que eran dueños de sus propios registros y que el hospital, como taller del médico, no tenía un interés legítimo separado en registrar o monitorear la atención del paciente.

Intuitivamente, el riesgo asociado con una única especialidad médica, incluso una poderosa, que abordara la reforma hospitalaria era alto. Después de todo, la ACS representaba sólo a unos pocos médicos norteamericanos (en el mejor de los casos, alrededor del 5%). Por otra parte, la mayoría de los pacientes hospitalarios eran pacientes quirúrgicos, y el número de hospitales había aumentado exponencialmente en cuestión de sólo unas décadas 1  ; por lo tanto, los hospitales no podían darse el lujo de alienar a los cirujanos. Aunque la presencia de su fondo de dotación posicionó a la universidad para actuar rápidamente, era evidente que era necesario que la ACS actuara con cuidado, lo que logró mediante el uso de un proceso abierto y consultivo, que, lo que es importante, incluyó a otras especialidades médicas.

También en la reunión anual de 1916 en Filadelfia, Pensilvania, “se pidió a los becarios que crearan en cada provincia de Canadá y en cada estado de la Unión un comité de normas, cuyo propósito era asesorar sobre un programa de acción sólido y constructivo”. 18 (p. 114) De acuerdo con esa votación, se crearon dichos comités de normas en toda América del Norte, pero los comités no pudieron reunirse para una reunión de grupo hasta el 19 y 20 de octubre de 1917, debido a la Primera Guerra Mundial. 19  En esa reunión de dos días en Chicago, Illinois, aproximadamente 330 miembros del comité y entre 50 y 60 superintendentes de hospitales líderes de toda América del Norte discutieron “tres preguntas fundamentales”: “¿Qué condiciones existen en los hospitales? ¿Qué queremos en los hospitales y [qué] se debe hacer?” 18 (p. 114) Según la universidad 18 (p. 114) :

El resultado inmediato de la reunión fue el nombramiento de un comité de veintiún miembros, en el que estaban representados médicos, cirujanos, administradores de hospitales, trabajadores de laboratorio, estadísticos, etc., con el propósito de esbozar un cuestionario a través del cual el Colegio pudiera obtener datos hospitalarios esenciales para su trabajo futuro y considerar un “estándar mínimo de eficiencia”. El comité de veintiún miembros se reunió durante dos días en Washington, en diciembre de 1917, formuló el cuestionario y discutió el “estándar mínimo”. A principios de 1918, el cuestionario se envió a los hospitales, junto con una carta solicitando la cooperación de los hospitales en el programa de estandarización. La respuesta de los hospitales a este cuestionario superó las esperanzas más optimistas de los interesados ​​en el trabajo. Llegaron cientos de cartas de todas partes del continente, prometiendo cooperación. … En marzo de 1918, se envió a los hospitales y a los becarios una declaración completa del programa de estandarización hospitalaria del Colegio y del estándar mínimo. En marzo de 1918 se emprendió la labor de realizar investigaciones personales en los hospitales. El Colegio contrató a visitadores o inspectores para que hicieran informes sobre las condiciones de los distintos hospitales. Una parte importante de la labor de los visitadores consistía también en explicar los detalles del programa de una forma más completa que la que se puede hacer con folletos o cartas, y dejar claro el espíritu de toda la iniciativa.

Aunque un proceso rápido y contundente como el que se propone podría resultar intimidante, la brillante forma en que la ACS promocionó todo el proceso básicamente lo impidió. La universidad definió la estandarización hospitalaria de la siguiente manera 18 (pág. 113) :

No se trata de hacer que los hospitales sean iguales en cuanto a su forma de gobierno, administración o equipamiento; no se busca imponer la conformidad con ningún molde determinado ni limitar la originalidad en ninguna fase del trabajo hospitalario. La estandarización hospitalaria implica que los médicos, los administradores y superintendentes del hospital, los trabajadores de laboratorio, las enfermeras y el público piensen de la misma manera sobre los objetivos y la utilidad de los hospitales. Significa que cada paciente de un hospital tiene derecho a la atención más eficiente que conozca la profesión médica…

Definida por tales declaraciones de “maternalidad”, ¿cómo podría cualquier persona u organización razonable adoptar una postura pública en contra de cooperar para lograr una mejor atención al paciente? Este sentimiento también estaba en consonancia con el movimiento progresista estadounidense y, cada vez más, todos los proveedores de atención médica reconocieron que los hospitales, que a fines del siglo XIX existían como “hoteles” para pacientes pobres y principalmente para la comodidad de médicos y cirujanos, ahora debían centrarse en la calidad de la atención al paciente y la experiencia del paciente. 16  Los hospitales incluso reconocieron que la reforma era necesaria desde una perspectiva comercial porque la reputación de los hospitales en los Estados Unidos había sido tan pésima durante todo el siglo XIX que los pacientes ricos los habían evitado y, en cambio, generalmente eran atendidos en sus hogares.

La facultad consideró cómo abordar esta cuestión, señalando que “hay dos métodos por los cuales la estandarización hospitalaria puede proceder. El primero es científico; el segundo, humano”. 18 (p113) La descripción de la facultad del “método científico” puede parafrasearse en el lenguaje actual como de arriba hacia abajo , usando la fuerza bruta para implementar su propio análisis. Un ejemplo contemporáneo de este tipo de enfoque de estandarización del que la dirección de la ACS habría sido extremadamente consciente fue el Informe Flexner de 1910 , también financiado por la Fundación Carnegie, que impulsó una escuela de medicina estandarizada con requisitos académicos mínimos para la admisión y un plan de estudios basado en los principios de la “medicina científica” utilizando un entorno de hospital docente. 22  Claramente, la dinámica era completamente diferente (nb, había demasiadas escuelas de medicina privadas y uno de los objetivos de Abraham Flexner, MD, OD, PhD, era sacar del negocio a las escuelas de medicina sin esperanza; en marcado contraste, no había un número excesivo de hospitales, y la ACS simplemente quería mejorarlos). Hay otra razón, aún más fundamental, por la que semejante enfoque no habría funcionado. Los dirigentes de la ACS, aunque reconocían que la estandarización hospitalaria era deseable y que ellos debían liderarla, no tenían una idea clara de cómo querían que fuera y, como la participación sería voluntaria, no tenían idea de qué sería aceptable para las diversas partes interesadas. Además, los dirigentes de la ACS reconocieron que cualquier modelo que se implementara debía cambiar y mejorar constantemente. 16  La complejidad de esos objetivos debe haber parecido obvia al Dr. Bowman, que era el director de educación de la ACS y ni siquiera era médico. Así que, en cambio, la universidad adoptó sabiamente el enfoque del “método humano”, como se describe a continuación 18 (pág. 113) :

El método humano nunca olvida el punto de vista de los demás. De hecho, es el único punto de vista que conoce. Supone que los hombres son inteligentes y de mente abierta. Pero no es sentimental ni se limita a “azúcar, especias y todo lo bueno”. Valora el pensamiento recto y los datos precisos tanto como el método científico. Según el método humano, la estandarización hospitalaria dice a los hospitales: “He aquí un plan para mejorar el servicio hospitalario. Es un plan que surgió de nuestras propias cabezas y corazones después de un esfuerzo concienzudo y prolongado por parte de todos nosotros para idear dicho plan. ¿Podrían considerar si lo aceptan o no?”

El enfoque altamente consultivo de la universidad era laborioso y costoso. Después de enviar por correo la Norma Mínima (Figura 3) a los 697 hospitales de los Estados Unidos y Canadá con 100 o más camas, en marzo de 1918, 7 miembros del personal de la universidad, llamados visitantes , se dividieron la tarea de visitar personalmente cada hospital. Los visitantes simplemente presentaron la norma y explicaron lo que significaba 23 (pp469,473) :

El Colegio no se atribuyó la autoridad de hacer cumplir la norma. En todo momento, el Colegio dependió del mérito y la solidez de sus propuestas para conseguir y mantener la cooperación de los interesados ​​en la obra… Estos hombres, todos ellos licenciados en medicina, fueron a los hospitales… como ingenieros, descubriendo primero cuáles eran las deficiencias de la institución en relación con la norma mínima y luego indicando cómo se podían superar mejor. Las reuniones de consejo celebradas en los distintos hospitales por estos inspectores resultaron ser un elemento importante para el éxito de la obra.

Estos visitantes recogieron datos, que se cotejaron en la sede de la universidad, para cada hospital utilizando “tarjetas de visita” estandarizadas 23  ( Figura 4 ). El enfoque de la visita personal funcionó y los hospitales cooperaron y se esforzaron por alcanzar el estándar. La dirección de la ACS puede haber adaptado este método de visita personal del que habían utilizado con éxito para reunir rápidamente a los cirujanos en 1912-1913 para formar la ACS.

Figura 3.

Figura 3. El documento de Normas mínimas se creó en algún momento entre el 8 y el 9 de diciembre de 1917 y el 1 de marzo de 1918, cuando se envió por correo a los becarios y a los hospitales. Se utilizó como el estándar de oro para los datos recopilados durante las visitas a los sitios a partir de 1918. Crédito: Archivos del Colegio Americano de Cirujanos.

El documento de Normas mínimas se creó en algún momento entre el 8 y el 9 de diciembre de 1917 y el 1 de marzo de 1918, cuando se envió por correo a los becarios y a los hospitales. Se utilizó como el estándar de oro para los datos recopilados durante las visitas a los sitios a partir de 1918. Crédito: Archivos del Colegio Estadounidense de Cirujanos .

Certificado mural de estándares mínimos del Colegio Estadounidense de Cirujanos que se otorga a los hospitales que cumplen con el estándar. Crédito: Archivos del Colegio Estadounidense de Cirujanos .

Durante los primeros años del programa de estandarización hospitalaria de la ACS, el Dr. Bowman era el director y el Dr. Martin era el secretario de la ACS, un puesto a tiempo parcial. En 1917, los regentes designaron al Dr. Martin para un puesto a tiempo completo, el de secretario general, lo que creó una falta de claridad en relación con la gobernanza de la ACS y, en 1920, el Dr. Bowman estaba considerando sus otras opciones. En noviembre de 1920, el Dr. Bowman aceptó el puesto de rector de la Universidad de Pittsburgh (Pittsburgh, Pensilvania). Después de un breve reemplazo interino, los puestos se consolidaron y el Dr. Martin se convirtió en el director general. Después de la renuncia del Dr. Bowman, la ACS contrató a Malcolm MacEachern, MD, CM, 29  cirujano con sede en Vancouver, Columbia Británica y superintendente del Hospital General de Vancouver (Vancouver, Columbia Británica, Canadá), para dirigir el programa de estandarización hospitalaria de la ACS, que manejó de manera excelente durante los siguientes 27 años. 5 

En la década de 1920, el director general de la ACS, el Dr. Martin, curiosamente invocó la capacidad de la universidad para “reescribir” la historia y, sin dejar de atribuirse el mérito, desvinculó a la universidad de haber iniciado unilateralmente el proceso de estandarización hospitalaria. Según el Dr. Martin, hablando en 1921 27 (p133) :

El Colegio Americano de Cirujanos es responsable de la estandarización de los hospitales, porque en sus inicios consideró necesario estandarizar sus propios entornos. Por ejemplo, al elaborar un estándar para la admisión a la beca, fue necesario que pidiéramos a los candidatos que nos proporcionaran los informes de cincuenta operaciones mayores y cincuenta operaciones menores, en lugar de un examen. Estos informes comenzaron a llegar. Estaban en todo tipo de formularios. No existía absolutamente ningún registro estándar en el que pudieran darnos la evidencia de su propia capacidad para ejercer la cirugía. Pronto nos pidieron desde todas las direcciones que proporcionáramos un sistema estandarizado de registros, que sugiriéramos un formato en el que estos registros pudieran entregarse al Colegio. Intentamos hacerlo. Se formó un comité para ese propósito, y proporcionamos, donde se requirió, un conjunto de registros estandarizados. ¿Y luego qué sucedió? Los hospitales -una gran cantidad de ellos- comenzaron a preguntarnos si no podíamos de alguna manera proporcionarles esos mismos registros o formularios estandarizados, lo cual, por supuesto, hicimos con mucho gusto. Ese fue el primer paso en la estandarización de los hospitales.

Aunque mantener registros adecuados se convirtió claramente en un interés común compartido por la ACS y los hospitales, es difícil concebir cómo podría ser ese el “primer paso” en el movimiento de estandarización hospitalaria porque esto comenzó con el Dr. Codman y su comité CCSNA, incluso antes de que se formara la ACS. De todos modos, los registros se convirtieron en un terreno común tanto para la ACS como para los hospitales, y la ACS tenía razón al señalar que “un hospital en el que un candidato a becario prepara estos registros, si no mantiene registros adecuados, generalmente se ve inducido a hacerlo”. 18 (p. 116)

Los estándares mínimos eran exactamente eso, requisitos rudimentarios para un hospital adecuado. El primer componente del estándar era el personal médico organizado ( Figura 3 ), que era fundamental. Debido a que los planificadores de la ACS no sabían exactamente cómo debería ser un hospital estandarizado, la expectativa era que, una vez que se cumplieran los Estándares Mínimos , el personal médico organizado asumiría un sentido activo de responsabilidad personal que facilitaría la mejora continua en todas las áreas en cada hospital estandarizado, 16  que era el plan maestro de la ACS para el futuro, y tenía la ventaja adicional de garantizar que los médicos controlarían su lugar de trabajo, a través de los auspicios de la ACS.

La AMA había considerado emprender la reforma hospitalaria tanto en 1913 como en 1914 y había contactado sin éxito a la Fundación Carnegie para obtener fondos de subvención para llevarlo a cabo. Incluso la dirección de la ACS, que estaba preocupada por las finanzas de su incipiente gremio, había tratado de convencer a la Junta de Síndicos de la AMA para que asumiera esa función en 1914, pero la “AMA se negó sobre la base de los gastos”. 2(p91) El Dr. Stevens concluyó que “la relativa pobreza del Colegio en 1914… sugería a la AMA que no había una gran competencia para sus propias actividades en la estandarización hospitalaria. Pero como resultado, la AMA perdió la iniciativa en el movimiento de estandarización hospitalaria. El Colegio Americano de Cirujanos se convirtió en la fuerza dominante detrás de la reforma hospitalaria”. 2 (p119) En 1917, la dirección de la AMA reconoció que habían cometido un grave error táctico y que habían sido superados por la ACS, que había contratado al ex secretario de la Fundación Carnegie para que fuera su director. En 1918, el poderoso Consejo de Educación Médica de la AMA anunció que ampliaría su mandato para incluir la estandarización hospitalaria y en junio de 1920 pasó a llamarse Consejo de Educación Médica y Hospitales, pero la AMA ya había perdido la batalla por el control del lugar de trabajo de los médicos. Después de eso, como señaló el Dr. Stevens, «en muchas áreas… la Facultad se había convertido en una fuerte fuerza competitiva potencial». 2(p125) A partir de entonces, la relación entre estas dos poderosas organizaciones se volvió cada vez más tensa.

Where Medical Statistics Meets Artificial Intelligence

Authors: David J. Hunter, M.B., B.S., and Christopher Holmes, Ph.D.

N Engl J Med 2023;389:1211-1219

La estadística surgió como disciplina independiente a principios del siglo XX. Durante este tiempo, se desarrollaron conceptos fundamentales, incluido el uso de la aleatorización en ensayos clínicos, la prueba de hipótesis, la inferencia basada en la probabilidad, los valores P y el análisis bayesiano y la teoría de la decisión. 1,2 La estadística se convirtió rápidamente en un elemento esencial de las ciencias aplicadas, tanto que en 2000, los editores de la revista citaron “Aplicación de la estadística a la medicina” como uno de los 11 avances más importantes en la ciencia médica durante los últimos 1000 años. 3 La estadística se ocupa del razonamiento con información incompleta y de la interpretación y comunicación rigurosas de los hallazgos científicos a partir de los datos. La estadística incluye la determinación del diseño óptimo de experimentos y la cuantificación precisa de la incertidumbre con respecto a las conclusiones y las declaraciones inferenciales del análisis de datos, expresadas a través del lenguaje de la probabilidad.

En el siglo XXI, la inteligencia artificial (IA) ha surgido como un enfoque valioso en la ciencia de datos y una influencia creciente en la investigación médica, 4-6 con un ritmo acelerado de innovación. Este desarrollo está impulsado, en parte, por la enorme expansión de la potencia informática y la disponibilidad de datos. Sin embargo, las mismas características que hacen de la IA una herramienta adicional tan valiosa para el análisis de datos son las mismas que la hacen vulnerable desde una perspectiva estadística. Esta paradoja es particularmente pertinente para la ciencia médica. Las técnicas que son adecuadas para la publicidad dirigida a votantes y consumidores o que mejoran la predicción del clima pueden no satisfacer las rigurosas demandas de la predicción o el diagnóstico de riesgos en medicina. 7,8 En este artículo de revisión, analizamos los desafíos estadísticos en la aplicación de la IA al análisis de datos biomédicos y el delicado equilibrio que enfrentan los investigadores al desear aprender lo más posible de los datos y al mismo tiempo garantizar que las conclusiones basadas en datos sean precisas, sólidas y reproducibles. Comenzamos destacando una característica distintiva de la IA que la convierte en un enfoque tan poderoso y, al mismo tiempo, la hace vulnerable desde el punto de vista estadístico. Luego exploramos tres desafíos particulares en la interfaz entre la estadística y la IA que son de particular relevancia para los estudios médicos: inferencia poblacional versus predicción, generalización e interpretación de la evidencia, y estabilidad y garantías estadísticas. Nos centramos en cuestiones de análisis de datos e interpretación de los hallazgos. Las limitaciones de espacio impiden una discusión del área importante de la IA y el diseño experimental o una inmersión profunda en el área emergente de la IA generativa y los chatbots médicos; sin embargo, comentamos brevemente sobre esta área emergente.

Aprendizaje de la representación de características

El modelado estadístico tradicional utiliza una cuidadosa selección práctica de mediciones y características de datos para incluir en un análisis (por ejemplo, qué covariables incluir en un modelo de regresión), así como cualquier transformación o estandarización de mediciones. Las técnicas de reducción de datos semiautomatizadas, como los bosques aleatorios y la regresión por pasos con selección hacia adelante o hacia atrás, han ayudado a los estadísticos en esta selección práctica durante décadas. Los supuestos y las características del modelado suelen ser explícitos, y la dimensionalidad del modelo, cuantificada por el número de parámetros, suele conocerse. Aunque este enfoque utiliza el juicio de expertos para proporcionar un análisis manual de alta calidad, tiene dos posibles deficiencias. En primer lugar, no se puede escalar a conjuntos de datos muy grandes (por ejemplo, millones de imágenes). En segundo lugar, se supone que el estadístico conoce o puede buscar el conjunto de características o mediciones más apropiado para incluir en el análisis ( 

Figura 1A ).Figura 1

Características de los modelos estadísticos y de inteligencia artificial (IA).

Se podría decir que el aspecto más impresionante y distintivo de la IA es su capacidad automatizada para buscar y extraer características arbitrarias, complejas y orientadas a tareas de los datos, lo que se denomina aprendizaje de representación de características. 9-11 Las características se diseñan algorítmicamente a partir de los datos durante una fase de entrenamiento para descubrir transformaciones de datos que sean correctas para la tarea de aprendizaje. La optimalidad se mide por medio de una «función objetivo» que cuantifica qué tan bien el modelo de IA está realizando la tarea en cuestión. Los algoritmos de IA eliminan en gran medida la necesidad de que los analistas especifiquen previamente las características para la predicción o seleccionen manualmente las transformaciones de las variables. Estos atributos son particularmente beneficiosos en dominios de datos grandes y complejos, como el análisis de imágenes, la genómica o el modelado de registros médicos electrónicos. Los modelos de IA pueden buscar entre potencialmente miles de millones de transformaciones de covariables no lineales para reducir una gran cantidad de variables a un conjunto más pequeño de características adaptadas a la tarea. Además, de manera un tanto paradójica, aumentar la complejidad del modelo de IA a través de parámetros adicionales, lo que ocurre en el aprendizaje profundo, solo ayuda al modelo de IA en su búsqueda de conjuntos de características internas más ricos, siempre que los métodos de entrenamiento estén adecuadamente adaptados. 12,13El resultado es que los modelos de IA entrenados pueden diseñar características adaptativas a los datos que están más allá del alcance de las características que los humanos pueden diseñar, lo que lleva a un desempeño impresionante en la tarea. El problema es que tales características pueden ser difíciles de interpretar, son frágiles ante los cambios en los datos y carecen de sentido común en el uso de conocimientos previos y controles cualitativos que los estadísticos aplican para decidir qué conjunto de características utilizar en un modelo. Los modelos de IA a menudo no pueden trazar la línea de evidencia desde los datos hasta las características, lo que dificulta la auditabilidad y la verificación. Por lo tanto, se necesitan mayores controles y contrapesos para garantizar la validez y generalización de los hallazgos científicos habilitados por IA ( Figura 1B ). 14,15La comprobación de los hallazgos respaldados por IA es particularmente importante en el campo emergente de la IA generativa a través del aprendizaje autosupervisado, como los grandes modelos de lenguaje y los chatbots de ciencias médicas que pueden usarse, entre muchas aplicaciones, para la toma de notas médicas en registros médicos electrónicos. 16 El aprendizaje autosupervisado por estos modelos básicos implica grandes cantidades de datos de entrenamiento no documentados y el uso de funciones objetivas amplias para entrenar los modelos con billones de parámetros (al momento de escribir este artículo). Esto contrasta con el aprendizaje «supervisado» con modelos de predicción de IA, como los clasificadores de aprendizaje profundo, en los que los datos de entrenamiento se conocen y se etiquetan de acuerdo con el resultado clínico, y el objetivo del entrenamiento es claro y está dirigido a la tarea de predicción particular en cuestión. Dada la opacidad de los modelos básicos de IA generativa, se necesita precaución adicional para su uso en aplicaciones de salud.

Predicción versus inferencia poblacional

La IA es especialmente adecuada para tareas de predicción a gran escala, y está diseñada en gran medida para ellas. 17 Esto es cierto, en parte, porque en estas tareas el objetivo de entrenamiento del modelo es claro y la métrica de evaluación en términos de precisión predictiva suele estar bien caracterizada. Los modelos y algoritmos adaptativos pueden aprovechar grandes cantidades de datos anotados para descubrir patrones en covariables que se asocian con resultados de interés. Un buen ejemplo es predecir el riesgo de enfermedad. 18 Sin embargo, el objetivo final de la mayoría de los estudios médicos no es predecir explícitamente el riesgo, sino más bien comprender algún mecanismo biológico o causa de enfermedad en la población en general o ayudar en el desarrollo de nuevas terapias. 19,20Existe una brecha de evidencia entre un buen modelo predictivo que opera a nivel individual y la capacidad de hacer afirmaciones inferenciales sobre la población. 21 La estadística se ocupa principalmente de tareas de inferencia poblacional y de la generalización de la evidencia obtenida de un estudio para una comprensión de una hipótesis científica en la población más amplia. La predicción es una tarea importante pero más simple, mientras que la inferencia científica a menudo tiene una mayor influencia en la comprensión mecanicista. Como observó Hipócrates, “es más importante saber qué tipo de persona tiene una enfermedad que saber qué tipo de enfermedad tiene una persona”. Un ejemplo es la reciente pandemia de la enfermedad por coronavirus 2019 (COVID-19). Se han descrito diversas herramientas de predicción para determinar si una persona tiene una infección por el síndrome respiratorio agudo severo por coronavirus 22, pero pasar de la predicción individual a la inferencia sobre la prevalencia de la población y la comprensión de los subgrupos en riesgo en la población es mucho más complicado. 23Un desafío adicional en el uso de herramientas predictivas es que hay muchas maneras de medir e informar la precisión predictiva, por ejemplo, con el uso de medidas como el área bajo la curva característica operativa del receptor, precisión y recuperación, error cuadrático medio, valor predictivo positivo, tasa de clasificación errónea, índice de reclasificación neta y puntuación de probabilidad logarítmica. Elegir una medida que sea apropiada para el contexto es de vital importancia, ya que la precisión en una de estas medidas puede no traducirse en precisión en otra y puede no estar relacionada con una medida clínicamente significativa de rendimiento o seguridad. 24,25 En contraste, los objetivos inferenciales y los estimandos para las estadísticas de población tienden a ser menos ambiguos, y la incertidumbre se caracteriza más claramente mediante el uso de valores P, intervalos de confianza e intervalos creíbles. Dicho esto, los modelos de predicción de IA robustos y precisos indican la existencia de señales repetibles y asociaciones estables en los datos que justifican una mayor investigación. 26 Los procedimientos bayesianos tienen un vínculo inherente entre la predicción y la inferencia a través del uso de modelos probabilísticos conjuntos. 27-29Un área interesante donde los métodos de predicción de IA y la inferencia estadística se encuentran es el aprendizaje automático causal que presta especial atención a las cantidades inferenciales. -32 La adopción de modelos causales estructurales o marcos de resultados potenciales, con herramientas como gráficos acíclicos dirigidos, utiliza el conocimiento del dominio para reducir la probabilidad de que un modelo de IA cometa errores impulsados ​​por los datos, como especificar mal la relación temporal entre la exposición y el resultado, condicionar una variable que es causada tanto por la exposición como por la enfermedad (un «colisionador»), o resaltar una asociación espuria, por ejemplo, un efecto de lote en un estudio de biomarcadores. 33 Los métodos de inferencia causal también se pueden aplicar a la IA para la interpretación de imágenes radiológicas o patológicas 34 y para la toma de decisiones clínicas y el diagnóstico, 35 y pueden facilitar el manejo de factores de confusión de alta dimensión. 36 Aunque los métodos de IA pueden automatizar y ayudar a aplicar métodos de inferencia causal a datos biomédicos, es probable que el juicio humano sea necesario en el futuro previsible, aunque solo sea porque diferentes algoritmos de IA pueden presentarnos diferentes conclusiones. Además, para evitar posibles sesgos que surgen de la verificación, la mediación y la confusión, el análisis causal a partir de datos observacionales requiere suposiciones que están fuera de lo que se puede aprender de los datos.

Generalización e interpretación

Un desafío en la interpretación de los resultados de la IA es que los algoritmos para la representación de características internas están diseñados para adaptar automáticamente su complejidad a la tarea en cuestión, con una flexibilidad casi infinita en algunos enfoques. Esta flexibilidad es una gran fortaleza, pero también requiere cuidado para evitar el sobreajuste a los datos. El uso de la regularización y la optimización estocástica controlada de los parámetros del modelo durante el entrenamiento puede ayudar a prevenir el sobreajuste, pero también significa que los algoritmos de IA tienen nociones mal definidas de grados estadísticos de libertad y el número de parámetros libres. Por lo tanto, no se pueden utilizar garantías estadísticas tradicionales contra el exceso de optimismo, y se deben sustituir técnicas como la validación cruzada y las muestras retenidas para imitar el verdadero rendimiento fuera de la muestra, con la desventaja de que se reduce la cantidad de datos disponibles para el descubrimiento. Con estos factores tomados en conjunto, el riesgo es la sobreinterpretación de la generalización y reproducibilidad de los resultados. Las prácticas a las que los científicos médicos deberían prestar mucha atención al planificar estudios basados ​​en IA incluyen la publicación de todo el código y la presentación de declaraciones claras sobre el ajuste del modelo y los datos reservados utilizados para informar sobre la precisión, a fin de facilitar la evaluación externa de la reproducibilidad de los hallazgos. 15 Un informe reciente de McKinney et al. sobre el uso de IA para predecir el cáncer de mama basándose en mamografías 37 motivó un llamado de Haibe-Kains et al. a una mayor transparencia: “En su estudio, McKinney et al. demostraron el alto potencial de la IA para la detección del cáncer de mama. Sin embargo, la falta de detalles de los métodos y el código del algoritmo socava su valor científico”. 38 El uso de métodos tradicionales de predicción estadística junto con métodos de IA interpretables puede contribuir a una comprensión de la señal de predicción y puede mitigar las asociaciones sin sentido. La presentación clara de los resultados y la disponibilidad del código aumentan el potencial de replicación y refinamiento externos por parte de otros grupos, pero pueden verse limitados por una tendencia a buscar derechos de propiedad intelectual para productos de IA comerciales.Los métodos de IA pueden ser útiles para reducir un conjunto de datos con una gran cantidad de características, como conjuntos de datos «ómicos» (por ejemplo, datos metabolómicos, proteómicos o genómicos), a una cantidad menor de características que luego se pueden probar con el uso de métodos estadísticos convencionales. Los métodos populares de IA, como los bosques aleatorios, XGBoost y los árboles de regresión aditiva bayesianos 

39-41 , brindan una clasificación de «relevancia de características» de las covariables, y los métodos estadísticos, como el operador de selección y contracción mínima absoluta 

42, utilizan la selección explícita de variables como parte del ajuste del modelo. Aunque muchos procedimientos de IA pueden no distinguir de manera efectiva entre variables altamente correlacionadas, las técnicas de regresión estándar con una cantidad menor de características seleccionadas por IA pueden hacerlo. La reducción de características también ayuda al analista humano a examinar los datos y aplicar restricciones adicionales en un análisis que se basan en el conocimiento previo del sujeto. Por ejemplo, la característica A a menudo se confunde con la característica X, o un período de latencia de varios años entre la exposición a la característica A y el resultado de la enfermedad significa que no se espera ninguna relación en el seguimiento temprano. Algunas similitudes y diferencias entre la IA y las estadísticas convencionales se resumen en 

la Tabla 1 .Tabla 1

Similitudes y diferencias entre la Inteligencia Artificial y la Estadística Convencional.

Los enfoques de IA desafían algunas tendencias recientes en el análisis estadístico convencional de estudios clínicos y epidemiológicos. Los ensayos aleatorizados de fármacos en investigación se han sometido a un alto nivel de rigor, y las preocupaciones sobre la sobreinterpretación de los resultados de los análisis de subgrupos y de puntos finales secundarios han llevado a un enfoque aún más fuerte en la descripción preespecificada de las hipótesis primarias y el control de la tasa de error por familia para limitar los resultados falsos positivos. Los protocolos ahora suelen especificar los estimandos precisos y los métodos de análisis que se utilizarán para obtener valores P para la inferencia y pueden incluir las covariables que se controlarán y las tablas ficticias que se completarán una vez que se completen los datos. Los análisis en estudios observacionales suelen estar preespecificados de manera menos rigurosa, aunque cada vez se espera más que se establezca un plan de análisis estadístico antes del inicio del análisis de datos como material complementario en los informes publicados. 43En cambio, los métodos de IA suelen buscar patrones en los datos que no están preespecificados, lo que constituye una de las fortalezas de dichos métodos (como se ha comentado anteriormente), y por lo tanto aumenta el potencial de resultados falsos positivos a menos que se incorporen procedimientos rigurosos para evaluar la reproducibilidad de los hallazgos. Se han establecido nuevas directrices y recomendaciones de presentación de informes para la IA en la ciencia médica con el fin de garantizar una mayor confianza y generalización de las conclusiones. 44-48 Además, los algoritmos de IA altamente adaptativos heredan todos los sesgos y la falta de representatividad que podrían estar presentes en los datos de entrenamiento, y al utilizar herramientas de predicción de IA de caja negra, puede resultar difícil juzgar si las señales predictivas surgen como resultado de la confusión de sesgos ocultos en los datos. 49-52 Los métodos del campo de la IA explicable (XAI) pueden ayudar a contrarrestar el aprendizaje de la representación de características opacas, 53 pero para las aplicaciones en las que la seguridad es una cuestión crítica, la naturaleza de caja negra de los modelos de IA justifica una consideración y una justificación cuidadosas. 54Obermeyer y sus colegas 55 describen un algoritmo basado en inteligencia artificial que se aplicó a una población de 200 millones de personas en los Estados Unidos cada año para identificar a los pacientes que tenían el mayor riesgo de incurrir en costos sustanciales de atención médica y derivarlos a «programas de gestión de atención de alto riesgo». Su análisis sugirió que el algoritmo discriminaba involuntariamente a los pacientes negros. La razón parece ser que, en todos los niveles de gasto en atención médica y edad, los pacientes negros tienen más afecciones coexistentes que los pacientes blancos, pero pueden acceder a la atención médica con menor frecuencia. Por lo tanto, el algoritmo con una función objetivo que se propuso predecir la utilización de la atención médica sobre la base de los costos anteriores no reconoció las disparidades relacionadas con la raza en las necesidades de atención médica. En el futuro, los algoritmos de IA pueden ser lo suficientemente sofisticados como para evitar este tipo de discriminación, pero este ejemplo ilustra tanto la necesidad de que los expertos humanos en la práctica clínica y la política de atención médica exploren las consecuencias de las aplicaciones de la IA en estos dominios como la necesidad de especificar cuidadosamente las funciones objetivas para el entrenamiento y la evaluación.

Estabilidad y garantías estadísticas

La ciencia médica es un proceso iterativo de observación y refinamiento de hipótesis con ciclos de experimentación, análisis y conjeturas que conducen a nuevos experimentos y, en última instancia, a un nivel de evidencia que refuta las teorías existentes y respalda nuevas terapias, recomendaciones de estilo de vida o ambas. Se utilizan métodos analíticos, incluidos algoritmos estadísticos y de inteligencia artificial tradicionales, para mejorar la eficiencia de este ciclo científico. El contexto y las consecuencias de las decisiones tomadas sobre la base de la evidencia presentada en estudios médicos conllevan importantes implicaciones para la salud de los pacientes.En gran medida, la preocupación por evitar resultados positivos falsos en las estadísticas médicas convencionales se centra en las posibles consecuencias clínicas de dichos resultados. Por ejemplo, los pacientes pueden verse perjudicados por la autorización de un fármaco que no aporta ningún beneficio y puede tener efectos adversos. En los análisis genéticos, concluir erróneamente que un segmento cromosómico o una variante genética está asociado a una enfermedad puede hacer que se desperdicie mucho esfuerzo en el intento de comprender la asociación causal. Por este motivo, el campo ha insistido en puntuaciones LOD (logaritmo de las probabilidades) altas para el ligamiento y valores P muy pequeños para una asociación en estudios de todo el genoma como prueba de que es probable a priori que la asociación represente un resultado positivo verdadero. Por el contrario, si se analizan los datos para decidir si se debe mostrar un anuncio en particular en un navegador, incluso una pequeña mejora en la asignación aleatoria es una mejora, y un error impone una sanción económica sólo al anunciante.Esta diferencia entre el análisis estadístico en medicina y el análisis de IA tiene consecuencias para el potencial de la IA para afectar la ciencia médica, ya que la mayoría de los métodos de IA están diseñados fuera de la medicina y han evolucionado para mejorar el rendimiento en dominios no médicos (por ejemplo, la clasificación de imágenes de números de casas para software de mapeo 56 ). En la ciencia médica, las apuestas son más altas, ya sea porque las conclusiones pueden usarse en la clínica o, como mínimo, los resultados falsos positivos agotarán los recursos científicos y distraerán a los científicos. La confianza en la solidez y estabilidad de los análisis y los informes es vital para que la comunidad de la ciencia médica proceda de manera eficiente y segura. La estabilidad se refiere a la variabilidad de extremo a extremo en el análisis, por parte de personas expertas en el arte del análisis, desde la concepción del proyecto hasta el informe o la implementación del usuario final. Los estudios habilitados por IA están aumentando en complejidad con la integración de múltiples técnicas de datos y la fusión de datos. Por lo tanto, la evaluación de la estabilidad de extremo a extremo del análisis que incluye la ingeniería de datos, así como la elección del modelo, se vuelve vital. 57,58Los métodos que brindan garantías estadísticas para los hallazgos de la IA, como el análisis de subgrupos en ensayos aleatorios 59 o estudios observacionales, 60 pueden resultar útiles. En el área emergente de operaciones de aprendizaje automático, que combina aprendizaje automático, desarrollo de software y operaciones de tecnología de la información, se presta especial atención a la importancia de la ingeniería de datos en el ciclo de desarrollo de la IA 61 y al problema de “basura que entra, basura que sale”, que puede afectar al aprendizaje automático automatizado en ausencia de una intervención humana cuidadosa. Existen muchos ejemplos de análisis de datos en la ciencia médica en los que realizamos un análisis “agnóstico” porque no existe una hipótesis específica o, si existe, es global (por ejemplo, algunas variantes genéticas entre el gran número de sujetos que se están probando están asociadas con la enfermedad de interés). Esto obviamente conduce a un problema de multiplicidad sustancial. La multiplicidad se puede controlar mediante el uso de enfoques estándar como la corrección de Bonferroni o utilizando explícitamente una especificación previa bayesiana sobre hipótesis, pero se están desarrollando nuevos enfoques de IA para procedimientos gráficos para controlar la multiplicidad. 62 Otro enfoque estándar es validar los hallazgos en un conjunto de datos independiente sobre la base de si las predicciones de IA se reproducen. Cuando dicha validación independiente no es posible, debemos recurrir a imitar este enfoque mediante el uso de particiones dentro de la muestra. Dividir los datos en dos conjuntos, uno para el descubrimiento y otro para la validación, puede proporcionar garantías estadísticas sobre los hallazgos del descubrimiento. 63 De manera más general, las divisiones múltiples con el uso de la validación cruzada pueden estimar el riesgo predictivo futuro, 64 aunque la incertidumbre estadística en la estimación del riesgo predictivo es más difícil de evaluar. Las técnicas emergentes en inferencia conforme parecen prometedoras para cuantificar la incertidumbre en entornos de predicción. 65

El sentido estadístico y el arte de la estadística

Gran parte del arte de la estadística aplicada y de las habilidades de un estadístico o epidemiólogo capacitado implican factores que se encuentran fuera de los datos y, por lo tanto, no pueden ser capturados por algoritmos de IA basados ​​en datos únicamente. Estos factores incluyen un diseño cuidadoso de los experimentos, una comprensión de la pregunta de investigación y los objetivos del estudio, y la adaptación de los modelos a la pregunta de investigación en el contexto de una base de conocimiento existente, teniendo en cuenta el sesgo de verificación y selección y una sospecha sana de resultados que parecen demasiado buenos para ser ciertos, seguida de una verificación cuidadosa del modelo. Aplicar estas habilidades a los estudios habilitados por IA a través del desarrollo de «humanos en el circuito» (en el que la IA apoya y asiste al juicio humano experto) mejorará el efecto y la adopción de los métodos de IA y resaltará las brechas metodológicas y teóricas que deben abordarse en beneficio de la ciencia médica. La IA tiene mucho que aportar a la ciencia médica. Los estadísticos deberían adoptar la IA y, en respuesta, el campo de la IA se beneficiará de un mayor pensamiento estadístico.

La revolución de la inteligencia artificial en medicina: Impacto y proyecciones futuras

A medida que las computadoras y el concepto de inteligencia artificial (IA) se desarrollaron casi simultáneamente en las décadas de 1940 y 1950, el campo de la medicina se apresuró a ver su potencial relevancia y beneficio. 1,2 En 1959, Keeve Brodman y colegas afirmaron que «la realización de interpretaciones diagnósticas correctas de los síntomas puede ser un proceso en todos los aspectos lógico y tan completamente definido que puede ser llevado a cabo por una máquina». 3 Once años después, William B. Schwartz escribió en el Journal : «La ciencia de la computación probablemente ejercerá sus principales efectos al aumentar y, en algunos casos, reemplazar en gran medida las funciones intelectuales del médico». 4 Predijo que para el año 2000, las computadoras tendrían un papel completamente nuevo en la medicina, actuando como una poderosa extensión del intelecto del médico.

Sin embargo, a finales de los años setenta, hubo decepción porque los dos principales enfoques de la informática en medicina (sistemas basados ​​en reglas y sistemas de reconocimiento de patrones o de correspondencia) no habían tenido tanto éxito en la práctica como se esperaba.

Los sistemas basados ​​en reglas se basaban en la hipótesis de que el conocimiento experto consta de muchas reglas independientes y específicas de la situación y que las computadoras pueden simular el razonamiento experto uniendo estas reglas en cadenas de deducción.

Las estrategias de correspondencia intentaban hacer coincidir las características clínicas de un paciente con un banco de “perfiles almacenados”, a los que ahora nos referimos como “guiones de enfermedad”, 5 de los hallazgos en una enfermedad determinada. Se puso más empeño en comprender el proceso de toma de decisiones clínicas en sí. 6 Se hizo evidente que las deficiencias clave en la mayoría de los programas anteriores se derivaban de su falta de conocimiento patofisiológico. Cuando se incorporó ese conocimiento, el rendimiento mejoró mucho. Sin embargo, en la década de 1980, las computadoras no estaban a la altura de la tarea. En 1987, los sistemas basados ​​en reglas habían demostrado ser útiles en una variedad de tareas comerciales, pero no habían funcionado en la medicina clínica. De hecho, Schwartz y sus colegas observaron que “el proceso es tan lento que resulta impráctico incluso con las computadoras modernas de alta velocidad”. 7 Continuaron: “Después de escuchar durante varias décadas que las computadoras pronto podrán ayudar con diagnósticos difíciles, el médico en ejercicio puede preguntarse por qué no se ha producido la revolución”. 7

Progreso en la ciencia de datos

En la década de 1950, los ordenadores eran grandes y lentos. El primer disco duro fue el IBM Model 350 Disk File, presentado en 1956. Tenía una capacidad total de almacenamiento de 5 millones de caracteres (poco menos de 5 MB). El primer disco duro con más de 1 GB de capacidad fue el IBM 3380, presentado en 1980. Tenía el tamaño de un frigorífico y pesaba 250 kg (550 lb); el precio era de 100.000 dólares. Pero la tecnología de circuitos integrados estaba mejorando. En 1965, Gordon Moore, cofundador de Fairchild Semiconductor e Intel, predijo que la cantidad de transistores en un circuito integrado y, por tanto, su potencial de potencia de cálculo, se duplicaría cada dos años. Su predicción fue correcta; este cambio en la densidad de semiconductores se conoce como la ley de Moore. Sin embargo, la ley de Moore nos dice más que el número de transistores por centímetro cuadrado, ya que otros aspectos del progreso tecnológico, como la velocidad de procesamiento y el precio de los productos electrónicos, están fuertemente vinculados a ella. Con circuitos más densos, la memoria de las computadoras y las velocidades de procesamiento aumentaron, y hoy en día, dispositivos de bolsillo que son más potentes que las supercomputadoras de los años 1980, que ocupaban habitaciones enteras, son comunes y están disponibles a una fracción del precio ( Figura 1 ).

Figura 1

Mejoras a lo largo de 50 años en la capacidad de las computadoras para almacenar y procesar datos.

El progreso en la ciencia de datos no es simplemente una cuestión de mayor rendimiento, velocidad y almacenamiento. Además del tipo de información que se encuentra en las bibliotecas, los datos generados en las organizaciones y los sistemas establecidos diseñados para recopilar y codificar datos, las nuevas formas de tecnología pueden utilizar datos generados tanto por personas como por máquinas. Estos datos suelen ser caóticos y no estructurados. Los datos ahora provienen de muchas otras fuentes, incluidas las redes sociales, los blogs, las salas de chat, los sitios de revisión de productos, las comunidades, las páginas web, el correo electrónico, los documentos, las imágenes, los videos y la música, junto con los sensores ambientales y portátiles. Muchas personas abren aspectos de sus registros médicos y datos genéticos personales para que cualquier persona pueda acceder a ellos en línea. La capacidad de almacenamiento es tan grande que se pueden almacenar y acceder fácilmente a grandes porciones del corpus de conocimiento y actividad humana registrados.Una vez que tuvimos los datos, necesitábamos algo más que datos; necesitábamos formas de identificarlos y procesarlos. Google se convirtió en el líder de las búsquedas en línea al aprovechar las búsquedas realizadas por otros para identificar lo que la gente quería saber. Esto requirió una segunda revolución: algoritmos matemáticos que pudieran rastrear rápidamente y con una fiabilidad razonable este comportamiento y ayudar al usuario final a encontrar información específica. Un almacenamiento de información más denso y una computación más rápida permitieron soluciones prácticas y en tiempo real de expresiones matemáticas que podían usarse para encontrar relaciones en los datos que antes eran incognoscibles. Como resultado, la ciencia de datos pudo florecer y ejercitar su poder de una manera que antes era imposible.Ahora podemos utilizar datos no estructurados para identificar relaciones no explicadas entre elementos de los datos, lo que permite el uso de datos dinámicos y datos con múltiples contextos que, cuando se abordan y analizan de formas no tradicionales, brindan información útil sobre el comportamiento humano. Las redes neuronales se volvieron más sofisticadas a medida que la potencia informática permitió obtener resultados funcionales en tiempo real para las consultas de datos. Los transformadores (es decir, modelos de aprendizaje profundo que ponderan de manera diferencial la importancia de cada parte de los datos de entrada) hicieron posible el procesamiento del lenguaje natural. Con este enfoque, las complejidades de los modelos informáticos subyacentes y el corpus de datos del que esos modelos podían extraer información crecieron y se volvieron más poderosos. El objetivo de una computadora que pudiera emular ciertos aspectos de la interacción humana pasó de ser un sueño imposible a una realidad.La conectividad que permite la ciencia de datos está impulsando un nuevo tipo de descubrimiento. Las personas están utilizando las redes sociales para crear sus propias conexiones entre amigos, cosas, eventos, gustos, disgustos, lugares, ideas y emociones. Los gobiernos están analizando las redes sociales para detener los actos terroristas. Las empresas están extrayendo información social y transaccional en busca de conexiones que les ayuden a descubrir nuevas oportunidades. Los científicos están construyendo redes masivas de datos conectados para extraer nuevos hallazgos, utilizando la inteligencia artificial y el aprendizaje automático. Como se explica con más detalle a continuación, estos avances han permitido el surgimiento de computadoras que pueden ayudarnos a realizar tareas que antes eran tediosas. El personaje de Star Wars C-3PO era una versión rudimentaria de los asistentes virtuales basados ​​en inteligencia artificial (por ejemplo, Siri de Apple, el Asistente de Google y Alexa de Amazon) que se han convertido en parte de nuestra vida diaria y pueden ayudarnos a realizar tareas definidas. Cualquiera que haya utilizado uno de estos dispositivos ha experimentado su comodidad (por ejemplo, indicarle al asistente virtual que “programe el temporizador del horno durante 20 minutos” para que la comida se cocine correctamente), pero también la molestia de que el asistente interrumpa una conversación con algunos datos no relacionados. La inteligencia artificial y el aprendizaje automático constituyen la fuerza impulsora detrás de estos dispositivos.

Inteligencia artificial y aprendizaje automático en medicina

En los años 1990 y principios de los años 2000, incluso con ordenadores lentos y memoria limitada, se estaba resolviendo el problema de que las máquinas pudieran realizar con éxito ciertas tareas médicas que eran repetitivas y, por lo tanto, propensas a errores humanos. Mediante una inversión sustancial de dinero y esfuerzo intelectual, la lectura por ordenador de electrocardiogramas (ECG) y recuentos diferenciales de glóbulos blancos, el análisis de fotografías de retina y lesiones cutáneas y otras tareas de procesamiento de imágenes se han convertido en una realidad. Muchas de estas tareas asistidas por aprendizaje automático han sido ampliamente aceptadas e incorporadas a la práctica diaria de la medicina. El desempeño de estas tareas de las máquinas no es perfecto y a menudo requiere una persona capacitada para supervisar el proceso, pero en muchos casos es lo suficientemente bueno, dada la necesidad de una interpretación relativamente rápida de las imágenes y la falta de experiencia local.Sin embargo, el uso de la IA y el aprendizaje automático en medicina se ha expandido más allá de la lectura de imágenes médicas. Los programas de IA y aprendizaje automático han entrado en la medicina de muchas maneras, incluyendo, pero no limitado a, ayudar a identificar brotes de enfermedades infecciosas que pueden tener un impacto en la salud pública; combinar resultados clínicos, genéticos y de muchos otros laboratorios para identificar enfermedades raras y comunes que de otro modo podrían haber escapado a la detección; y ayudar en las operaciones comerciales de los hospitales ( Figura 2 ). En los próximos meses, la Revista publicará otros artículos de revisión que analizan selectivamente la IA y el aprendizaje automático en medicina en 2023. Pero antes de que aparezca el primer artículo, en aproximadamente un mes, es importante considerar las cuestiones primordiales que deben considerarse a medida que aprendemos a trabajar de la mano con las máquinas.Figura 2

Espectro de la Inteligencia Artificial (IA) en Medicina.

Cuestiones pendientes de la IA y el aprendizaje automático en medicina

Establecimiento de normas

Como se señaló anteriormente, el uso de la IA y el aprendizaje automático ya se ha convertido en una práctica médica aceptada en la interpretación de algunos tipos de imágenes médicas, como electrocardiogramas, radiografías simples, tomografías computarizadas (TC) y resonancias magnéticas (RM), imágenes de la piel y fotografías de retina. Para estas aplicaciones, se ha demostrado que la IA y el aprendizaje automático ayudan al proveedor de atención médica al señalar aspectos de las imágenes que se desvían de la norma.Esto nos lleva a una pregunta clave: ¿cuál es la norma? Esta simple pregunta muestra una de las debilidades del uso de la IA y el aprendizaje automático en la medicina tal como se aplica en gran medida hoy en día. ¿Cómo influye el sesgo en la forma en que se “enseñaron” los algoritmos de IA y aprendizaje automático en su funcionamiento cuando se aplican en el mundo real? ¿Cómo podemos incorporar valores humanos a los algoritmos de IA y aprendizaje automático para que los resultados obtenidos reflejen los problemas reales a los que se enfrentan los profesionales de la salud? ¿Qué cuestiones deben abordar los reguladores para garantizar que las aplicaciones de IA y aprendizaje automático funcionen como se anuncia en entornos de uso múltiple? ¿Cómo se deben modificar los enfoques clásicos de inferencia estadística, si es que se deben modificar, para las intervenciones que dependen de la IA y el aprendizaje automático? Estos son solo algunos de los problemas que enfrentamos; la serie “IA en medicina” abordará algunos de estos asuntos.

El papel de la IA y el aprendizaje automático en la práctica clínica

Dejando a un lado los inconvenientes, hay mucho que prometer. Si los algoritmos de inteligencia artificial y aprendizaje automático se pueden reducir a “aplicaciones” clínicamente útiles, ¿serán capaces de abrirse camino a través de montañas de datos clínicos, genómicos, metabolómicos y ambientales para ayudar a un diagnóstico de precisión? ¿Pueden las aplicaciones impulsadas por la inteligencia artificial y el aprendizaje automático convertirse en su escriba personal y liberar el tiempo que dedica a la documentación para que pueda pasar más tiempo con los pacientes? ¿Pueden las aplicaciones incitarlo a hacer una pregunta clave que podría ayudar en el diagnóstico diferencial? ¿Pueden burlar a los algoritmos de inteligencia artificial y aprendizaje automático, utilizados por las compañías de seguros, que le dificultan solicitar una tomografía computarizada por emisión de positrones o cobrar el reembolso por el tiempo que pasó con un paciente y su familia? En cada área se han logrado avances. ¿Es lo suficientemente bueno?

Investigación clínica sobre aplicaciones de inteligencia artificial y aprendizaje automático

La evaluación de los avances tiene sus propios problemas. En la investigación clínica tradicional, cuando el progreso toma la forma de un nuevo medicamento para una enfermedad definible, los estándares para probar y aceptar el medicamento como un avance están bien establecidos. Cuando la intervención es un algoritmo de inteligencia artificial y aprendizaje automático en lugar de un medicamento, la comunidad médica espera el mismo nivel de seguridad, pero los estándares para describir y probar las intervenciones de inteligencia artificial y aprendizaje automático están lejos de ser claros. ¿Cuáles son los estándares que debe cumplir la investigación intervencionista basada en la IA y el aprendizaje automático, si se va a aceptar una aplicación como el estándar que dará forma, reformará y mejorará la práctica clínica? Esa investigación tiene tres componentes. Primero, la investigación debe estar estructurada para responder a una pregunta clínicamente significativa de una manera que pueda influir en el comportamiento del profesional de la salud y conducir a una mejora en los resultados para un paciente. Segundo, la intervención debe ser definible, escalable y aplicable al problema en cuestión. No debe estar influenciada por factores ajenos al dominio del problema y debe producir resultados que se puedan aplicar a problemas clínicos similares en una amplia gama de poblaciones y prevalencias de enfermedades. ¿Puede la atención impulsada por la IA y el aprendizaje automático cumplir con estos estándares (los que exigimos de una nueva intervención terapéutica o prueba de diagnóstico basada en laboratorio) o necesitamos tener un conjunto único de estándares para este tipo de intervención? Tercero, cuando los resultados de la investigación se aplican de tal manera que influyan en la práctica, el resultado debe ser beneficioso para todos los pacientes en consideración, no solo para aquellos que son similares a aquellos con características y hallazgos con los que se entrenó el algoritmo. Esto plantea la cuestión de si dichos algoritmos deberían tener en cuenta la salud pública (es decir, el uso de recursos escasos) cuando se hacen recomendaciones de diagnóstico o tratamiento y en qué medida dichas consideraciones forman parte del proceso de toma de decisiones del algoritmo. Tales consideraciones éticas han involucrado a los profesionales de la salud y al público durante siglos. 8

Uso de aplicaciones de inteligencia artificial y aprendizaje automático en la realización de investigaciones clínicas

La IA y el aprendizaje automático tienen el potencial de mejorar y posiblemente simplificar y acelerar los ensayos clínicos mediante un reclutamiento y emparejamiento más eficiente de los participantes del estudio y análisis más exhaustivos de los datos. Además, es posible crear grupos de control sintéticos haciendo coincidir los datos históricos con los criterios de inscripción del ensayo objetivo. La IA y el aprendizaje automático también se pueden utilizar para predecir y comprender mejor los posibles eventos adversos y las subpoblaciones de pacientes. Parece posible que la IA pueda generar «pacientes sintéticos» para simular resultados diagnósticos o terapéuticos. Pero el uso de aplicaciones e intervenciones de IA y aprendizaje automático introduce un conjunto de incertidumbres que deben abordarse tanto en los protocolos como en la presentación de informes de ensayos clínicos. 9,10En esta serie sobre IA en medicina, tenemos previsto abordar los avances, los obstáculos, las promesas y la promulgación en la interfaz entre la IA y la medicina. Es importante entender que se trata de un campo que avanza rápidamente, por lo que, hasta cierto punto, lo que publiquemos puede tener la resolución de una instantánea del paisaje tomada desde un tren bala. En concreto, las cosas que suceden en las proximidades temporales cercanas a la publicación pueden verse borrosas porque están cambiando rápidamente, pero el fondo distante estará razonablemente bien enfocado. Un área de progreso sustancial en IA y aprendizaje automático (es decir, en primer plano, en nuestra analogía de la instantánea) es la aparición de chatbots sofisticados que están disponibles para su uso por parte del público en general. Aunque los chatbots se han introducido recientemente a un nivel de sofisticación que podría tener un impacto en la práctica médica diaria, creemos que su potencial para influir en la forma en que se practica la medicina es sustancial y que seríamos negligentes si no abordáramos ese potencial, así como los posibles problemas relacionados con su uso.

Chatbots en medicina

En este número de la revista , un artículo de Lee et al. 11 presenta el chatbot GPT-4 y sus aplicaciones médicas. El artículo fue escrito por un equipo de investigadores que trabajan para las entidades que crearon GPT-4, un chatbot con una amplia formación que incluye conocimientos médicos. Antes de ver el futuro, será útil echar un vistazo rápido al pasado. Un chatbot es un programa informático que utiliza IA y procesamiento del lenguaje natural para comprender preguntas y automatizar las respuestas a ellas, simulando una conversación humana. Un chatbot médico muy temprano, ELIZA, fue desarrollado entre 1964 y 1966 por Joseph Weizenbaum en el Laboratorio de Inteligencia Artificial del Instituto Tecnológico de Massachusetts ( Figura 3 ).

Figura 3

Chatbots en medicina.

La tecnología de chatbots está ahora prácticamente en todas partes, desde el servicio de atención al cliente hasta los asistentes virtuales personales, como se ha señalado anteriormente. Con las potentes computadoras disponibles en la actualidad, los modelos de lenguaje tienen cientos de miles de millones de parámetros que se pueden utilizar para generar texto nuevo. Esta capacidad, combinada con una cantidad casi infinita de datos disponibles (de Internet) con los que entrenar la red, significa que los modelos de lenguaje pueden hacer cada vez más, como lo demuestra el Chat Generative Pre-trained Transformer o ChatGPT.ChatGPT es un modelo de lenguaje entrenado por OpenAI. Se presentó públicamente en noviembre de 2022 ( https://openai.com/blog/chatgpt ) y ha demostrado una nueva forma en que las máquinas impulsadas por IA pueden interactuar con las personas. Los chatbots de nueva generación prometen ser un escriba y un entrenador, pero con algunas advertencias clave. Muchas de estas advertencias fueron descritas por los desarrolladores de ChatGPT en su lanzamiento, pero merecen una consideración especial cuando se utilizan en medicina, como detallan Lee et al. 11 En su iteración actual, la nueva generación de chatbots puede ayudar con el problema de la documentación médica y responder preguntas clave que podrían ayudar en el diagnóstico diferencial, como se señaló anteriormente. Pero es difícil saber si las respuestas proporcionadas se basan en hechos apropiados. La responsabilidad de revisar el trabajo del chatbot recaería en los médicos, al igual que los médicos deben revisar las notas clínicas que dictan. La dificultad es que dicha revisión puede estar más allá de la experiencia del usuario. Es probable que la corrección de una nota sobre la visita de un paciente esté dentro del ámbito de experiencia del proveedor, pero si se le hace una pregunta al chatbot como una «consulta en la acera», la veracidad de la respuesta puede ser mucho más difícil de determinar.La aplicación con mayor potencial y mayor preocupación es el uso de chatbots para realizar diagnósticos o recomendar tratamientos. Un usuario sin experiencia clínica podría tener problemas para diferenciar los hechos de la ficción. Ambas cuestiones se abordan en el artículo de Lee y sus colegas, 11 quienes señalan las fortalezas y debilidades del uso de chatbots en medicina. Dado que los autores han creado una de esas entidades, es probable que exista sesgo.Sin embargo, creemos que los chatbots se convertirán en herramientas importantes en la práctica médica. Como cualquier buena herramienta, pueden ayudarnos a hacer mejor nuestro trabajo, pero si no se utilizan adecuadamente, tienen el potencial de causar daños. Dado que las herramientas son nuevas y difíciles de probar con el uso de los métodos tradicionales mencionados anteriormente, la comunidad médica aprenderá a usarlas, pero debemos aprender. No hay duda de que los chatbots también aprenderán de sus usuarios. Por lo tanto, anticipamos un período de adaptación tanto por parte del usuario como de la herramienta.

Conclusiones

Creemos firmemente que la introducción de la IA y el aprendizaje automático en la medicina ha ayudado a los profesionales de la salud a mejorar la calidad de la atención que pueden ofrecer y promete mejorarla aún más en el futuro cercano y en el futuro. Así como la adquisición por computadora de imágenes radiográficas eliminó la sala de archivos de rayos X y las imágenes perdidas, la IA y el aprendizaje automático pueden transformar la medicina. Los profesionales de la salud descubrirán cómo trabajar con la IA y el aprendizaje automático a medida que crezcamos junto con la tecnología. La IA y el aprendizaje automático no dejarán a los profesionales de la salud fuera del negocio; por el contrario, permitirán que los profesionales de la salud hagan mejor su trabajo y dejen tiempo para las interacciones entre humanos que hacen de la medicina la profesión gratificante que todos valoramos.

Medicina de Precisión: Futuro de la Investigación Biomédica

Francis S. Collins 

El Presidente Obama había expresado desde hace tiempo su firme convicción de que la ciencia ofrece un gran potencial para mejorar la salud. Ahora, el Presidente ha anunciado una iniciativa de investigación que tiene como objetivo acelerar el progreso hacia una nueva era de medicina de precisión ( www.whitehouse.gov/precisionmedicine ). Creemos que es el momento adecuado para esta iniciativa visionaria, y los Institutos Nacionales de Salud (NIH) y otros socios trabajarán para hacer realidad esta visión. El concepto de medicina de precisión (estrategias de prevención y tratamiento que tienen en cuenta la variabilidad individual) no es nuevo  por ejemplo, la tipificación sanguínea se ha utilizado para orientar las transfusiones de sangre durante más de un siglo, pero la posibilidad de aplicar este concepto de manera amplia ha mejorado drásticamente gracias al reciente desarrollo de bases de datos biológicas a gran escala (como la secuencia del genoma humano), métodos poderosos para caracterizar a los pacientes (como la proteómica, la metabolómica, la genómica, diversos ensayos celulares e incluso la tecnología de salud móvil) y herramientas computacionales para analizar grandes conjuntos de datos. Lo que se necesita ahora es un amplio programa de investigación para alentar enfoques creativos de la medicina de precisión, probarlos rigurosamente y, en última instancia, utilizarlos para construir la base de evidencia necesaria para orientar la práctica clínica.

La iniciativa propuesta tiene dos componentes principales: un enfoque a corto plazo en los cánceres y un objetivo a más largo plazo de generar conocimientos aplicables a toda la gama de la salud y la enfermedad. Ambos componentes están ahora a nuestro alcance gracias a los avances en la investigación básica, incluida la biología molecular, la genómica y la bioinformática. Además, la iniciativa aprovecha las tendencias convergentes de mayor conectividad, a través de las redes sociales y los dispositivos móviles, y el creciente deseo de los estadounidenses de ser socios activos en la investigación médica.La oncología es la opción clara para mejorar el impacto a corto plazo de la medicina de precisión. Los cánceres son enfermedades comunes; en conjunto, se encuentran entre las principales causas de muerte a nivel nacional y mundial, y su incidencia aumenta a medida que la población envejece. También son especialmente temidos, debido a su letalidad, sus síntomas y las terapias a menudo tóxicas o desfigurantes que se utilizan para tratarlos. La investigación ya ha revelado muchas de las lesiones moleculares que impulsan los cánceres, mostrando que cada cáncer tiene su propia firma genómica, con algunas características específicas del tumor y algunas características comunes a múltiples tipos. Aunque los cánceres son en gran medida una consecuencia de la acumulación de daño genómico durante la vida, las variaciones genéticas heredadas contribuyen al riesgo de cáncer, a veces profundamente. Esta nueva comprensión de los mecanismos oncogénicos ha comenzado a influir en la evaluación de riesgos, las categorías de diagnóstico y las estrategias terapéuticas, con un uso creciente de medicamentos y anticuerpos diseñados para contrarrestar la influencia de impulsores moleculares específicos. Se han desarrollado (y se están desarrollando) muchas terapias dirigidas, y se ha demostrado que varias de ellas confieren beneficios, algunos de ellos espectaculares. 

2 Además, los nuevos enfoques inmunológicos han producido recientemente algunas respuestas profundas, con indicios de que las firmas moleculares pueden ser fuertes predictores de beneficios. 

3Estas características hacen que los esfuerzos por mejorar las formas en que anticipamos, prevenimos, diagnosticamos y tratamos los cánceres sean urgentes y prometedores. Sin embargo, para hacer realidad esa promesa se requerirán los muchos esfuerzos diferentes que se reflejan en la iniciativa del Presidente. Para lograr una comprensión más profunda de los cánceres y descubrir herramientas adicionales para el diagnóstico molecular, necesitaremos analizar muchos más genomas del cáncer. Para acelerar la adopción de nuevas terapias, necesitaremos más ensayos clínicos con diseños novedosos 

4 realizados en pacientes adultos y pediátricos y modelos más confiables para las pruebas preclínicas. También necesitaremos construir una «red de conocimiento sobre el cáncer» para almacenar los datos moleculares y médicos resultantes en forma digital y entregarlos, de manera comprensible, a los científicos, los trabajadores de la salud y los pacientes.El componente de esta iniciativa centrado en el cáncer estará diseñado para abordar algunos de los obstáculos que ya se han encontrado en la “oncología de precisión”: resistencia inexplicable a los medicamentos, heterogeneidad genómica de los tumores, medios insuficientes para monitorear las respuestas y la recurrencia de los tumores, y conocimiento limitado sobre el uso de combinaciones de medicamentos.El enfoque más individualizado y molecular de la medicina de precisión para el tratamiento del cáncer enriquecerá y modificará, pero no reemplazará, los pilares de éxito de la oncología (prevención, diagnóstico, algunos métodos de detección y tratamientos eficaces), al tiempo que proporcionará un marco sólido para acelerar la adopción de la medicina de precisión en otras esferas. Las más obvias de esas esferas son los trastornos genéticos hereditarios y las enfermedades infecciosas, pero hay posibilidades de que se apliquen a muchas otras enfermedades y respuestas ambientales.El segundo componente de la iniciativa implica buscar avances en la investigación que permitan una mejor evaluación del riesgo de enfermedades, la comprensión de sus mecanismos y la predicción de la terapia óptima para muchas más enfermedades, con el objetivo de ampliar los beneficios de la medicina de precisión a innumerables aspectos de la salud y la atención sanitaria.La iniciativa alentará y apoyará a la próxima generación de científicos para que desarrollen nuevos enfoques creativos para detectar, medir y analizar una amplia gama de información biomédica, incluidos parámetros moleculares, genómicos, celulares, clínicos, conductuales, fisiológicos y ambientales. Se nos ocurren muchas posibilidades para futuras aplicaciones: los recuentos sanguíneos actuales podrían reemplazarse por un censo de cientos de tipos distintos de células inmunitarias; los datos de los dispositivos móviles podrían proporcionar un seguimiento en tiempo real de la glucosa, la presión arterial y el ritmo cardíaco; la genotipificación podría revelar variantes genéticas particulares que confieren protección contra enfermedades específicas; el muestreo de heces podría identificar patrones de microbios intestinales que contribuyen a la obesidad; o los análisis de sangre podrían detectar células tumorales circulantes o ADN tumoral que permitan la detección temprana del cáncer o su recurrencia.Estas innovaciones primero tendrán que probarse en estudios piloto. En un principio, querremos aprovechar los entornos poco comunes en los que ya es posible recopilar información valiosa mediante ensayos clínicos, registros médicos electrónicos y otros medios.En última instancia, tendremos que evaluar los enfoques más prometedores en un número mucho mayor de personas durante períodos más prolongados. Con este fin, prevemos reunir con el tiempo una “cohorte” longitudinal de un millón o más de estadounidenses que se hayan ofrecido como voluntarios para participar en la investigación. Se pedirá a los participantes que den su consentimiento para una caracterización exhaustiva de muestras biológicas (poblaciones celulares, proteínas, metabolitos, ARN y ADN, incluida la secuenciación del genoma completo, cuando los costos lo permitan) y datos de comportamiento, todos ellos vinculados a sus registros médicos electrónicos. Investigadores calificados de muchas organizaciones tendrán acceso a los datos de la cohorte, con la protección adecuada de la confidencialidad del paciente, de modo que las mentes científicas y clínicas más brillantes del mundo puedan aportar ideas y análisis. Estos datos también permitirán estudios observacionales de medicamentos y dispositivos y posiblemente impulsen estudios intervencionistas más rigurosos que aborden cuestiones específicas.Esta variedad de actividades de investigación impulsará nuestra comprensión de las enfermedades (sus orígenes y mecanismos, y las oportunidades de prevención y tratamiento), sentando una base sólida y amplia para la medicina de precisión. También será pionera en nuevos modelos de hacer ciencia que hagan hincapié en la participación activa y en el intercambio abierto y responsable de datos. Además, los propios participantes podrán acceder a su información sanitaria y a información sobre las investigaciones que utilizan sus datos.La cohorte de investigación se reunirá en parte a partir de algunos estudios de cohorte existentes (muchos financiados por el NIH) que ya han recopilado o están bien posicionados para recopilar datos de participantes dispuestos a participar en la nueva iniciativa. La creación de este recurso requerirá una amplia planificación para lograr el equilibrio adecuado de participantes, desarrollar nuevos enfoques para la participación y el consentimiento y forjar alianzas sólidas entre las cohortes existentes, los grupos de pacientes y el sector privado. También será fundamental examinar cuidadosamente los éxitos y las deficiencias de otros estudios de cohorte longitudinales.Para alcanzar los objetivos de la medicina de precisión también será necesario avanzar en los marcos regulatorios del país. Para liberar el poder de las personas para participar en la investigación de maneras innovadoras, el NIH está trabajando con el Departamento de Salud y Servicios Humanos para que la Norma Común, una norma que data de hace décadas y que originalmente fue diseñada para proteger a los participantes de la investigación, 

5 esté más en línea con el deseo de los participantes de ser socios activos en la ciencia moderna. Para ayudar a acelerar la traducción de tales descubrimientos, la Administración de Alimentos y Medicamentos está trabajando con la comunidad científica para asegurarse de que su supervisión de la tecnología genómica respalde la innovación, al tiempo que garantiza que el público pueda confiar en que la tecnología es segura y eficaz. Aunque la iniciativa de la medicina de precisión probablemente rendirá sus mayores beneficios dentro de algunos años, debería haber algunos éxitos notables a corto plazo. Además de los resultados de los estudios sobre el cáncer descritos anteriormente, los estudios de una gran cohorte de investigación expuesta a muchos tipos de terapias pueden proporcionar conocimientos tempranos sobre farmacogenómica, lo que permitirá proporcionar el medicamento correcto en la dosis correcta al paciente correcto. Las oportunidades de identificar personas con mutaciones raras de pérdida de función que protegen contra enfermedades comunes pueden indicar objetivos farmacológicos atractivos para amplias poblaciones de pacientes. Y las observaciones del uso beneficioso de las tecnologías de salud móviles pueden mejorar las estrategias para prevenir y controlar las enfermedades crónicas.Proyectos ambiciosos como éste no pueden planificarse con total antelación; deben evolucionar en respuesta a los hallazgos científicos y médicos. Gran parte de la metodología necesaria aún está por inventarse y requerirá la participación creativa y enérgica de biólogos, médicos, desarrolladores de tecnología, científicos de datos, grupos de pacientes y otros. Lo ideal sería que los esfuerzos se extendieran más allá de nuestras fronteras, mediante colaboraciones con proyectos relacionados en todo el mundo. El interés mundial en los objetivos de la iniciativa debería motivar y atraer a científicos visionarios de muchas disciplinas.Esta iniciativa también requerirá nuevos recursos, que no deberían competir con el apoyo a los programas existentes, especialmente en un clima fiscal difícil. Con recursos suficientes y un compromiso firme y sostenido de tiempo, energía e ingenio por parte de las comunidades científica, médica y de pacientes, se podrá aprovechar todo el potencial de la medicina de precisión para ofrecer a todos las mejores posibilidades de gozar de buena salud.

Estudio de sistemas complejos en atención de la salud: Descomposición funcional y análisis teórico

Thomas G. Kannampallil

Una tendencia reciente en la literatura ha sido caracterizar las actividades de atención de salud en términos de la teoría de sistemas complejos. La complejidad a menudo se ha definido de manera vaga y variada, con significados que van desde “no simple” a “complicado” a “intratable”. En este artículo, consideramos varios aspectos de la complejidad y cómo se relacionan con la práctica de atención de salud moderna, con el objetivo de desarrollar enfoques de investigación para estudiar entornos de atención de salud complejos. Proponemos una perspectiva teórica para comprender y estudiar la complejidad en los sistemas de atención de salud basada en los grados de interrelación de los componentes del sistema. También describimos, con las salvedades pertinentes, cómo los sistemas de atención de salud complejos son generalmente descomponibles, lo que los hace más manejables para estudios posteriores. Las ideas de interrelación entre los componentes de un sistema como una medida de complejidad y descomposición funcional como un mecanismo para estudiar subcomponentes significativos de un sistema complejo pueden usarse como un marco para comprender los sistemas de atención de salud complejos. Usando ejemplos extraídos de la literatura actual y nuestra propia investigación, explicamos la viabilidad de este enfoque para comprender, estudiar y gestionar sistemas de atención de salud complejos.

The content provides a thorough exploration of the concept of complexity in healthcare systems. The discussion of the definition of complexity and its properties is insightful, offering valuable insights into the impact of complexity on the «computability» of systems. The examples of studies on complex systems help illustrate the practical application of the proposed approach.

Resumen gráfico

Esta figura resume el rango de complejidad de los sistemas, destacando cuatro extremos como una combinación del número de componentes y la interrelación entre esos componentes.

1. Introducción​

El término “complejidad” se utiliza a menudo en la literatura científica para definir tareas o sistemas que van desde complicados a insolubles, con un significado general de “no simple”. Como señaló un premio Nobel y cofundador del Instituto Santa Fe, “se necesitarían diversas medidas diferentes para capturar todas nuestras ideas intuitivas sobre lo que se entiende por complejidad y por su opuesto, la simplicidad”.[10]Lo que generalmente se reconoce en investigaciones anteriores es que las definiciones de complejidad son ambiguas y dependen del contexto.[19], y subjetivo[10]. Si bien los investigadores han hecho referencia a la complejidad de la práctica de la atención médica como una consideración importante para la seguridad y la calidad del paciente[1],[17],[22],[24],[32],[36], es importante señalar que parte de este trabajo ha sido recibido con escepticismo (por ejemplo,[21],[26]), lo que provoca respuestas de que las ideas clave de la teoría de la complejidad utilizadas en la atención médica son a menudo ideas distorsionadas “presentadas bajo el disfraz de la complejidad”[21]y son simplemente el “nuevo conjunto de herramientas del emperador”[26].

La teoría de la complejidad se ha utilizado para estudiar diferentes aspectos de la atención sanitaria, incluida la gestión.[24], continuidad de la atención[33], enfermería[18], y toma de decisiones[6]Por ejemplo, Bar-Yam[1]Basó su análisis de todo el sistema sanitario estadounidense en una definición organizacional de complejidad, en la que las organizaciones complejas (como las dedicadas a la práctica sanitaria) se distinguían por sus tareas designadas. Estas tareas eran numerosas, diversas y llevadas a cabo por individuos únicos. En cambio, Innes y sus colegas[15]Consideraron la consulta individual del paciente como su unidad de análisis y destacaron características de este encuentro que eran análogas a las exhibidas por sistemas adaptativos complejos, como la no linealidad (que conduce a la incertidumbre) y la adaptación a la influencia de agencias externas.[23]La mayor parte del trabajo previo sobre la complejidad de la atención médica es descriptivo y proporciona información limitada para investigadores y profesionales sobre cómo estudiar y comprender los sistemas complejos.

En este artículo, proponemos una perspectiva teórica para comprender y estudiar la complejidad en los sistemas de atención de la salud, en particular en entornos dinámicos como los entornos de cuidados intensivos y de urgencias. Esta perspectiva teórica, basada en la interrelación entre los componentes de un sistema complejo, ofrece a los investigadores y a los profesionales un enfoque para comprender y gestionar la complejidad. Basándonos en estudios previos y en nuestra propia investigación, proporcionamos ejemplos de cómo se puede utilizar esta perspectiva para identificar, estudiar y potencialmente resolver problemas actuales y relevantes en el ámbito de la atención de la salud. Para ello, consideramos los diversos sentidos del término “complejidad” y cómo se relacionan con la práctica sanitaria moderna, con el objetivo de facilitar enfoques de investigación mejor informados para estudiar entornos sanitarios complejos.

2. Definición de complejidad y sus propiedades

Las primeras caracterizaciones de la complejidad surgieron de la física (por ejemplo, la teoría del caos, la complejidad de la red) y la informática (por ejemplo, la complejidad computacional, los autómatas celulares).[13],[34], economía, biología y filosofía (por ejemplo, dimensiones espacio-temporales de la complejidad)[10]Otras caracterizaciones relacionadas han descrito la complejidad como algo que surge de la naturaleza de los problemas en relación con su solución. Por ejemplo, “malvado”[27]o “mal estructurado”[30]Se ha atribuido a los problemas características de la complejidad. Las disciplinas científicas más nuevas también se han apropiado y adaptado caracterizaciones de la complejidad para que se ajusten a sus campos de estudio. Si bien existe una superposición considerable entre las muchas definiciones[10]Sigue habiendo un desacuerdo significativo sobre la noción de complejidad y la naturaleza de la ciencia de la complejidad.[23].

Definimos la complejidad en términos de una de las nociones más comúnmente aceptadas: la interrelación de los componentes de un sistema. [29],[30],[31]. Por interrelación entendemos la influencia de los componentes del sistema entre sí. En este sentido, la complejidad es relativa: aumenta con el número de componentes de un sistema, el número de relaciones entre ellos y la singularidad de esas relaciones. Esta última noción de singularidad refleja la idea de que expandir un sistema mediante la mera repetición o transformaciones simples de relaciones y componentes no contribuye sustancialmente a su complejidad. Si bien la gran cantidad de componentes de un sistema puede hacerlo «complicado», es el grado y la cantidad de relaciones entre los componentes, tanto manifiestas como latentes, lo que lo hace inherentemente complejo. Esta interrelación entre los componentes de los sistemas complejos se manifiesta como propiedades o características del sistema, como la no descomponibilidad y la emergencia, el comportamiento no lineal y, en algunos casos, la autoorganización. Varios investigadores (por ejemplo,[27],[29],[30],[31]) han descrito estas propiedades como características distintivas de los sistemas complejos. Sin embargo, estas propiedades también pueden entenderse como consecuencias de la interrelación de los componentes del sistema. En consecuencia, describimos dos propiedades particularmente notables de los sistemas complejos en términos de interrelaciones: la no descomponibilidad y el comportamiento no lineal.

La no descomponibilidad es a menudo una consecuencia de la red de interrelaciones entre los componentes de los sistemas complejos. Significa que dichos sistemas no pueden entenderse atendiendo a sus componentes individuales de forma aislada. Es decir, en la medida en que los componentes de los sistemas complejos se examinen de forma aislada (ignorando las interrelaciones entre ellos), se podrá entender menos acerca del sistema. Sin embargo, es importante considerar que algunas interrelaciones suelen ser más sustanciales que otras, de modo que la no descomponibilidad no es absoluta. La no descomponibilidad no significa que no se puedan estudiar los sistemas complejos; más bien, implica que el enfoque o la granularidad en el estudio de dichos sistemas debe adaptarse a las limitaciones de las interrelaciones.

Un resultado conductual importante de las interrelaciones, una especie de “no descomponibilidad de las acciones”, es el de la emergencia [8],[9],[16]Las interacciones entre los componentes de sistemas complejos, debido a sus interrelaciones, a menudo conducen a propiedades de comportamiento inesperadas de dichos sistemas. Estas propiedades normalmente no se pueden predecir a partir de las características de comportamiento de los componentes individuales del sistema. También puede ocurrir una forma particular de emergencia, el comportamiento del sistema autoorganizado.

Las interrelaciones entre los componentes del sistema tienden a complicar las respuestas de los sistemas complejos a la influencia externa. Es decir, a medida que los sistemas se vuelven más complejos, tienden a tener un comportamiento cada vez más no lineal . La linealidad se caracteriza por la previsibilidad y proporcionalidad de los comportamientos en respuesta a las influencias externas; los sistemas cada vez más complejos tienden a comportarse de manera menos predecible y proporcional.[24]Cuando influencias muy pequeñas producen grandes cambios, tales comportamientos se denominan “caóticos”. Una implicación de la no linealidad de los sistemas complejos es su relativa mayor desapego, o “libertad”, de respuesta directa a las influencias ambientales. Esta capacidad de los sistemas complejos para mantener ciertas características a pesar de las influencias ambientales, a menudo denominada robustez[4], ha inspirado el enfoque de la ingeniería de resiliencia[14], que tiene como objetivo mejorar la capacidad de los sistemas críticos ante errores, incluido el sistema de salud, para tolerar el error humano.

3. Efectos de la complejidad: retos para la “computabilidad”

Uno de los efectos críticos de la complejidad de los sistemas es su “computabilidad”. En otras palabras, existe un costo involucrado (en términos de recursos cognitivos, computacionales, temporales o físicos requeridos o gastados) cuando se trabaja dentro o sobre dichos sistemas. Por ejemplo, las personas que trabajan dentro de sistemas complejos a menudo gastan un esfuerzo cognitivo o físico sustancial en la realización de tareas, o pueden emplear heurísticas (es decir, atajos mentales) para hacer frente a ellas. Del mismo modo, para los observadores externos que intentan comprender los sistemas complejos, la interrelación de los componentes introduce desafíos significativos para comprender eficazmente el sistema, y ​​a veces se ignoran aspectos importantes de dichos sistemas para su propio riesgo. Comprender , describir , predecir y gestionar son objetivos fundamentales para las personas que trabajan dentro de sistemas complejos, así como para quienes los estudian.

La forma en que la cantidad de componentes y las interrelaciones (únicas) entre los componentes ejemplifican la complejidad del sistema se puede entender considerando combinaciones representativas bajas y altas de ambos. Según la cantidad de componentes y el grado de relación, son posibles varias combinaciones, y cada una de estas combinaciones presenta diferentes desafíos de computabilidad. Es importante considerar la computabilidad de un sistema complejo (o un componente de un sistema complejo), ya que es una medida para determinar el grado en que uno es capaz de describir, predecir y posiblemente gestionar un sistema complejo. Consideramos cuatro condiciones para caracterizar el rango de complejidad del sistema. Estas cuatro condiciones no son de ninguna manera exhaustivas. Son posibles varias condiciones intermedias, según la cantidad de componentes y los grados de interrelación. Nuestro propósito principal es mostrar el rango significativo de complejidad que puede manifestarse en los sistemas. Se proporciona un resumen de estas condiciones enFigura 1En la descripción que sigue, proporcionamos un ejemplo en el que cada condición ocurre en un entorno de práctica clínica.

  • 1.Pocos componentes, baja interrelación. Estos sistemas son simples , con bajos costos computacionales, lo que los hace relativamente fáciles de entender, describir, predecir y administrar en diversas circunstancias. Además, estos sistemas son fácilmente descomponibles y muestran un comportamiento casi lineal en la mayoría de las circunstancias. Un ejemplo de pocos componentes (médico, nota e interfaz de computadora) y relaciones (entradas y respuestas de computadora) sería un médico que simplemente copia la información médica del paciente desde su nota escrita a mano a una interfaz de registro médico electrónico (EMR).
  • 2.Muchos componentes, poca interrelación. Estos sistemas son complicados , en el sentido de que contienen una gran cantidad de componentes, pero las relaciones entre ellos son pocas. Esto agrega costos computacionales solo en la medida en que se deben considerar más componentes del sistema. Como tal, estos sistemas se pueden describir, predecir y administrar, aunque a un costo computacional linealmente más alto en comparación con los sistemas simples. Por ejemplo, considere un sistema EMR utilizado por múltiples miembros del personal (médicos, enfermeras, farmacéuticos y administradores de facturación), cada uno interactuando con el sistema de manera limitada para sus tareas específicas basadas en roles.
  • 3.Pocos componentes, alta interrelación. Estos sistemas son relativamente complejos y requieren costos computacionales significativos. El número relativamente pequeño de componentes los hace más fáciles de describir pero significativamente más difíciles de predecir o manejar. La alta interrelación dentro del sistema conduce a una menor descomponibilidad. Es posible que podamos estudiar estos sistemas como un «todo» (debido a su número relativamente pequeño de componentes), en lugar de descomponerlos en subcomponentes funcionales. Por ejemplo, considere las interacciones entre los miembros del equipo en una unidad de cuidados críticos durante una situación de trauma (por ejemplo, un «código azul»). El equipo que responde a un código puede incluir solo unos pocos miembros, pero la interacción entre los miembros del equipo puede ser extremadamente divergente, dependiendo de la situación. Shetty et al.[28], por ejemplo, encontraron divergencias considerables en el desempeño (desviación del protocolo, errores) entre dos equipos similares para escenarios de simulación de reanimación idénticos, lo que muestra el comportamiento significativamente variado de equipos de cuidados críticos pequeños y altamente interdependientes.
  • 4.Muchos componentes, alta interrelación. Estos sistemas son complejos y a menudo presentan costos computacionales muy altos. Debido a la alta interrelación entre su gran cantidad de componentes, estos sistemas son difíciles de describir y mucho más difíciles de predecir o administrar. Por ejemplo, múltiples equipos de cuidados críticos que atienden traumas de un evento con muchas víctimas tienen que lidiar con múltiples pacientes con diferentes afecciones, con un entorno de trabajo significativamente cambiado (por ejemplo, protocolos de trauma). Tal escenario sería un caso compuesto del ejemplo presentado en la condición 3 anterior, lo que da como resultado una cantidad significativa de componentes (es decir, una gran cantidad de pacientes y equipos de atención al paciente) y una alta interrelación (dentro y entre los miembros del equipo) para administrar el flujo de trabajo en este entorno de cuidados críticos.

Para estudiar el comportamiento de los sistemas, es necesario comprender la naturaleza de la organización de los componentes.[35]—es decir, identificar componentes e interrelaciones entre componentes. En las condiciones 1 y 2, donde el grado de interrelación es bajo, es posible describir, predecir y gestionar el comportamiento del sistema. En las condiciones 3 y 4, el número significativo de interrelaciones entre componentes puede provocar un comportamiento del sistema altamente errático e impredecible.

4. Estudio de sistemas complejos

Los sistemas complejos pueden parecer muy diferentes, dependiendo de los aspectos, la granularidad y las circunstancias en las que el investigador decida centrarse. Sin embargo, es importante señalar que estos cambios de perspectiva no modifican la complejidad del sistema, ya que esta es intrínseca y está definida por las interrelaciones de todos sus componentes, independientemente de si se examinan o no dichas interrelaciones. Algunos aspectos de interés, niveles de análisis o situaciones pueden revelar una complejidad significativa del sistema, mientras que otros no. Por lo tanto, los desafíos que surgen al estudiar sistemas complejos dependen en gran medida de las preguntas de investigación que se plantean y de los niveles de detalle y precisión con los que se buscan respuestas.

Como investigadores, no podemos caracterizar satisfactoriamente los sistemas complejos desde una perspectiva global únicamente. Como observó proféticamente Herbert Simon décadas antes del surgimiento de la ciencia de la complejidad como campo unificado, no se puede estudiar la complejidad de un sistema sin “especificar el contenido de la complejidad”.[31]En otras palabras, Simon defendió la necesidad de descomponer los sistemas complejos , siempre que sea posible, en componentes funcionales más pequeños y las relaciones entre ellos. La descomposición, en este contexto, es el proceso de caracterizar un sistema en términos de subsistemas o componentes y las relaciones entre ellos para caracterizarlos en términos de interrelaciones discernibles entre componentes relativamente más simples. Groen y Patel[12]Se utilizaron perspectivas similares sobre la interrelación para analizar la naturaleza de la coherencia en el texto médico.

El desafío, entonces, es identificar los “tamaños” correctos de los componentes y las interrelaciones que existen entre ellos. En otras palabras, para extraer información de un sistema complejo, “uno debe concentrarse en el nivel correcto de descripción”.[11]La tarea de cortar un sistema en sus costuras requiere un estudio significativo de los comportamientos de los componentes, las interrelaciones de los componentes y, lo más importante, si el subconjunto aislado del sistema es representativo y apropiado para estudiar el problema en cuestión. La preocupación clave aquí es la identificación de la granularidad y las costuras adecuadas de los componentes funcionales que se pueden estudiar más a fondo. La descomposición adecuada debe basarse en la naturaleza del problema que se está resolviendo, el propósito de estudiar el sistema complejo (es decir, describir, comprender, predecir o gestionar) y las implicaciones esperadas del estudio del sistema.[11].

Para descomponer un sistema complejo en sus componentes constituyentes, primero hay que identificar los componentes (con un nivel de granularidad adecuado). A continuación, se debe determinar el grado (o la fuerza), la singularidad y el número de relaciones entre los diversos componentes. El grado de interrelación entre los componentes afecta al funcionamiento del sistema. Por ejemplo, un acoplamiento estrecho entre dos componentes significa que su comportamiento está fuertemente vinculado. Al mismo tiempo, una relación débil indica una menor dependencia. La influencia entre los componentes también puede caracterizarse como probabilística, correlacional o direccional. Cortar o ignorar las interrelaciones fuertes o únicas puede tener efectos significativamente mayores que ignorar las relaciones débiles o redundantes en el comportamiento general del sistema. Por ejemplo, para estudiar las prácticas de transferencia de médicos en entornos de atención de emergencia, es probable que las cuestiones relacionadas con la transferencia de información relacionada con el paciente sean más importantes de considerar que las relacionadas con la disponibilidad de recursos o la gestión de camas. En otras palabras, al crear una porción funcional para estudiar las prácticas de transferencia de atención de emergencia, es más importante considerar el componente de información del paciente que el componente de recursos o gestión de camas.

La naturaleza del problema que se está resolviendo y el propósito de estudiar el sistema complejo a menudo están determinados por los objetivos de la investigación y el contexto en el que se estudia el problema. En el ejemplo presentado anteriormente sobre las prácticas de transferencia de médicos en entornos de cuidados críticos, la creación de un segmento funcional estuvo determinada por la pregunta de investigación (es decir, el estudio de las prácticas de transferencia). En consecuencia, los investigadores y los médicos deben tomar decisiones conscientes y apropiadas sobre qué relaciones ignorar y cuáles preservar, en lugar de tomar tales decisiones de manera implícita. Si bien a menudo es imposible hacer una descomposición funcional “perfecta” de un sistema complejo, se debe utilizar la comprensión de las relaciones entre los diversos componentes para descomponer el sistema en sus límites internos o “costuras naturales”.

Con ese fin, también debe considerarse la posibilidad de interrelaciones “latentes” entre los componentes. El comportamiento del sistema a menudo varía en diferentes condiciones que pueden o no revelar la naturaleza de las relaciones entre los diversos componentes dentro del sistema. Algunas relaciones permanecen latentes en la mayoría de las condiciones y aparecen solo en ciertas condiciones específicas. Dichas condiciones pueden considerarse como estados de “perturbación” del sistema. Por ejemplo, el funcionamiento de un servicio de urgencias cambia cuando hay una afluencia repentina de pacientes críticos debido a un evento con muchas víctimas. En consecuencia, el flujo de trabajo, las actividades de los médicos, el comportamiento grupal y los procesos de transferencia tienden a ser significativamente diferentes de las condiciones de trabajo normales. Varios aspectos del flujo de trabajo del servicio de urgencias cambian, incluido el hecho de que se trae personal fuera de servicio para brindar apoyo clínico, se adoptan protocolos para traumatismos y se suspende la enseñanza (es decir, en hospitales docentes).[25]En tales situaciones, aparentemente surgen nuevas dependencias o se pueden fortalecer otras débiles (como la activación de protocolos de trauma o la suspensión de la enseñanza, en el ejemplo). Dependiendo del problema complejo que se esté estudiando, es importante considerar diversas condiciones del sistema y las relaciones que dichas condiciones pueden exponer.

Hasta ahora, hemos estado considerando sistemas que potencialmente pueden descomponerse en componentes funcionales más pequeños para su evaluación y análisis. A esta complejidad se la denomina complejidad organizada . Algunos sistemas no son susceptibles de descomposición: por ejemplo, aquellos que tienen todos sus componentes interconectados. Weaver[35]describe esto como complejidad desorganizada . En sistemas (o sus componentes funcionales) en los que la complejidad desorganizada es sustancial, el enfoque debe estar en describir estos sistemas en términos de parámetros estadísticos o limitantes (por ejemplo, promedios, límites o fronteras). Hay muchos casos de tal complejidad desorganizada en sistemas clínicos. Por ejemplo, considere un DE donde la llegada de nuevos pacientes en un día específico es menos predecible pero es posible determinar promedios de tasas de llegada de pacientes durante un período de tiempo fijo (digamos, un mes). Como investigadores y profesionales, es importante ser conscientes de la complejidad desorganizada y que se deben considerar las variables apropiadas para su descripción.

5. Ejemplos de estudio de sistemas complejos

Uno de los propósitos de este artículo es desarrollar un enfoque para el estudio de sistemas complejos. Como se mencionó anteriormente, nuestra perspectiva se basa en el principio de descomposición funcional de un sistema complejo: se debe especificar el problema a resolver, luego delinear los componentes del sistema y las relaciones entre ellos y, finalmente, aislar los componentes apropiados del sistema para su estudio. Si bien no existe un conjunto de heurísticas generales que se puedan aplicar para la descomposición funcional de todos los sistemas, las etapas mencionadas anteriormente se pueden utilizar como una hoja de ruta de alto nivel. Como ejemplos para explicar mejor nuestra perspectiva, nos basamos en tres artículos de investigación. Estos artículos de ejemplo fueron seleccionados según los siguientes criterios: (a) los autores describen el entorno que están estudiando como un entorno de atención médica complejo y (b) utilizan alguna forma de proceso de descomposición funcional para identificar componentes y relaciones específicas entre componentes.

5.1 . Modelado de flujo de trabajo en cuidados intensivos

Malhotra y otros.[20]Los autores desarrollaron un modelo de flujo de trabajo de la unidad de cuidados intensivos (UCI) descomponiendo las actividades del flujo de trabajo en las de los médicos individuales. Para desarrollar un modelo cognitivo e identificar las posibles fuentes de errores en el flujo de trabajo, descompusieron el flujo de trabajo de la UCI en (a) zonas críticas de actividades organizadas temporalmente, (b) recursos de conocimiento que se utilizaron mientras un médico (asistente, enfermero, residente) estaba en una de las zonas críticas y (c) los errores que ocurrieron durante estas actividades. En otras palabras, descompusieron el flujo de trabajo de la UCI en actividades laborales específicas tanto a nivel individual como colaborativo, identificaron las posibles relaciones entre las actividades laborales mediante una secuencia temporal de zonas críticas y, finalmente, utilizaron las relaciones para identificar las fuentes de errores o averías. Los autores utilizan la metáfora de un rompecabezas de imágenes para explicar los fundamentos conceptuales de su trabajo. Al descomponer el problema en piezas individuales que tienen características y relaciones únicas, se desarrolló un modelo de componentes del sistema de flujo de trabajo de la UCI. Los componentes del modelo que se combinaron fueron aquellos que eran «sensatos e informativos».[20]En este estudio, los autores descomponen el problema del flujo de trabajo en la UCI en actividades individuales y los requisitos cognitivos asociados con esas actividades. Al centrarse en los individuos (médicos asistentes, residentes, enfermeras) y las actividades laborales relacionadas, los autores reducen de manera innovadora la compleja red de actividades en la UCI a una escala comprensible. Utilizando capas de otras variables, incluida la ubicación de las actividades y las secuencias temporales, desarrollaron e hicieron inteligible un modelo complejo del flujo de trabajo en la UCI.

5.2 . Traslado de urgencias a UCI

Chalfin y otros.[5]Investigaron la asociación entre la duración de la estancia en urgencias y los resultados de los pacientes en estado crítico. Utilizando datos de pacientes sobre traslados de la base de datos del proyecto IMPACT, descubrieron que los pacientes con un mayor tiempo de estancia en urgencias (≥6  h) presentaban una mayor duración de la estancia hospitalaria (LOS) y mayores tasas de mortalidad. En otras palabras, los autores encontraron una asociación entre la LOS en urgencias y los resultados de los pacientes en la UCI, teniendo en cuenta varias características objetivas disponibles de los pacientes (p. ej., edad, sexo, estado de reanimación y puntuación de la Evaluación de salud crónica y fisiológica aguda II).

Los autores describen un estudio en el que consideraron las transferencias de pacientes de urgencias a la UCI en función de parámetros específicos del paciente: características del paciente, agudeza del paciente, condiciones médicas, LOS y resultados (p. ej., mortalidad). La porción del problema de investigación seleccionado se limitó a ciertos parámetros disponibles y, de hecho, relevantes. El punto importante a destacar aquí es que hay varios parámetros más que pueden influir potencialmente en las transferencias de urgencias a la UCI, por ejemplo, el papel de los equipos no clínicos (p. ej., equipos de gestión de camas), el hacinamiento en urgencias (que conduce a demoras), el censo de la UCI, la experiencia de los médicos y la disponibilidad de recursos clínicos (p. ej., técnicos de rayos X). Si bien la mayoría de estos factores pueden influir en las transferencias de pacientes de urgencias a la UCI, el artículo intenta descomponer el problema en el estudio de solo un conjunto de características del paciente (edad, género, puntuación APACHE II) y su influencia en los resultados de la UCI. Por ello, en este estudio, los autores descomponen el problema (es decir, el traslado del servicio de urgencias a la UCI) en una versión simplificada, teniendo en cuenta únicamente el estado del paciente, ignorando varios componentes “interrelacionados” que podrían afectar potencialmente a los traslados del servicio de urgencias a la UCI. Esta puede ser una estrategia adecuada, pero es importante tener en cuenta cómo puede haber limitado la potencia de sus conclusiones para comprender, describir, predecir o gestionar los entornos de cuidados críticos reales.

5.3 . Trabajo colaborativo en urgencias psiquiátricas

Cohen y colegas[7]caracterizaron los procesos cognitivos que subyacen a la toma de decisiones en un departamento de urgencias psiquiátricas (PED) utilizando el marco teórico de la cognición distribuida (CD). El PED muestra muchas de las características de los sistemas complejos que hemos descrito: el trabajo es inherentemente colaborativo y depende de las relaciones dentro y entre equipos de diversos médicos, que van desde médicos hasta trabajadores sociales, especializados en abuso de sustancias. Las decisiones en la unidad están influenciadas por relaciones fuera de la unidad, incluidas las relaciones con otras unidades hospitalarias, servicios sociales, familias de pacientes y, en ocasiones, agencias locales de aplicación de la ley. En consecuencia, la información que respalda la toma de decisiones en este contexto se deriva de una red altamente interconectada de diversos agentes. Restringir el enfoque a la unidad funcional central responsable de la atención (que generalmente consiste en un médico asistente, un residente, una enfermera y un trabajador social) permitió caracterizar las formas en que la cognición dentro de esta unidad se distribuye entre equipos, tiempo, espacio y artefactos, destacando fallas latentes en el sistema que fueron predictivas de errores observados durante el curso de esta investigación.

6. Conclusión​

En este artículo, describimos un enfoque racional para comprender y estudiar la complejidad, específicamente en entornos de atención médica. Utilizando el grado de interrelación entre los componentes del sistema como indicador de la complejidad del sistema, describimos cómo los sistemas complejos pueden considerarse típicamente en términos de componentes funcionalmente más pequeños y las relaciones entre ellos, con base en consideraciones teóricas, racionales y prácticas. Esta descomposición funcional implica una comprensión integral del contexto de trabajo, sus componentes y los principios que rigen las acciones de los diversos componentes dentro del sistema.

La naturaleza específica del trabajo sanitario moderno lo hace particularmente susceptible a la descomposición funcional, ya que el trabajo se distribuye entre actores (médicos, enfermeras, residentes y otro personal de apoyo clínico) y artefactos (tecnología de la información, máquinas, notas en papel) (por ejemplo, ver[2],[3],[7]). A menudo existe una estructura en las relaciones que existen entre los proveedores de atención, los artefactos y los pacientes. Si bien algunas relaciones son aparentes, otras se manifiestan solo bajo ciertas condiciones. Como tal, es posible caracterizarla como una red de actores, donde (en un alto nivel de descomposición) los nodos son actores (o artefactos) y los bordes son sus relaciones. Por ejemplo, el DE puede considerarse como una red compleja de médicos (médicos asistentes, residentes, enfermeras), pacientes y tecnologías de la información que se utilizan para gestionar la atención al paciente. Para estudiar las actividades de transferencia en el DE, uno tiene que considerar los médicos involucrados (actores), los artefactos utilizados (registros en papel y electrónicos) y la información que se transfiere. Las actividades de transferencia pueden considerarse como una subred dentro de la red más grande del DE. En resumen, la organización distribuida y bastante estructurada de los entornos de atención médica hace viable el enfoque de descomposición funcional.

Como ocurre con cualquier enfoque de investigación, la descomposición funcional tiene posibles desventajas. En primer lugar, el proceso de incluir selectivamente algunos componentes o interrelaciones y descartar otros puede llevar a una simplificación excesiva del problema. En segundo lugar, la creación de porciones cada vez más pequeñas de un sistema complejo impone mayores exigencias en cuanto a la comprensión de los componentes y su intrincada red de interrelaciones con otros componentes. Además, el uso de un nivel de explicación de microestructura puede resultar difícil de conceptualizar para personas ajenas al campo. A pesar de estas limitaciones, creemos que nuestro enfoque es un mecanismo útil y sistemático para comprender la complejidad en los entornos sanitarios.

Avances de la IA en la Salud Pública: Tendencias y Desafíos

David B. Olawade 1Ojima J. Wada2Anunciación de Clement David-Olawade 3Edward Kunonga 4Olawale Abaire 5Jonathan Ling6 *

  • 1 Departamento de Salud Pública y Afines, Facultad de Salud, Deporte y Biociencias, Universidad de East London, Londres, Reino Unido
  • 2 División de Desarrollo Sostenible, Fundación Qatar, Facultad de Ciencias e Ingeniería, Universidad Hamad Bin Khalifa, Doha, Qatar
  • 3 Unidad de Endoscopia, NHS Trust, Hospitales Universitarios de Epsom y St. Helier, Carshalton, Reino Unido
  • 4 Facultad de Salud y Ciencias de la Vida, Universidad de Teesside, Middlesbrough, Reino Unido
  • 5 Departamento de Bioquímica, Universidad Adekunle Ajasin, Akungba-Akoko, Nigeria
  • 6 Investigador independiente, Stockton-on-Tees, Reino Unido

La inteligencia artificial (IA) es una herramienta que evoluciona rápidamente y que está revolucionando muchos aspectos de la atención sanitaria. La IA se ha empleado predominantemente en la medicina y la administración de la atención sanitaria. Sin embargo, en la salud pública, el uso generalizado de la IA solo comenzó recientemente, con la llegada de la COVID-19.

Esta revisión examina los avances de la IA en la salud pública y los posibles desafíos que se avecinan. Algunas de las formas en que la IA ha ayudado a la prestación de servicios de salud pública son a través del modelado espacial, la predicción de riesgos, el control de la desinformación, la vigilancia de la salud pública, el pronóstico de enfermedades, el modelado de pandemias/epidemias y el diagnóstico de salud.

Sin embargo, la implementación de la IA en la salud pública no es universal debido a factores que incluyen infraestructura limitada, falta de comprensión técnica, escasez de datos y cuestiones éticas/de privacidad.

1. Introducción

La inteligencia artificial (IA) es un campo vasto que incluye una variedad de metodologías, como la visión por computadora, el procesamiento del lenguaje natural y el aprendizaje automático1 ).

Estos métodos son útiles para el reconocimiento de patrones, la predicción y el análisis de datos a gran escala. La IA tiene el potencial de ser transformadora dentro del ámbito de la atención médica. La IA se ha aplicado al diagnóstico de enfermedades, ha ayudado a pronosticar el desarrollo de enfermedades infecciosas y ha encontrado nuevos objetivos de medicación ( 2 ).

La IA también se ha utilizado para guiar la interpretación de imágenes médicas y el descubrimiento y la administración de fármacos ( 3 ).

Sin embargo, durante la pandemia de COVID-19, hubo un cambio en la explotación de la IA de la medicina a la salud pública. Durante la pandemia, la IA fue fundamental para pronosticar la propagación de COVID-19, el rastreo de contactos, la farmacovigilancia y las pruebas y detección rápidas4 , 5 ).

La implementación de algunas de estas herramientas informáticas de epidemiología ayudó a los esfuerzos globales para reducir la propagación del virus COVID-19 y mejorar la atención al paciente. La Tabla 1 destaca algunos ejemplos de cómo se empleó la IA para frenar la pandemia de COVID-19.TABLA 1

Cuadro 1. Medidas basadas en IA para mejorar el impacto de la pandemia de COVID-19.

Otras posibles ventajas de la IA para la salud pública incluyen una mayor eficacia, precisión y escalabilidad de los tratamientos de salud pública. La IA también puede ayudar a localizar nuevos conocimientos y patrones que los analistas humanos podrían pasar por alto ( 18 ). Sin embargo, existen importantes preocupaciones éticas y regulatorias que deben abordarse, como la privacidad de los datos y el sesgo en los sistemas de IA. Además, la explotación de la IA para mejorar la salud pública no se distribuye de manera uniforme en todo el mundo. Algunos de los principales factores que potencialmente impiden el avance de la IA en la salud pública son la disponibilidad/gobernanza de los datos, la disponibilidad de la infraestructura relacionada, la brecha de habilidades técnicas y la posibilidad de inequidad/sesgo debido a discrepancias en los datos 19 ).

Para garantizar que la tecnología se use de manera ética y responsable, los investigadores, los profesionales de la salud y los formuladores de políticas deben trabajar juntos para integrar la IA en los sistemas de atención médica. Este artículo revisa las tendencias recientes en IA para la salud pública y considera tanto los posibles beneficios como los desafíos de esta tecnología.

2. Métodos

Este estudio empleó un enfoque de revisión de alcance PRISMA (Preferred Reporting Items for Systematic Reviews and Meta-Analyses) para explorar exhaustivamente la aplicación de IA para mejorar la salud pública ( 20 , 21 ). Se buscaron cuidadosamente bases de datos electrónicas relevantes (por ejemplo, PubMed, Scopus, Web of Science) utilizando palabras clave apropiadas y términos de vocabulario controlado relacionados con IA y salud pública. Se realizó una selección inicial de títulos y resúmenes para identificar estudios potencialmente relevantes. Se recuperaron los artículos de texto completo de los estudios seleccionados y se evaluaron para la elegibilidad según los criterios de inclusión y exclusión predefinidos. Los criterios de inclusión abarcaron estudios que se centraron en la aplicación de IA en salud pública y se publicaron en inglés. Los criterios de exclusión incluyeron estudios no relacionados con la salud pública, estudios publicados en idiomas distintos del inglés y estudios que carecían de disponibilidad de texto completo. Los hallazgos se sintetizaron y presentaron en un formato narrativo que identificaba temas, tendencias y patrones clave relacionados con la aplicación de IA para mejorar la salud pública. Además, discutimos las implicaciones de estos hallazgos para la práctica de salud pública.

2.1 Historia de la IA en la salud pública

En la década de 1960 se inició la investigación en inteligencia artificial (IA), cuyo objetivo inicial era crear sistemas que pudieran imitar la inteligencia humana22 ). Los sistemas expertos, que utilizaban el conocimiento de especialistas humanos para brindar asistencia en la toma de decisiones para el diagnóstico médico y la planificación del tratamiento, fueron el foco principal de las primeras aplicaciones de IA en la atención médica. Los sistemas expertos seguían siendo el foco principal de la investigación de IA en el sector de la atención médica en las décadas de 1980 y 1990, pero también se estaban investigando el aprendizaje automático y el procesamiento del lenguaje natural 23 ). Los investigadores pudieron comenzar a explorar el potencial de la IA en dominios como el diagnóstico médico, el descubrimiento de fármacos y la vigilancia de la salud pública como resultado de la disponibilidad de enormes bases de datos de información médica y sofisticados sistemas informáticos.

En la década de 2000 se produjeron avances en la visión artificial, el procesamiento del lenguaje natural y el aprendizaje automático que permitieron a los investigadores crear sistemas de IA cada vez más complejos que podían evaluar grandes cantidades de datos y anticipar resultados futuros ( 24 ). Debido a esto, se crearon sistemas de diagnóstico basados ​​en IA, como los que analizan imágenes médicas y ayudan a identificar enfermedades como el cáncer. Además, las mejoras en la minería de texto y los métodos de procesamiento del lenguaje natural permitieron a los académicos utilizar la IA para evaluar grandes cantidades de datos no estructurados, como los registros médicos electrónicos, y extraer conclusiones reveladoras.

En los últimos años ha aumentado el interés por el uso de la IA en la salud pública, en particular en los campos de la modelización predictiva y la vigilancia de la salud pública. Los algoritmos de IA, por ejemplo, se han utilizado para pronosticar la propagación de enfermedades infecciosas como la COVID-19 o la gripe ( 25 ), lo que permite a los funcionarios de salud pública tomar medidas preventivas. También se han utilizado para analizar grandes cantidades de datos de las redes sociales y otras fuentes para detectar posibles brotes y monitorear la propagación de enfermedades. Además, la aplicación de la IA en la salud pública ha crecido para incluir nuevos campos como el desarrollo de medicamentos y el tratamiento personalizado ( 26 ) debido a la mayor accesibilidad a datos masivos y recursos informáticos sofisticados. En general, ha habido un crecimiento en la historia de la IA en la salud pública desde sistemas expertos primitivos a sistemas más avanzados que pueden examinar grandes volúmenes de datos y hacer predicciones.

El uso de IA en la atención sanitaria tiene una serie de ventajas potenciales para la salud pública, pero también existen preocupaciones éticas y legales como la privacidad y vigilancia de los datos, la seguridad, la transparencia, la imparcialidad y los sesgos de los algoritmos, así como el posible enigma filosófico de la función del juicio humano ( 27 – 29 ) que deben tenerse en cuenta para integrar esta tecnología en los sistemas de atención sanitaria.

2.2. Modelado predictivo

Para examinar los datos y pronosticar resultados futuros, el modelado predictivo combina modelos estadísticos y técnicas de aprendizaje automático. El modelado predictivo se ha utilizado en salud pública para prever la propagación de enfermedades infecciosas como COVID-19 y la gripe ( 30 , 31 ). Los modelos predictivos pueden encontrar patrones y tendencias que pueden guiar las medidas de salud pública examinando datos sobre epidemias anteriores y otros elementos pertinentes, como la demografía de la población y los patrones climáticos ( 32 ). Como el modelado predictivo tiene el potencial de mejorar nuestra capacidad para pronosticar la propagación de enfermedades infecciosas y guiar los tratamientos de salud pública, el modelado predictivo es una aplicación clave de la IA para la salud pública ( 25 ). La figura 1 ilustra un marco de modelado predictivo de la IA en la salud pública.FIGURA 1

Figura 1. Modelado predictivo de IA en salud pública.

El problema central que se debe resolver con el uso de la IA para el modelado predictivo, que abarca el pronóstico de enfermedades, la predicción de riesgos y el modelado espacial, es la mejora de la precisión, la eficiencia y la información procesable en la toma de decisiones de salud pública33 , 34 ). Los métodos tradicionales en estos dominios a menudo enfrentan limitaciones para manejar la complejidad de los datos, identificar patrones y hacer predicciones precisas. Aquí es donde la IA surge como una solución transformadora para abordar estos desafíos y lograr resultados más efectivos.

La ausencia de una categorización y un resumen claros de los métodos tradicionales y de IA para el modelado predictivo, como el pronóstico de enfermedades, la predicción de riesgos y el modelado espacial, obstaculiza la toma de decisiones informada, la eficiencia, la accesibilidad y la colaboración en la investigación en el campo de la salud pública. La falta de una clasificación estructurada dificulta la selección de métodos, retrasa la implementación y disuade una adopción más amplia. Desarrollar una taxonomía estandarizada y resúmenes concisos para cada enfoque es crucial para mejorar el progreso del campo, lo que permite a los profesionales navegar por los métodos de manera eficiente, acelerar la toma de decisiones y facilitar la colaboración en la investigación ( 35 , 36 ).

2.2.1. Pronóstico de enfermedades

La previsión de enfermedades es una aplicación importante de la IA en la salud pública ( 37 ), ya que tiene el potencial de mejorar nuestra capacidad de anticipar la propagación de enfermedades infecciosas y, posteriormente, informar y dirigir las medidas de salud pública. Este es un componente crucial de la salud pública porque permite a los funcionarios prevenir brotes y actuar rápidamente si ocurren. Históricamente, el análisis de series de tiempo y otras técnicas estadísticas convencionales se utilizaban en la previsión de enfermedades ( 38 ). Sin embargo, con el desarrollo de la IA, ahora es posible utilizar algoritmos más complejos y evaluar una mayor variedad de datos para producir predicciones más precisas. La aplicación de algoritmos de aprendizaje automático es una de las principales tendencias en IA para la predicción de enfermedades ( 39 , 40 ). Estos algoritmos pueden examinar una variedad de fuentes de datos, incluidas las redes sociales y los registros médicos electrónicos, para encontrar patrones y pronosticar la propagación de enfermedades ( 41 ).

Otro avance en la IA para la predicción de enfermedades es la creciente accesibilidad a enormes cantidades de datos y recursos informáticos de última generación ( 42 ). Esto permite analizar conjuntos de datos masivos y variados, como registros médicos electrónicos, redes sociales y datos de sensores, para anticipar con mayor precisión el futuro y detectar patrones que antes eran difíciles de detectar. La capacidad de evaluar grandes volúmenes de datos, identificar patrones y tendencias y estimar resultados futuros son algunas de las posibles ventajas de la IA para la predicción de enfermedades en la salud pública. Esto puede servir para orientar las iniciativas de salud pública y detener o reducir la propagación de enfermedades infecciosas. Además, la aplicación de la IA a la predicción de enfermedades puede aumentar la eficacia y precisión de las predicciones, lo que en última instancia podría dar como resultado mejores resultados de salud para las personas y las comunidades. Sin embargo, existen limitaciones para utilizar la IA en la salud pública para la predicción de enfermedades ( 43 ). Como la precisión de las predicciones depende de la calidad y la integridad de los datos utilizados para entrenar los algoritmos, encontrar datos de alta calidad es un desafío clave. Además, al aplicar la IA en la salud pública, también hay que tener en cuenta consideraciones éticas y legales, en particular en lo que respecta a la seguridad y la privacidad de los datos.

Se prevé que el uso de la IA en la salud pública para la previsión de enfermedades se desarrolle aún más. La integración de la IA con otras tecnologías, como la Internet de las cosas (IoT) y los dispositivos portátiles, que pueden proporcionar datos en tiempo real y aumentar la precisión y la puntualidad de las predicciones, es un área que tiene el potencial de florecer. Además, se están desarrollando técnicas de IA explicable (XAI), que pueden aumentar la rendición de cuentas y la transparencia de los sistemas de previsión de enfermedades basados ​​en IA al revelar cómo los algoritmos producen predicciones. La aplicación de la IA para la previsión personalizada de enfermedades, donde los algoritmos pueden examinar la información de los registros médicos electrónicos y otras fuentes para predecir el riesgo de enfermedad para pacientes particulares y guiar las decisiones de tratamiento, es otro campo con potencial de crecimiento. Además, la combinación de datos espaciales con la tecnología SIG (sistema de información geográfica) puede mejorar las predicciones a nivel local y guiar las intervenciones centradas en la previsión de enfermedades ( 44 ).

El problema central en la previsión de enfermedades es predecir con precisión la propagación y el impacto futuros de las enfermedades. Los métodos tradicionales basados ​​en datos históricos y técnicas estadísticas pueden tener dificultades para capturar dinámicas complejas y patrones en evolución. La IA, en particular los algoritmos de aprendizaje automático y de aprendizaje profundo, abordan este problema analizando de manera eficiente grandes conjuntos de datos, identificando relaciones ocultas y detectando tendencias intrincadas ( 36 ). El objetivo es proporcionar alertas tempranas, información procesable y estrategias para mitigar los brotes de enfermedades. La IA se está utilizando para pronosticar la propagación de enfermedades como la COVID-19. Por ejemplo, Google AI ha desarrollado un modelo que puede predecir el número de casos de COVID-19 en una región determinada con hasta dos semanas de anticipación ( 45 , 46 ).

2.2.2. Predicción de riesgos

Un componente crucial de la salud pública es la predicción de riesgos, ya que permite acciones específicas de prevención o gestión de enfermedades. Las técnicas tradicionales de predicción de riesgos, como los cálculos manuales basados ​​en datos clínicos y demográficos, pueden llevar tiempo y no siempre arrojar resultados fiables ( 47 ). La IA tiene el potencial de aumentar la eficacia y precisión de las predicciones de riesgos, lo que se traduce en mejores resultados para la salud pública. Grandes cantidades de datos, como los registros médicos electrónicos, pueden analizarse mediante algoritmos de aprendizaje automático para encontrar patrones y predecir la probabilidad de enfermedades. Además, estos algoritmos pueden examinar datos intrincados, incluida la genómica y las imágenes médicas, para encontrar patrones que puedan evaluar la probabilidad de una enfermedad.

Es probable que la predicción de riesgos mediante IA en el ámbito de la salud pública siga desarrollándose. La integración de la IA con otras tecnologías, como los dispositivos portátiles y la genómica, tiene el potencial de ofrecer predicciones más precisas al proporcionar datos más precisos y en tiempo real. Además, las herramientas de IA explicable (XAI) pueden ayudar a aumentar la rendición de cuentas y la apertura de los sistemas basados ​​en IA al revelar cómo los algoritmos hacen predicciones y, de ese modo, promover la confianza en el uso de la IA en el ámbito de la atención sanitaria.

Para la predicción de riesgos, el problema central es identificar a las personas que tienen un riesgo elevado de desarrollar enfermedades específicas. Los enfoques tradicionales se basan en el análisis de datos demográficos y clínicos, que pueden no capturar por completo los factores de riesgo sutiles o las condiciones en evolución. Los métodos de IA, incluido el aprendizaje automático y el procesamiento del lenguaje natural, mejoran la predicción de riesgos al integrar diversas fuentes de datos, detectar relaciones no lineales e identificar patrones latentes ( 48 ). El objetivo es adaptar las intervenciones, asignar recursos y mejorar las estrategias de atención médica personalizadas. La IA se está utilizando para predecir el riesgo de eventos como ataques cardíacos, accidentes cerebrovasculares y accidentes automovilísticos. Por ejemplo, IBM Watson Health ha desarrollado un modelo que puede predecir el riesgo de ataque cardíaco con un 90% de precisión ( 49 ).

2.2.3. Modelado espacial

El modelado espacial (el análisis de información geográfica para reconocer patrones y tendencias en los resultados de salud) es un componente esencial de la salud pública, ya que permite localizar intervenciones en áreas con la mayor carga de enfermedades. Las técnicas de modelado espacial convencionales, como la recopilación y el análisis manual de datos, no siempre producen resultados precisos y pueden llevar mucho tiempo completarlas ( 50 ). La IA puede aumentar la eficacia y la precisión del modelado geográfico, mejorando los resultados de salud pública.

Los datos geográficos a gran escala, como las imágenes satelitales, pueden analizarse mediante algoritmos de aprendizaje automático para encontrar tendencias y pronosticar dónde se propagarán las enfermedades. Por ejemplo, estas técnicas se han utilizado para pronosticar el riesgo de dengue, incluidos los casos de dengue, la tasa, el momento pico y la intensidad máxima, así como los predictores del riesgo de dengue, incluida la tasa de picaduras de mosquitos ( 51-53 . La integración de los sistemas de información geográfica (SIG) con la IA es un avance más en el modelado espacial en salud pública. Esto permite el examen de conjuntos de datos masivos y variados, como datos de redes sociales y registros médicos electrónicos, en un contexto geográfico para generar pronósticos más precisos e identificar tendencias que antes eran difíciles de detectar. El uso de algoritmos de aprendizaje profundo para el modelado espacial en salud pública es otra tendencia emergente en IA. Estos algoritmos pueden examinar datos complicados, incluida la genética y las imágenes médicas, para encontrar patrones que puedan señalar el peligro de enfermedad en regiones específicas. Por ejemplo, un estudio utilizó esto para considerar cómo ciertas regiones cerebrales particulares están conectadas con trastornos neurológicos específicos ( 54 ). Otro estudio de trabajo lo utilizó para mejorar el diagnóstico de trastornos respiratorios tomando grabaciones de audio de la tos de los pacientes además de los informes de síntomas ( 55 ).

Gunasekeran et al. ( 56 ) realizaron una revisión sistemática de alcance centrada en las aplicaciones de salud digital para las respuestas de salud pública al COVID-19. Su revisión enfatiza el papel de la IA en el modelado predictivo. Al aprovechar los algoritmos de IA, los modelos predictivos pueden analizar grandes cantidades de datos, incluidos datos demográficos, registros de salud y factores ambientales. Estos modelos permiten pronosticar la propagación de enfermedades, identificar poblaciones de alto riesgo y desarrollar intervenciones específicas.

En el modelado espacial, el problema central gira en torno a descubrir patrones geográficos y tendencias en los resultados de salud. Los métodos tradicionales a menudo carecen de la capacidad de manejar la complejidad de los datos espaciales, identificar interacciones y hacer predicciones precisas a niveles locales. La IA, junto con los sistemas de información geográfica (SIG), ofrece soluciones mediante el uso de técnicas de aprendizaje automático y aprendizaje profundo. Esto permite la identificación de patrones espaciales intrincados, como grupos de enfermedades, y respalda la toma de decisiones basada en datos para intervenciones específicas (Bolus et al., 2019). La IA se está utilizando para modelar la propagación de enfermedades y otros fenómenos en el espacio. Por ejemplo, la Universidad de California, Berkeley, ha desarrollado un modelo que puede predecir la propagación de incendios forestales ( 57 ).

2.3 Historias clínicas electrónicas

La investigación y la práctica en salud pública se benefician enormemente de la información contenida en los registros médicos electrónicos (EHR, por sus siglas en inglés). Los registros digitales de información de salud del paciente, como el historial médico, el uso de recetas, los resultados de laboratorio y otra información pertinente, se guardan en EHR. Son más comunes en los entornos de atención médica, pero ofrecen una gran cantidad de información para la investigación y la práctica en salud pública. Sin embargo, la gran cantidad de datos en EHR puede dificultar el análisis manual, lo que requiere el desarrollo de nueva tecnología para extraer conclusiones de los datos. La IA tiene la capacidad de mejorar la eficacia y la precisión del procesamiento de datos de EHR, mejorando los resultados para la salud pública. Por ejemplo, para extraer datos clínicos del paciente, como signos vitales, resultados de laboratorio y prescripciones de medicamentos ( 58 , 59 ).

La aplicación de algoritmos de aprendizaje automático es uno de los temas principales de la IA para los registros médicos electrónicos en el ámbito de la salud pública. Estos algoritmos pueden analizar grandes cantidades de datos, como los registros médicos electrónicos, y detectar tendencias y anticipar cómo se propagarán las enfermedades. Los métodos de procesamiento del lenguaje natural (PLN) son otro desarrollo de la IA para los registros médicos electrónicos en el ámbito de la salud pública. Estos métodos pueden extraer datos de fuentes de texto no estructuradas, como las notas de los médicos, para comprender mejor el estado de salud de un paciente. El análisis de los registros médicos electrónicos utiliza cada vez más algoritmos de aprendizaje profundo, que pueden evaluar datos complejos y producir predicciones muy precisas. Estas fórmulas se han aplicado para pronosticar los resultados de los pacientes, incluidas las readmisiones en los hospitales, y pueden utilizarse para ayudar a desarrollar políticas de salud pública, por ejemplo, para determinar si grupos de población específicos se beneficiarían de intervenciones específicas (como las vacunas para grupos más vulnerables a enfermedades específicas prevenibles mediante vacunas). El uso de la IA en los registros médicos electrónicos puede aumentar la eficacia y la precisión de las predicciones, lo que en última instancia podría dar como resultado mejores resultados de salud tanto para las personas como para las comunidades.

Los algoritmos de IA son capaces de procesar grandes volúmenes de datos de EHR para extraer información valiosa. Esta información ayuda a identificar patrones de enfermedades, enfoques de tratamiento personalizados y detección temprana de brotes. Al aprovechar la IA en el análisis de EHR, los profesionales de la salud pueden tomar decisiones más informadas y brindar una atención optimizada ( 56 ).

Sin embargo, la aplicación de la IA en los registros médicos electrónicos en el ámbito de la salud pública no está exenta de desafíos. Como la precisión de las predicciones depende de la calidad y la integridad de los datos utilizados para entrenar los algoritmos, encontrar datos de alta calidad es una cuestión clave. Es esencial proteger la seguridad y la privacidad de los datos de los pacientes, y el uso de la IA en los registros médicos electrónicos debe cumplir leyes como la Ley de Portabilidad y Responsabilidad del Seguro Médico (HIPAA) en los EE. UU. La falta de uniformidad en los sistemas de registros médicos electrónicos también puede dificultar la interpretación de datos de diversas fuentes. Además, puede resultar complicado construir algoritmos de IA fiables para el análisis debido a la profundidad y diversidad de los datos de los registros médicos electrónicos, que incluyen texto no estructurado, fotografías y datos de series temporales.

Las predicciones futuras exigen que la IA para los registros médicos electrónicos en el sector de la salud pública se desarrolle aún más y alcance nuevas fronteras ( 60 ). El uso de la IA para la medicina personalizada, donde los algoritmos pueden examinar información de los registros médicos electrónicos y otras fuentes para pronosticar el riesgo de enfermedades y orientar las decisiones de tratamiento para pacientes específicos, es un campo con potencial de crecimiento.

La IA para los registros médicos electrónicos en el ámbito de la salud pública tiene el potencial de aumentar la eficacia y la precisión del análisis de datos, lo que se traduce en mejores resultados en materia de salud pública. Si bien el uso de la IA en el ámbito de la salud pública sigue presentando dificultades, como la necesidad de disponer de datos de alta calidad y cuestiones éticas, esta tecnología también presenta muchas ventajas potenciales. Los estudios futuros en este campo deberían centrarse en mejorar la precisión y la eficiencia de los algoritmos, abordar las cuestiones morales y legales y estandarizar las plataformas de registros médicos electrónicos.

La investigación que involucra registros médicos electrónicos (EHRs) combinados con técnicas de procesamiento del lenguaje natural (NLP) e inteligencia artificial (IA) ha ganado fuerza en los últimos años, con el objetivo de extraer información valiosa de los datos textuales no estructurados dentro de los EHR. Los métodos de NLP abarcan técnicas como el reconocimiento de entidades nombradas (NER) para identificar términos médicos, análisis de sentimientos para la retroalimentación del paciente y clasificación de texto para diagnósticos ( 61 ). Los métodos de IA, como el aprendizaje automático y el aprendizaje profundo, se emplean para predecir los resultados de las enfermedades, recomendar tratamientos y permitir la medicina personalizada mediante la integración de datos estructurados de EHR con información textual procesada por NLP. En particular, los modelos de aprendizaje profundo como las redes neuronales recurrentes (RNN) y las arquitecturas basadas en transformadores (por ejemplo, BERT) se destacan en el manejo de datos secuenciales y la captura de relaciones contextuales intrincadas dentro de las narrativas de EHR ( 62 , 63 ). Estos modelos facilitan la extracción precisa de información y la comprensión semántica del texto médico, lo cual es esencial para un análisis significativo.

La Tabla 2 incluye una lista recomendada de bases de datos públicas sobre registros médicos electrónicos. Estas bases de datos públicas proporcionan una base para que los investigadores apliquen técnicas de procesamiento del lenguaje natural (PLN) e inteligencia artificial a los registros médicos electrónicos, lo que permite avances en la predicción de enfermedades, recomendaciones de tratamientos, análisis de resultados de pacientes y más. Sin embargo, se deben respetar las consideraciones éticas y la privacidad de los datos cuando se trabaja con registros médicos electrónicos, lo que garantiza el manejo seguro de la información confidencial de los pacientes.CUADRO 2

Tabla 2. Listado recomendado de bases de datos públicas sobre HCE.

3. Diagnóstico

El diagnóstico es un componente crucial de la salud pública, ya que el diagnóstico rápido y preciso de las enfermedades es necesario para su tratamiento y gestión eficientes. Las técnicas de diagnóstico tradicionales, como las pruebas de laboratorio, pueden ser costosas y requerir mucho tiempo, y sus resultados pueden no ser siempre fiables. La IA tiene la capacidad de aumentar la velocidad y la precisión de los procedimientos de diagnóstico, mejorando los resultados para la salud pública.

Los algoritmos de aprendizaje automático pueden examinar e integrar volúmenes masivos de datos, incluidos resultados de pruebas de laboratorio e imágenes médicas, para encontrar patrones y pronosticar enfermedades. Los algoritmos de aprendizaje profundo, que pueden evaluar datos complejos y producir predicciones con alta precisión, son especialmente útiles para descifrar patrones en imágenes médicas como radiografías y tomografías computarizadas que podrían indicar la presencia de una enfermedad. El uso de métodos de procesamiento del lenguaje natural también se puede utilizar para extraer datos de textos médicos no estructurados, como notas médicas e informes médicos, para revelar patrones de datos que puedan predecir enfermedades.

La IA puede mejorar la velocidad y precisión de los procedimientos de diagnóstico, mejorando tanto la salud del individuo como de la comunidad en su conjunto ( 64 ). El costo de las pruebas de laboratorio y otros procedimientos de diagnóstico también se puede reducir mediante el uso de la IA en el diagnóstico, con la supervisión de expertos humanos. La aplicación de la IA para el diagnóstico en la salud pública no está exenta de inconvenientes. Como la precisión de las predicciones depende de la calidad y la integridad de los datos utilizados para entrenar los algoritmos, encontrar datos de alta calidad puede ser un desafío. Además, las pruebas de rendimiento, la validación y las comparaciones con las técnicas de diagnóstico convencionales deben compararse con las extraídas de los sistemas de diagnóstico basados ​​en IA. Otra dificultad es el requisito de un volumen considerable de datos etiquetados, que podrían no estar siempre disponibles. Los médicos también pueden necesitar capacitación para comprender cómo los algoritmos de diagnóstico basados ​​en IA obtienen sus resultados para explicar sus pronósticos a los pacientes o a los responsables de las políticas.

El diagnóstico médico ha experimentado un cambio transformador con la integración de métodos de IA, como las redes neuronales convolucionales (CNN), los modelos basados ​​en transformadores, los enfoques basados ​​en procesamiento del lenguaje natural (PLN) y más, para analizar diversas modalidades de datos como ecografías, rayos X, tomografías computarizadas, resonancias magnéticas e imágenes fisiológicas. Esta convergencia de técnicas avanzadas de IA y datos médicos multimodales ha mejorado significativamente la precisión y la velocidad del diagnóstico y las recomendaciones de tratamientos personalizados ( 56 ).

Los métodos basados ​​en CNN se destacan en el análisis de imágenes y han revolucionado el diagnóstico por imágenes médicas. Al aprender automáticamente las características jerárquicas de las imágenes, las CNN permiten la identificación de patrones, anomalías y anormalidades en radiografías, tomografías computarizadas y resonancias magnéticas 65 ). La capacidad de capturar relaciones espaciales dentro de las imágenes ha permitido mejorar la detección, localización y clasificación de enfermedades. Originalmente diseñados para el procesamiento del lenguaje natural, los modelos basados ​​en transformadores como BERT y sus variantes se han adaptado para el diagnóstico médico ( 63 ).

Estos modelos se destacan en la captura de relaciones contextuales, lo que permite una comprensión integral de informes de texto médicos, notas clínicas e informes radiológicos. Su aplicación mejora la toma de decisiones y ayuda a diagnosticar enfermedades complejas. Los métodos basados ​​en PNL desempeñan un papel crucial en la extracción de información valiosa de los datos textuales en registros médicos, historias de pacientes y artículos de investigación. El reconocimiento de entidades nombradas (NER) y el análisis de sentimientos ayudan a comprender las experiencias de los pacientes e identificar términos médicos críticos, lo que facilita un diagnóstico preciso y recomendaciones de tratamiento.

El uso de la IA en el diagnóstico de salud pública tiene el potencial de aumentar la velocidad y precisión de los procedimientos de diagnóstico, mejorando los resultados para la salud de la población. Si bien existen ciertas limitaciones en el uso de la IA en la salud pública, como la necesidad de datos de alta calidad y cuestiones éticas, también existen muchas ventajas potenciales para esta tecnología. La investigación futura en este campo debería concentrarse en la creación de algoritmos más precisos y efectivos, la resolución de problemas morales y legales y la ampliación de la accesibilidad de los datos etiquetados para el entrenamiento de modelos de IA. El desarrollo de metodologías de IA explicables para sistemas de diagnóstico puede contribuir a aumentar la confianza pública en el uso de la IA en la atención médica y para el desarrollo de políticas de salud pública, y en la mejora de la precisión de los sistemas.

3.1 Vigilancia de la salud pública

La vigilancia de la salud pública siempre ha dependido de la recopilación e interpretación manual de datos, que requiere mucho trabajo y es propensa a errores ( 66 ). La IA se ha convertido en una potente herramienta para la vigilancia de la salud pública ( 67 , 68 ) debido al aumento de la cantidad de datos relacionados con la salud que se producen, incluidos los de los registros médicos electrónicos (EHR), las redes sociales y los datos de los sensores ( 69 , 70 ). En comparación con los enfoques convencionales, los sistemas de IA pueden evaluar grandes cantidades de datos y con mayor rapidez, e identificar tendencias y dar una advertencia anticipada de posibles brotes y epidemias de enfermedades ( 71 ).

Los Centros para el Control y la Prevención de Enfermedades (CDC) están utilizando IA para rastrear la propagación de COVID-19. Los CDC han desarrollado un sistema que utiliza IA para analizar datos de una variedad de fuentes, incluidos registros médicos electrónicos, redes sociales y datos de viajes. Este sistema se puede utilizar para identificar posibles brotes y rastrear la propagación del virus en tiempo real 72 , 73 ).

La infodemiología y la infovigilancia, basadas en técnicas de inteligencia artificial y minería de datos, permiten analizar el comportamiento de búsqueda, los patrones de comunicación en las redes sociales y las tendencias de publicación. Estos métodos basados ​​en inteligencia artificial brindan información en tiempo real sobre las tendencias de las enfermedades, los sentimientos del público y la desinformación. Las autoridades de salud pública pueden aprovechar esta información para la detección temprana, la planificación de la respuesta y las estrategias de comunicación efectivas ( 74–76 ) .

La capacidad de evaluar cantidades masivas de datos, reconocer patrones y tendencias y pronosticar son algunas de las ventajas potenciales de la IA para la vigilancia de la salud pública ( 49 , 77 ). Esto puede servir para guiar las iniciativas de salud pública y detener o reducir la propagación de enfermedades infecciosas ( 23 ). Además, la aplicación de la IA a la vigilancia de la salud pública puede aumentar la eficacia y precisión de las predicciones ( 78 ), lo que en última instancia podría resultar en mejores resultados de salud tanto para las personas como para las comunidades. Como los datos para la vigilancia de la salud pública con frecuencia provienen de numerosas fuentes y pueden tener diferentes formatos, la integración y la gestión de los datos pueden ser complejas ( 79-81 ) . La precisión de las predicciones puede verse afectada como resultado , ya que puede ser difícil combinar los datos y verificar su consistencia. Además, pueden surgir problemas de sesgo y discriminación de la aplicación de la IA en la vigilancia de la salud pública ( 82 , 83 ). Por ejemplo, si los datos utilizados para entrenar algoritmos están sesgados, es probable que las predicciones del algoritmo también lo estén. Esto es especialmente problemático para la vigilancia de la salud pública ( 84 ), ya que las proyecciones inexactas pueden dar lugar a una distribución desigual de los recursos y tener efectos perjudiciales en las comunidades marginadas.

3.2. Desafíos de la IA para la salud pública

Para permitir la aplicación segura y exitosa de esta IA en la salud pública, se deben resolver varias dificultades. Estas incluyen preocupaciones éticas y legales, particularmente en relación con la seguridad y privacidad de los datos ( 26 , 68 , 85 ). Si bien HIPAA en los Estados Unidos establece pautas para el uso y distribución de información médica protegida (PHI)86 ), con pautas similares en funcionamiento en la Unión Europea (Reglamento General de Protección de Datos, GDPR) y el Reino Unido (Ley de Protección de Datos de 2018) con garantizar la privacidad de los datos es crucial para establecer la confianza en el uso de IA para apoyar el desarrollo de políticas y prácticas de atención médica ( 87 ). Las implicaciones éticas de preocupaciones que incluyen sesgo y discriminación en sistemas basados ​​​​en IA, que pueden dañar desproporcionadamente a las personas vulnerables, también son una preocupación.

Por otra parte, la precisión y la eficiencia de los sistemas basados ​​en IA dependen de la precisión y la integridad de los datos utilizados para entrenar los algoritmos ( 88 ). La ausencia de transparencia y comprensibilidad en los sistemas basados ​​en IA es uno de los principales problemas que enfrentan las aplicaciones de IA en la salud pública. A los responsables de las políticas les puede resultar difícil comprender cómo el algoritmo llegó a sus conclusiones como resultado ( 89 , 90 ), y esto también podría fomentar el escepticismo sobre el uso de IA en la salud pública ( 91 , 92 ).

No obstante, a raíz de la COVID-19 surgieron varias directrices que podrían considerarse un recurso para la aplicación de la IA en la salud pública. Entre ellas, se incluye el documento Pilares de la OMS ( 93 ) para la planificación y orientación operativas, que proporciona un marco para que los países se preparen y respondan ante una emergencia de salud pública. Incluye varias secciones sobre el uso de la IA en la salud pública. Entre ellas, se incluye el

Pilar 1: Coordinación, planificación y seguimiento a nivel de país, que propone el uso de la IA para rastrear la propagación de enfermedades, identificar posibles brotes y coordinar la respuesta a una emergencia de salud pública.

El Pilar 2, centrado en la vigilancia, los equipos de respuesta rápida y la investigación de casos, explora el uso de la IA para recopilar datos sobre brotes de enfermedades, identificar e investigar casos y rastrear la eficacia de las intervenciones.

En la Cumbre Mundial sobre IA para la Salud de 2021 se analizaron consideraciones similares. En ella se formularon una serie de recomendaciones para el uso de la IA en la salud pública, entre ellas la creación de capacidad para el uso de la IA en la salud pública y la promoción de un uso ético y responsable de la IA en la salud pública. Estas estrategias deben estar en consonancia con el documento de pilares de la OMS y basarse en investigaciones basadas en pruebas. Estas son solo algunas de las numerosas directrices que han surgido a raíz de la COVID-19 y que podrían considerarse un recurso para la aplicación de la IA en la salud pública. Estas directrices proporcionan un marco que los países pueden utilizar para prepararse y responder a una emergencia de salud pública y destacan el potencial de la IA para mejorar la salud pública.

Abordar la seguridad de los datos y la protección de la privacidad es primordial para la aplicación exitosa de la IA en la salud pública. Si bien el uso de datos de pacientes de múltiples centros es inevitable para modelos de IA robustos y generalizables, garantizar la privacidad del paciente y la seguridad de los datos sigue siendo fundamental. Los esfuerzos colaborativos que involucran la colaboración y el intercambio de datos a través de técnicas como el aprendizaje federado ofrecen soluciones potenciales a estos desafíos ( 94 , 95 ). La utilización de datos de pacientes de múltiples centros mejora la diversidad y la exhaustividad de los modelos de IA, lo que da como resultado algoritmos más precisos y adaptables. Sin embargo, esta práctica debe ir acompañada de rigurosos protocolos de desidentificación, agregación y anonimización de datos para salvaguardar la privacidad del paciente. El cumplimiento de regulaciones como HIPAA (Ley de Portabilidad y Responsabilidad del Seguro Médico) garantiza que la información confidencial del paciente esté protegida adecuadamente ( 86 ). La colaboración y el intercambio de datos permiten la puesta en común de conocimientos de múltiples fuentes sin centralizar los datos confidenciales. El aprendizaje federado, un enfoque descentralizado, permite que los modelos de IA se entrenen en varios centros sin compartir datos sin procesar. En cambio, los modelos se actualizan de forma colaborativa utilizando datos almacenados localmente, lo que minimiza los riesgos de privacidad. Esta técnica garantiza que los datos permanezcan dentro de su institución de origen y, al mismo tiempo, contribuye al desarrollo de un modelo de IA colectivo y potente ( 95 ). A pesar de sus beneficios, el aprendizaje federado enfrenta desafíos, como lidiar con la heterogeneidad entre conjuntos de datos, ineficiencias de comunicación y garantizar la convergencia de modelos. Los investigadores están trabajando activamente para superar estos obstáculos mediante avances algorítmicos.

4. Implicaciones de la IA para el desarrollo de políticas de salud pública

La IA puede ser una herramienta valiosa para el desarrollo de políticas de salud pública. La capacidad de reunir diversos conjuntos de datos permite obtener información que de otro modo sería difícil de obtener con los métodos tradicionales. Los algoritmos se pueden emplear de manera iterativa, con lo que se pueden monitorear los resultados de las políticas y, posteriormente, fundamentar y mejorar las políticas futuras.

El aprovechamiento de esta información permitirá desarrollar políticas más específicas, impactantes y oportunas. La IA tiene mucho que ofrecer a los responsables de las políticas, pero, como todas las tecnologías nuevas, la confianza y la educación sobre cómo usarla de manera eficaz y responsable son fundamentales para su futura adopción y utilidad.

La próxima generación de medicina basada en evidencia

Principal

En los últimos 30 años hemos presenciado avances asombrosos e incomparables en la investigación científica, desde una mejor comprensión de la fisiopatología de los procesos patológicos básicos y el desentrañar la maquinaria celular con resolución atómica hasta el desarrollo de terapias que alteran el curso y el resultado de las enfermedades en todas las áreas de la medicina. Además, los avances exponenciales en genómica, inmunología, proteómica, metabolómica, microbiomas intestinales, epigenética y virología en paralelo con la ciencia de big data, la biología computacional y la inteligencia artificial (IA) han impulsado estos avances. Además, el surgimiento de las tecnologías CRISPR–Cas9 ha abierto una tentadora variedad de oportunidades en la medicina personalizada.

A pesar de estos avances, su rápida traducción del laboratorio a la práctica clínica está retrasada en la mayoría de las áreas de la medicina y la investigación clínica sigue superada. El panorama del desarrollo de fármacos y los ensayos clínicos sigue siendo costoso para todas las partes interesadas, con una tasa de fracaso muy alta. En particular, la tasa de deserción de las terapias de desarrollo en etapa temprana es bastante alta, ya que más de dos tercios de los compuestos sucumben en el «valle de la muerte» entre el laboratorio y la práctica clínica 1 , 2 . Llevar un fármaco con éxito a través de todas las fases de desarrollo de fármacos hasta la clínica cuesta más de 1.500 a 2.500 millones de dólares (refs. 3 , 4 ). Esto, combinado con las ineficiencias y deficiencias inherentes que plagan el sistema de atención médica, está llevando a una crisis en la investigación clínica. Por lo tanto, se necesitan estrategias innovadoras para involucrar a los pacientes y generar la evidencia necesaria para impulsar nuevos avances en la clínica, de modo que puedan mejorar la salud pública. Para lograrlo, los modelos de investigación clínica tradicionales deben dar paso a ideas y diseños de ensayos de vanguardia.

Antes de la pandemia de COVID-19, la realización de investigaciones clínicas se había mantenido prácticamente sin cambios durante 30 años y algunas de las normas y reglas de realización de ensayos, aunque arcaicas, no se cuestionaban. La pandemia expuso muchas de las limitaciones sistémicas inherentes a la realización de ensayos 5 y obligó a la empresa de investigación de ensayos clínicos a reevaluar todos los procesos; por lo tanto, ha alterado, catalizado y acelerado la innovación en este ámbito 6 , 7 . Las lecciones aprendidas deberían ayudar a los investigadores a diseñar e implementar ensayos clínicos de próxima generación «centrados en el paciente».

Las enfermedades crónicas siguen afectando a millones de vidas y causando una gran presión financiera a la sociedad 8 , pero la investigación se ve obstaculizada por el hecho de que la mayoría de los datos residen en silos de datos. La subespecialización de la profesión clínica ha dado lugar a silos dentro y entre las especialidades; cada área de enfermedad importante parece funcionar de forma completamente independiente.

Sin embargo, la mejor atención clínica se proporciona de manera multidisciplinaria con toda la información relevante disponible y accesible. Una mejor investigación clínica debe aprovechar el conocimiento adquirido de cada una de las especialidades para lograr un modelo colaborativo que permita una atención multidisciplinaria de alta calidad y una innovación continua en medicina. Debido a que muchas disciplinas en medicina ven las mismas enfermedades de manera diferente (por ejemplo, los especialistas en enfermedades infecciosas ven la COVID-19 como una enfermedad viral, mientras que los expertos en cardiología la ven como una enfermedad inflamatoria), los enfoques interdisciplinarios deberán respetar los enfoques de otras disciplinas. Aunque un modelo único puede no ser apropiado para todas las enfermedades, la colaboración interdisciplinaria hará que el sistema sea más eficiente para generar la mejor evidencia.

En la próxima década, la aplicación del aprendizaje automático, las redes neuronales profundas y la IA biomédica multimodal están preparadas para revitalizar la investigación clínica desde todos los ángulos, incluido el descubrimiento de fármacos, la interpretación de imágenes, la agilización de los registros médicos electrónicos, la mejora del flujo de trabajo y, con el tiempo, el avance de la salud pública (Fig. 1 ). Además, las innovaciones en wearables, tecnología de sensores y arquitecturas de Internet de las cosas médicas (IoMT) ofrecen muchas oportunidades (y desafíos) para adquirir datos 9 . En esta Perspectiva, comparto mi visión heurística del futuro de los ensayos clínicos y la generación de evidencia y delibero sobre las principales áreas que necesitan mejoras en los dominios del diseño de ensayos clínicos, la realización de ensayos clínicos y la generación de evidencia.

Figura 1
Fig. 1: Cronología del desarrollo de fármacos desde el presente hasta el futuro.

Diseño de ensayos clínicos

El diseño de los ensayos es uno de los pasos más importantes de la investigación clínica: un mejor diseño de los protocolos conduce a una mejor realización de los ensayos clínicos y a decisiones más rápidas de «seguir adelante o no». Además, las pérdidas derivadas de ensayos mal diseñados y fallidos no son solo financieras, sino también sociales.

Desafíos de los ensayos controlados aleatorios

Los ensayos controlados aleatorizados (ECA) han sido el estándar de oro para la generación de evidencia en todas las áreas de la medicina, ya que permiten estimaciones imparciales del efecto del tratamiento sin factores de confusión. Idealmente, cada tratamiento o intervención médica debería probarse mediante un ECA bien controlado y con potencia estadística. Sin embargo, la realización de ECA no siempre es factible debido a los desafíos para generar evidencia de manera oportuna, el costo, el diseño en poblaciones limitadas que impiden la generalización, las barreras éticas y el tiempo que lleva realizar estos ensayos. Cuando se completan y publican, los ECA se vuelven rápidamente obsoletos y, en algunos casos, irrelevantes para el contexto actual. Solo en el campo de la cardiología, 30.000 ECA no se han completado debido a los desafíos de reclutamiento 10 . Además, los ensayos se están diseñando de forma aislada y dentro de silos, y muchas preguntas clínicas quedan sin respuesta. Por lo tanto, los paradigmas de diseño de ensayos tradicionales deben adaptarse a los rápidos avances contemporáneos en genómica, inmunología y medicina de precisión 11 .

Avances en el diseño de ensayos clínicos

Se necesita evidencia de alta calidad para la práctica clínica, que tradicionalmente se ha logrado con ECA 12 . En la última década, se ha logrado un progreso sustancial en el diseño, la realización y la implementación de protocolos «maestros» (protocolos generales que se aplican a varios subestudios), lo que ha llevado a muchos cambios en la práctica que han mejorado sustancialmente el estancamiento de los ECA. Además, los protocolos maestros pueden implicar estudios intervencionistas paralelos en una sola enfermedad o múltiples enfermedades definidas por un biomarcador o entidad patológica 12 . Se incluyen cuatro clases diferentes de estudios en los protocolos maestros: el estudio paraguas, el estudio cesta, el estudio plataforma y el ensayo observacional maestro (MOT) (Fig. 2 ). Cada uno de estos es un diseño de ensayo único que puede incluir brazos independientes con intervenciones de control y puede analizarse individual y/o colectivamente, con mayor flexibilidad 13 , 14 . El campo de la oncología ha liderado estos esfuerzos más que cualquier otro campo, debido a los avances en genómica (para identificar alteraciones moleculares), el descubrimiento de terapias y la rápida traducción clínica, marcando así el comienzo de la era de la oncología de precisión.

Figura 2
Fig. 2: Clases de protocolos maestros.

Estudio de paraguas

Los ensayos paraguas son diseños de estudio que evalúan múltiples terapias dirigidas para la misma entidad patológica, estratificadas por alteración molecular. Algunos ejemplos incluyen el ensayo de cáncer de mama I-SPY (Investigación de estudios seriados para predecir su respuesta terapéutica con imágenes y análisis molecular) y Lung-MAP (Protocolo maestro de cáncer de pulmón) 15 , 16 .

Prueba de canasta (o cubo)

Los ensayos de canasta son estudios independientes de la histología o agnósticos en los que se evalúa la terapia dirigida en múltiples tipos de enfermedades que albergan todas la misma aberración molecular subyacente. Por ejemplo, el estudio VE-Basket (en el que VE denota vemurafenib) 17 , el estudio Rare Oncology Agnostic Research (ROAR) 18 , el ensayo ARROW 19 y los ensayos LIBRETTO-001 20 , 21 han llevado a varias aprobaciones de medicamentos en poblaciones específicas impulsadas por biomarcadores de una manera dependiente e independiente de la histología.

Estudio de plataforma

Se trata de diseños de estudios multibrazo y multietapa que comparan varios grupos de intervención con un grupo de control común en el contexto del mismo protocolo maestro. Además, pueden ser diseños de estudios perpetuos/inmortales (sin fecha de finalización definida) y son más eficientes que los ensayos tradicionales debido al brazo de control compartido, que garantiza que una mayor proporción de pacientes se inscriban en los brazos intervencionistas/experimentales que en el brazo de control. El estudio de plataforma de evaluación aleatoria de la terapia de COVID-19 (RECOVERY) es un ejemplo destacado; este ensayo que cambió la práctica estableció la dexametasona como un tratamiento eficaz para COVID-19 (ref. 22 ) y también mostró que la hidroxicloroquina era ineficaz. Los estudios de plataforma son flexibles por diseño y no necesariamente necesitan tener un brazo de control compartido; la idea principal es que los brazos de intervención se pueden agregar a un ensayo en curso, por ejemplo, como en el ensayo de plataforma The UK Plasma Based Molecular Profiling of Advanced Breast Cancer to Inform Therapeutic CHoices (plasmaMATCH) 23 . Aunque los ensayos mencionados anteriormente se diseñaron en el contexto del desarrollo de fármacos en oncología y enfermedades infecciosas, el alcance de los ensayos de plataformas podría aprovecharse en otras áreas diversas, como la psicología clínica y la neurología 24 . Dichos ensayos también podrían utilizarse para intervenciones de salud mental digital y podrían implementarse fácilmente en entornos con recursos limitados 24 .

AGUDEZA

El MOT es un diseño de estudio observacional prospectivo que acepta ampliamente a los pacientes independientemente de la firma del biomarcador y recopila datos completos sobre cada participante 14 , 25 . El MOT es una combinación de los diseños de ensayo intervencionista maestro y ensayo observacional prospectivo e intenta hibridar el poder de los protocolos intervencionistas maestros basados ​​en biomarcadores con la amplitud de los datos del mundo real (RWD) 14 , 25 . Este enfoque podría ser adecuado para recopilar RWD prospectivos en muchas especialidades; el Registro de resultados oncológicos asociados con pruebas y tratamiento (ROOT) MOT es un ejemplo 14 .

Desarrollo de biomarcadores y definición de puntos finales

El desarrollo de biomarcadores ha facilitado el progreso en el diseño de ensayos clínicos, con avances sin precedentes en genómica e inmunología que han dado lugar a varias aprobaciones de terapias dirigidas basadas en biomarcadores e inmunoterapia en la última década. De hecho, la evidencia genética humana brindó respaldo a más de dos tercios de las aprobaciones de medicamentos en 2021 (ref. 26 ). Los campos de la oncología y la genética se han beneficiado enormemente de estos avances, pero campos como la cardiología, la nefrología y la neumología aún están rezagados en las aprobaciones de medicamentos basados ​​en biomarcadores.

Para acelerar el desarrollo de fármacos y los ensayos clínicos en todas las enfermedades importantes, tendremos que definir biomarcadores (ya sean clínicos, patológicos o fisiológicos) y su contexto de uso para cada proceso patológico y delinear puntos finales claros para los estudios 27 . Los biomarcadores pueden ser diagnósticos, pronósticos o predictivos y pueden informar el desarrollo temprano de fármacos, la selección de dosis y el diseño de ensayos. Además, los biomarcadores pueden ayudar a acelerar la ciencia básica y el descubrimiento de fármacos, todo ello con el objetivo final de mejorar la salud del paciente 28 . Sin embargo, el nivel de evidencia de un biomarcador depende en gran medida del contexto de uso.

Además de los biomarcadores, cada campo necesita definir áreas de máxima prioridad para la investigación e identificar los puntos finales más relevantes para responder a las preguntas de investigación prioritarias. Los puntos finales son medidas de salud y/o enfermedad y sirven para diferentes propósitos según la fase del ensayo 28 , 29 . Más allá de los puntos finales clínicos y regulatorios, los resultados informados por los pacientes y los puntos finales digitales también están surgiendo rápidamente.

Puntos finales digitales

Los puntos finales digitales son datos generados por sensores recopilados fuera del entorno clínico en el contexto de la vida cotidiana de los pacientes, como el uso de micrófonos de teléfonos inteligentes para monitorear el deterioro cognitivo en personas con enfermedad de Alzheimer o monitores de relojes inteligentes para evaluar el efecto de los medicamentos en personas con anemia de células falciformes 29 . Este es un área de considerable entusiasmo en medicina, ya que podría permitir un seguimiento más realista en el mundo real de la experiencia del paciente. Además, con el aumento de la realización de ensayos descentralizados en muchas especialidades, el monitoreo remoto está a punto de aumentar. Por ejemplo, un estudio reciente desarrolló un modelo de IA para detectar y rastrear la progresión de la enfermedad de Parkinson (para la que no hay biomarcadores) sobre la base de señales de respiración nocturna utilizando una evaluación no invasiva en el hogar, proporcionando evidencia de que la IA puede ser útil en la evaluación de riesgos antes del diagnóstico clínico de la afección 29 , 30 . Además, la detección digital de la fibrilación auricular mediante dispositivos inteligentes se ha evaluado ampliamente en estudios a gran escala, incluidos los estudios cardíacos de Apple 31 , Huawei 32 y Fitbit 33 . En total, estos estudios observacionales sin sedentarismo reclutaron a más de un millón de participantes, una hazaña asombrosa, y un estudio aleatorio mostró la superioridad de la detección digital de la fibrilación auricular sobre la atención habitual 34 .

La caracterización y evaluación digital del estado clínico debe estandarizarse y armonizarse, con la colaboración interdisciplinaria y el aporte de los reguladores. También se necesita consenso para identificar y caracterizar los puntos finales intermedios y sustitutos de las principales enfermedades crónicas. Esto requiere la incorporación específica de la especialidad de múltiples niveles de datos, como datos clínicos genómicos, proteómicos y basados ​​en genotipo-fenotipo y mediciones específicas de la enfermedad, además de una capa de datos funcionales 26 . Los Institutos Nacionales de Salud (NIH) y la Administración de Alimentos y Medicamentos (FDA) han desarrollado recursos BEST (Biomarkers, EndpointS and other Tools) para aclarar la ambigüedad en los biomarcadores y los puntos finales. Este es un «documento vivo» que se actualiza continuamente a medida que cambian los estándares y la evidencia 35 y que aclara definiciones importantes y describe algunas de las relaciones jerárquicas, conexiones y dependencias entre los términos.

Realización de ensayos clínicos

Los componentes de la realización de ensayos clínicos son la implementación de protocolos; la selección, reclutamiento, monitoreo y retención de pacientes; la garantía del cumplimiento de los informes de seguridad; y la revisión y análisis continuos de datos. La industria farmacéutica y el sector de la atención médica invierten recursos sustanciales en la realización de ensayos clínicos, pero se necesitan cambios urgentemente para que el proceso sea más fluido. Además, el ritmo al que se realizan los ensayos clínicos es demasiado lento para seguir los avances de la investigación en todos los campos; por lo tanto, se necesita una transformación de alta tecnología de cada componente de manera gradual.

Uno de los aspectos positivos de la pandemia es que obligó al sistema a reorientar los ensayos clínicos para que estuvieran más centrados en el paciente que antes, dando así más importancia al principal sujeto de la investigación clínica: el paciente 36 (Fig. 3 ). Esto ha dado lugar a ensayos descentralizados y ensayos digitales, remotos y «virtuales» (que permiten a los pacientes acceder a los ensayos independientemente de su ubicación geográfica), así como a conceptos de «hospital en casa» y de seguimiento en el hogar 37 . Estos rápidos avances se han visto facilitados por la orientación de las autoridades reguladoras 38 . La adopción de un enfoque basado en la IA para mejorar la experiencia del paciente puede mejorar aún más las evaluaciones de alta fidelidad y garantizar el cumplimiento de los protocolos 39 . Aunque la digitalización, la virtualización y la descentralización no son curas para las crisis de la investigación clínica, pueden crear eficiencias que pueden tener un impacto considerable y a largo plazo.

Figura 3
Fig. 3: El paciente como centro del universo del ensayo clínico en la empresa de investigación clínica.

Los médicos, los miembros del equipo de atención médica y los investigadores clínicos de los centros académicos y otros sitios de inscripción de pacientes contribuyen enormemente al reclutamiento de pacientes. Además, los sitios de alto impacto y alto funcionamiento (como los principales centros académicos de excelencia) a menudo tienen una cartera de ensayos y examinan a los pacientes que se presentan al sistema de manera eficiente. Sin embargo, estos sitios son una minoría y la mayoría de los sitios de ensayos clínicos enfrentan limitaciones de personal y otras barreras.

Empresa de investigación de ensayos clínicos

La eficiencia y la colaboración en la empresa de investigación de ensayos clínicos son componentes importantes para el éxito de los ensayos clínicos. Los principales componentes de la empresa de ensayos clínicos son los pacientes, los centros académicos, los patrocinadores de la industria (grandes y pequeñas empresas farmacéuticas), los patrocinadores gubernamentales/grupos cooperativos, las agencias reguladoras, las organizaciones de defensa de los pacientes y las organizaciones de investigación por contrato (CRO), y todos ellos deben trabajar juntos con el paciente como el centro del universo de los ensayos clínicos (Fig. 3 ). Además, todo este sistema necesita una revisión digital, ya que muchos sitios todavía utilizan carpetas de protocolos, diarios con lápiz y papel, faxes entre sitios, datos no estructurados y sistemas de software con décadas de antigüedad. Los ensayos clínicos de registro deben gestionarse bien día a día con una rigurosa captura y seguimiento electrónico de datos. La integración de la tecnología blockchain en el sistema de gestión de ensayos clínicos podría reforzar la confianza en el proceso de ensayos clínicos y facilitar la supervisión regulatoria 40 .

La participación de los pacientes en los ensayos clínicos es fundamental, ya que no puede haber ensayos sin pacientes. Los organizadores de los ensayos clínicos deben facilitar la participación de los pacientes en los ensayos. Además, las decisiones de tratamiento médico-paciente para las enfermedades importantes deben incluir opciones de ensayos clínicos como estándar. Estos ensayos clínicos deben ser de fácil acceso y deben garantizar que ningún paciente sea excluido innecesariamente; esto se puede lograr con servicios de búsqueda y emparejamiento de ensayos clínicos independientes del sitio. Además, la capacitación en ensayos clínicos debe ser parte de la educación médica para que un grupo diverso de investigadores y personal capacitado de toda la empresa de atención médica pueda estar disponible para la investigación clínica.

Ya era hora

Los plazos de desarrollo clínico de los fármacos candidatos son una carrera contra el tiempo desde que se presentan las patentes hasta la aprobación final de la FDA 41 . Los plazos de desarrollo de fármacos, en promedio, son de aproximadamente 10 años (Fig. 1 ). La rapidez del desarrollo de las vacunas de ARNm de COVID-19 y el tratamiento oral COVID-19 en tabletas de nirmatrelvir/ritonavir, ambos desarrollados en un año utilizando un «enfoque de velocidad de la luz», no debería ser una excepción 42 . Las lecciones aprendidas deberían proporcionar un modelo para múltiples áreas terapéuticas de necesidades no satisfechas. Las dos pequeñas moléculas que tienen el récord del plazo más corto en el desarrollo de fármacos, osimertinib para el cáncer de pulmón de células no pequeñas (CPCNP) con mutación de EGFR (984 días mediante aprobación acelerada) y elexacaftor para la fibrosis quística (1.043 días mediante la vía regular) 41 , en tiempos no pandémicos demuestran que esto es posible.

Los obstáculos regulatorios que ralentizan el desarrollo de medicamentos hicieron necesaria la creación de programas como el programa de aprobación acelerada de la FDA, que se introdujo en 1992 para abordar la crisis del VIH y el SIDA y que desde entonces ha beneficiado a áreas altamente especializadas como la oncología de precisión 43 . Se han creado múltiples programas para acortar los plazos del proceso previo a la comercialización, incluidos los de revisión prioritaria, designación de vía rápida, designación de medicamento innovador y designación de medicamento huérfano 44 . Sin embargo, más allá de estos programas, los plazos siguen siendo lentos y existe una necesidad urgente de abordar este problema para todas las enfermedades, ya que la velocidad del desarrollo de medicamentos es crucial tanto para los pacientes como para los médicos y las partes interesadas en el desarrollo de medicamentos.

Globalización del desarrollo, la armonización y la transportabilidad de medicamentos

Aunque el mandato de la FDA se dirige a la población estadounidense, su influencia es global y, funcionalmente, la FDA es el regulador de facto para el mundo. Otras autoridades reguladoras como la Agencia Europea de Medicamentos, la Administración Nacional de Productos Médicos en China y la Organización Central de Control de Estándares de Medicamentos en la India, que en total atienden a más de 3 mil millones de la población mundial, también están evolucionando como actores clave en el sector farmacéutico global. Además, la recién establecida Agencia Africana de Medicamentos se creó (en 2019) para acelerar los plazos de aprobación de vacunas y medicamentos y mejorar el acceso a los medicamentos, especialmente para enfermedades infecciosas emergentes endémicas del continente 45 . Todas estas agencias deben poder valerse por sí solas. Además, existe una necesidad urgente de armonización global entre las autoridades reguladoras para abordar las desigualdades sustanciales en el acceso a los medicamentos. Idealmente, los ensayos clínicos para nuevas terapias deberían realizarse a nivel mundial, para el acceso y la generalización 46 . Sin embargo, la realidad es que los ensayos clínicos, incluidos los ECA, no se pueden realizar en todos los países para generar evidencia específica para la población de ese país. La generación de evidencia mediante el análisis de transportabilidad está ganando terreno y se refiere a la capacidad de generalizar inferencias de una muestra de estudio en un país a una población objetivo en otro país donde no se realizó el estudio 47 , 48. Los análisis de transportabilidad pueden ofrecer cierta evidencia de validez externa con implicaciones para las evaluaciones regulatorias y de tecnología sanitaria locales 48 .

Generación de evidencia en la investigación clínica

Estudios clínicos de enfermedades raras

A medida que los avances científicos impulsan los ensayos clínicos, se están diseñando y llevando a cabo ensayos sobre cánceres y muchas enfermedades raras en pequeños subconjuntos definidos genéticamente o definidos por biomarcadores. Además, los nuevos métodos para generar evidencia de beneficio clínico pueden acelerar la realización de ensayos clínicos y proporcionar a las personas con enfermedades raras acceso a nuevos compuestos terapéuticos. Se estima que las enfermedades raras afectan a un estimado de 263 millones a 446 millones de personas en todo el mundo en un momento dado y se están convirtiendo cada vez más en una enorme carga de salud pública 49 . Los ensayos clínicos en este contexto vienen con sus propios desafíos derivados de la rareza de las condiciones y los datos incompletos de la historia natural 50 . Sin embargo, los avances notables en biología molecular junto con la legislación para estimular el desarrollo de terapias para enfermedades huérfanas han llevado al progreso. Existe una creciente flexibilidad regulatoria para utilizar programas como el programa de aprobación acelerada, y hay casos en los que los ensayos han utilizado brazos de control externos basados ​​en RWD.

Como ejemplo, la FDA otorgó la aprobación acelerada a alpelisib (Vijoice, Novartis) para adultos y niños mayores de 2 años que requieren terapia sistémica para el espectro de sobrecrecimiento relacionado con PIK3CA, que incluye un grupo de trastornos raros vinculados a mutaciones en el gen PIK3CA 51 . Curiosamente, la eficacia se evaluó utilizando una revisión retrospectiva de historias clínicas de RWD de EPIK-P1 ( NCT04285723 ), un estudio clínico de un solo brazo en el que individuos con espectro de sobrecrecimiento relacionado con PIK3CA recibieron alpelisib como parte de un programa de acceso ampliado para uso compasivo. La solicitud para esta aprobación utilizó el programa piloto de Revisión Oncológica en Tiempo Real 52 , que agilizó el envío de datos antes de presentar la solicitud clínica completa, y la Ayuda de Evaluación 53 , una presentación voluntaria del solicitante para facilitar la evaluación por parte de la FDA. Como resultado, a esta solicitud se le otorgó revisión prioritaria, designación innovadora y designación de medicamento huérfano 51 .

Ensayos N de 1

En la era de la medicina genómica individualizada, los ensayos N-of-1 están surgiendo como una herramienta para estudiar enfermedades raras potencialmente fatales. El ensayo N-of-1 es un ensayo clínico de un solo paciente que utiliza a la persona individual como una unidad de investigación para evaluar la eficacia y/o los eventos adversos de diferentes intervenciones a través de criterios objetivos basados ​​en datos 54 . Por ejemplo, se diseñó y evaluó una terapia con oligonucleótidos antisentido para un solo paciente que tenía un trastorno neurodegenerativo genético fatal conocido como lipofuscinosis ceroidea neuronal CLN7 (una forma de la enfermedad de Batten) 55 . Otro paciente (que resultó ser médico) con enfermedad de Castleman idiopática refractaria a la terapia con bloqueo de IL-6 identificó la alteración molecular causal en su propia enfermedad para desarrollar una terapia personalizada 56 . En otro ejemplo, se evaluó la escalada rápida de dosis con un inhibidor selectivo de RET en un solo paciente con carcinoma medular de tiroides altamente refractario, para superar un mecanismo de resistencia específico de ese paciente 57 .

Estos nuevos y sensacionales paradigmas de descubrimiento y traducción de fármacos plantean preguntas importantes, como qué nivel de evidencia se necesita antes de exponer a un ser humano a un nuevo fármaco, qué evidencia podría generar este enfoque para el próximo paciente y qué desafíos podrían existir con la generalización 58 . El concepto de «gemelos digitales» específicos del paciente análogos médicos es un área emergente de investigación que tiene el potencial de combinar datos polinómicos (datos mecanicistas, historial médico, con el poder de la IA) y tal vez sirva para mejorar los ensayos N-de-1 en el futuro, para personalizar aún más la medicina 37 , 59 , 60 .

RWD y evidencia del mundo real

Una de las principales críticas a toda la investigación de ensayos clínicos es que los ensayos clínicos no representan a la población del «mundo real»; a menudo, los criterios restrictivos de los ensayos clínicos y los análisis limitados enmarcados para responder preguntas específicas pueden no ser aplicables a los pacientes del mundo real. Por lo tanto, existe una gran brecha entre el mundo de los ensayos y el mundo real, y se han hecho intentos para cerrar esta brecha 61 . Los ensayos convencionales se han diseñado sobre la base de la idea errónea de que los organismos reguladores pueden no dar cabida a evidencia más moderna y diversa de los datos de los ensayos clínicos, lo que ya no es el caso 61 , 62 .

Es importante distinguir entre RWD, que se refiere a los datos generados a partir de la atención rutinaria y estándar de los pacientes 62 , y la «evidencia» del mundo real (RWE), que es la evidencia generada a partir de RWD con respecto al uso potencial de un producto. La RWE se genera mediante diseños de ensayos o análisis y no se limita a ensayos aleatorios; en cambio, proviene de ensayos pragmáticos y estudios observacionales prospectivos y/o retrospectivos 62 , 63 .

En este ámbito de los datos de salud y medicinas, todas las partes interesadas buscan la orientación de los reguladores. En consecuencia, los reguladores han adoptado un enfoque práctico y han proporcionado orientación y un marco integral lanzado a través de la Ley de Curas del Siglo XXI 62 , 64 . Además, la FDA utiliza los datos de salud y medicinas para el monitoreo de seguridad posterior a la comercialización, y las agencias de seguros han comenzado a utilizar dichos datos para las decisiones de cobertura 62 . Esto ha sido necesario debido a la rápida aceleración de la entrada de datos de múltiples flujos y capas en los registros médicos electrónicos, así como en los dispositivos portátiles y los biosensores, en paralelo con nuevas capacidades analíticas (IA multimodal) para analizar la enorme cantidad de datos.

Evidencia de brazos de control sintéticos o externos

Los RCT se consideran el estándar de oro para el desarrollo de fármacos y la evidencia, ya que permiten la estimación de los efectos del tratamiento que se pueden asignar al brazo experimental de interés. La aleatorización en estos estudios reduce la preocupación por el sesgo de confusión al eliminar los desequilibrios sistemáticos entre los brazos en los factores pronósticos medidos y no medidos 65 . Sin embargo, los avances en la genómica de las enfermedades raras y el descubrimiento de cánceres raros impulsados ​​por oncogenes han llevado a terapias dirigidas específicas, para las cuales la evaluación en RCT puede no ser factible o ética y puede retrasar el acceso de los pacientes a terapias prometedoras o que salvan vidas.

En tales casos, los brazos de control sintéticos están surgiendo como opciones para generar brazos de comparación que puedan «imitar» los brazos de comparación de los RCT. Los brazos de control sintéticos son externos al estudio en cuestión, y la mayoría se derivan de RWD 65 . Además, los RWD se obtienen de registros médicos electrónicos, datos de reclamaciones administrativas, registros de historia natural y datos generados por pacientes de muchas fuentes, incluidos los dispositivos portátiles 65 . Los brazos de control sintéticos también pueden generarse a partir de datos de ensayos clínicos anteriores (ensayos individuales o agrupados). Esta es un área emergente preparada para la innovación, ya que ahora hay muchos datos disponibles de múltiples fuentes.

El CPCNP se divide cada vez más en pequeños subconjuntos impulsados ​​por oncogenes, lo que dificulta la realización de ensayos aleatorizados 66 , y los desarrollos recientes en el panorama de los ensayos de CPCNP ilustran la utilidad de los brazos de control sintéticos. Por ejemplo, las fusiones de RET son impulsores genómicos en el 1-2% de los CPCNP, y el pralsetinib es una terapia selectiva dirigida a RET que muestra respuestas prometedoras incluso en individuos con enfermedad avanzada. El estudio ARROW ( NCT03037385 ) fue un ensayo de registro de un solo brazo, realizado a nivel mundial, para evaluar el pralsetinib en individuos con fusión de RET positiva con CPCNP 67 , 68 . Este ensayo mostró un beneficio relativo de supervivencia con el fármaco en comparación con un brazo de control externo de estándar de atención que consistía en cohortes de RWD derivadas de dos bases de datos de Flatiron Health 66 . Una plantilla para futuros estudios de esta naturaleza que utilicen análisis de sesgo cuantitativo mostró que las comparaciones entre el grupo de control externo y el grupo de prueba son sólidas y capaces de soportar problemas como la falta de datos, resultados potencialmente peores en RWD y confusión residual 66 . En general, el estudio proporcionó evidencia a favor de pralsetinib como tratamiento de primera línea para el CPNM con fusión RET positiva.

El uso de brazos de control sintéticos puede acelerar el desarrollo de fármacos, y el escepticismo inicial sobre ellos surgió principalmente de una falta de precedentes y dirección de las autoridades regulatorias. Estas preocupaciones ahora se están disipando a medida que los brazos de control sintéticos se han utilizado recientemente para aprobaciones de fármacos para enfermedades ultra raras. Por ejemplo, la neurofibromatosis es una enfermedad rara que se observa en 1 de cada 3000 nacimientos. Los pacientes desarrollan lesiones de neurofibroma plexiforme que son dolorosas y debilitantes, y causan disfunción motora y neuronal. El inhibidor de MEK selumetinib fue aprobado para pacientes pediátricos con neurofibromas plexiformes sintomáticos e inoperables sobre la base de un conjunto de datos de 50 pacientes del Selumetinib en el ensayo de neurofibroma pediátrico (SPRINT), un ensayo de fase 2 de un solo brazo que muestra una tasa de respuesta objetiva duradera y mejoras en los síntomas funcionales 65 , 69 , 70 . Los brazos de comparación de dos ensayos realizados previamente proporcionaron evidencia de la historia natural de la enfermedad y se presentaron como un brazo de control externo, lo que ayudó a confirmar que las regresiones espontáneas eran poco comunes y que las respuestas observadas y la mejoría de los síntomas representaban un efecto genuino del tratamiento 69 .

A pesar de este progreso, los brazos de control externo siguen siendo un concepto emergente y se han utilizado principalmente para investigar la historia natural de la enfermedad y, por lo general, no se han incluido como evidencia primaria o en las etiquetas de los productos. Sin embargo, en el futuro, puedo imaginar este análisis de efectividad comparativa y los brazos de comparación como evidencia primaria para respaldar la aprobación de medicamentos. Los desafíos surgen principalmente de la calidad de los datos y la falta de datos, así como de la incertidumbre sobre si los datos de control externo son adecuados para el propósito. Sin embargo, algunas de estas preocupaciones se pueden mitigar mediante el análisis de sesgo cuantitativo y otras metodologías 66 , 71 .

Ensayos clínicos pediátricos

Aunque la investigación pediátrica ha estado a la vanguardia de los principales avances en medicina (la oxigenación por membrana extracorpórea 72 es un ejemplo notable) y ha ampliado los límites de la oncología moderna (por ejemplo, en el tratamiento de la leucemia pediátrica), las innovaciones en el desarrollo de nuevos fármacos a menudo se retrasan. Muchas enfermedades raras y huérfanas ocurren principalmente en la población pediátrica, y el desarrollo de fármacos en esta población siempre ha sido un desafío operativo, ético, estadístico y metodológico 73 , 74 . Esto se ve agravado por la comprensión limitada de la biología básica, la ontología de las manifestaciones de la enfermedad y la seguridad aguda y a largo plazo de los productos 73 , 74 . Además, existe un uso considerable fuera de etiqueta de productos en niños muy pequeños, lactantes y neonatos donde los ensayos clínicos no han sido factibles, y es imperativo que se genere evidencia de alto nivel mediante métodos creativos. Programas como la Ley de Mejores Medicamentos para Niños (en 2002) y la Ley de Equidad en la Investigación Pediátrica (en 2003), que se hicieron permanentes en 2012 bajo la Ley de Seguridad e Innovación de la FDA, han incentivado y mejorado el desarrollo de terapias pediátricas 73 . Los diseños de ensayos innovadores, los datos de investigación y el aprovechamiento de datos de otros recursos pueden ayudar con la evaluación de riesgos y beneficios y la aprobación de medicamentos, como la aprobación para la neurofibromatosis tipo 1 (NF1) 73 .

Reimaginando el futuro de los ensayos clínicos

AI

El panorama de la IA en medicina se ha transformado recientemente y está a punto de volverse omnipresente. Varios RCT han cuantificado los beneficios de la IA en especialidades que utilizan el reconocimiento de patrones y la interpretación de imágenes, como radiología (mamografía y detección de cáncer de pulmón), cardiología (interpretación de electrocardiogramas (ECG), evaluación funcional cardíaca y detección de fibrilación auricular), gastroenterología (interpretación de colonoscopias), patología (diagnóstico de cáncer), neurología (seguimiento de la evolución de la esclerosis lateral amiotrófica y la enfermedad de Parkinson), dermatología (diagnóstico de lesiones) y oftalmología (detección de enfermedades oculares) 75 . Sin embargo, la mayoría de la investigación de IA se centra en aplicaciones de «prestación de atención clínica» y no en «investigación de ensayos clínicos» 76 .

La integración de la IA en la investigación de ensayos clínicos ha sido más lenta de lo esperado, debido principalmente a la fricción (percibida) entre la IA y la inteligencia humana. Sin embargo, se deben realizar ensayos de generación e interpretación de datos, y la IA se debe utilizar para aumentar la inteligencia humana, no como algo que la reemplace 77 . Los ensayos clínicos de próxima generación que utilicen IA deben considerar escenarios de IA + humanos en lugar de IA versus humanos 75 , 78 . Las pautas de ensayos clínicos para protocolos (extensión de Elementos de protocolo estándar: Recomendaciones para ensayos intervencionistas – Inteligencia artificial (SPIRIT-AI)) y publicaciones (extensión de Estándares consolidados para la presentación de informes de ensayos – Inteligencia artificial (CONSORT-AI)) 79 , 80 tienen como objetivo lograr informes estandarizados y transparentes para ensayos clínicos aleatorizados que involucran IA, y estos son solo el comienzo de una nueva fase de modernización de la investigación clínica.

Teniendo en cuenta el tiempo y el coste que supone desarrollar un fármaco, cada fármaco que fracasa en el mercado representa una pérdida considerable para el ecosistema de desarrollo de fármacos. Además, los diseños de ensayos de mala calidad, el reclutamiento de pacientes subóptimo, la infraestructura deficiente para realizar ensayos y la ineficiencia en la realización y el seguimiento de los ensayos han plagado el sistema durante décadas. La IA tiene el potencial de mejorar todas las fases del desarrollo de fármacos, desde el diseño del fármaco hasta el ciclo completo de desarrollo del fármaco (Fig. 1 ).

La realización de ensayos clínicos todavía es rudimentaria en muchos sentidos. Por ejemplo, en los ensayos oncológicos, se miden y se siguen a lo largo del tiempo algunos aspectos de las lesiones bidimensionales y se evalúa la eficacia del fármaco mediante la reducción de estas lesiones. Las evaluaciones cuantitativas automatizadas y las redes neuronales artificiales pueden ayudar en el procesamiento rápido y automatizado de múltiples lesiones 81 . En los ensayos de cardiología, los signos vitales se miden una vez a la semana en la clínica y, en neurología, se administran cuestionarios a los pacientes en la clínica. Ahora, todos estos datos se pueden rastrear de forma dinámica en tiempo real utilizando tecnología de sensores portátiles. La aplicación de IA a dichas áreas puede tener un impacto transformador a corto plazo. Además, el reconocimiento de patrones mediante redes neuronales profundas puede ayudar con la lectura de exploraciones, imágenes patológicas y electrocardiogramas, entre otros 37 , 78 .

La pirámide actual de la medicina basada en la evidencia representa la punta del iceberg y apenas proporciona evidencia superficial para atender a un paciente genérico (Fig. 4 ). Por lo tanto, se necesita una síntesis y amalgama profunda de todos los datos disponibles para lograr una medicina basada en la evidencia «profunda» de próxima generación. El principal desafío en las próximas dos décadas será aprovechar el potencial de la generación de evidencia multidimensional 82 mediante la extracción, cotejo y minería de grandes conjuntos de datos de historia natural, genómica y todos los demás análisis ómicos, todos los estudios clínicos publicados, RWD, datos de dispositivos inteligentes ubicuos y datos acumulados del IoMT para proporcionar evidencia de próxima generación para la medicina profunda.

figura 4
Fig. 4: Iceberg de la medicina profunda basada en evidencia.

Alianzas para el desarrollo de medicamentos

En la actualidad, la industria farmacéutica es el principal impulsor del desarrollo de fármacos, y sus gastos superan con creces las inversiones de cualquier agencia nacional como los Institutos Nacionales de Salud 61 . Hay dos dominios de ensayos clínicos. El primero de ellos es el de las «grandes farmacéuticas», que utilizan CRO para realizar ensayos; dichos ensayos son muy a menudo aprobados para registro por la FDA. El segundo dominio abarca los ensayos clínicos académicos, que a menudo operan con un presupuesto muy limitado, no suelen evaluar nuevos compuestos y, por lo tanto, rara vez dan lugar al registro de la FDA. En esta era de reducción de la financiación federal para la investigación, se necesitan más asociaciones para el desarrollo de fármacos. Los centros académicos y los sitios comunitarios son cruciales para la inscripción de pacientes; sin embargo, una mentalidad compartimentada ha afectado al desarrollo de fármacos y ha retrasado el acceso a terapias que salvan vidas. Por lo tanto, las colaboraciones entre organizaciones de enfermedades específicas, instituciones académicas, agencias federales y grupos de defensa de los pacientes son cruciales para mejorar la salud de las poblaciones (Fig. 3 ). Debido a que la industria farmacéutica duda en invertir grandes cantidades con un rendimiento financiero limitado, especialmente en enfermedades raras, las agencias federales han desarrollado programas para incentivar el desarrollo de medicamentos para enfermedades raras 1 . Además, las organizaciones centradas en enfermedades han colaborado con la industria farmacéutica, las agencias federales y la academia para formar «filantropía de riesgo» con modelos financieros de reparto de riesgos para reducir el riesgo del desarrollo de medicamentos 1 . Muchas instituciones académicas están entrando en alianzas estratégicas de reparto de riesgos con la industria farmacéutica para colaborar en las fases de desarrollo preclínico y clínico. Estos modelos de asociación innovadores y exitosos han sentado un precedente en enfermedades como la fibrosis quística, el mieloma múltiple, la diabetes mellitus tipo 1 y otras enfermedades raras 1 . Estas colaboraciones han catalizado eficazmente la innovación a través de todas las fases del desarrollo de medicamentos y han proporcionado una razón convincente para sostener y fomentar más programas de este tipo.

Investigación sobre redes sociales y comunidades en línea

Las redes sociales (Twitter, Facebook, etc.) pueden influir en la incorporación de pacientes a los ensayos clínicos. Pueden influir en gran medida y abordar los desafíos históricos de los ensayos clínicos, incluida la falta de conocimiento entre los pacientes y los médicos sobre los ensayos disponibles y la falta de participación de la comunidad. Más de 4.480 millones de personas utilizan las redes sociales en todo el mundo, y se prevé que esta cifra aumente a casi 6.000 millones en 2027 (ref. 83 ). Más del 70% de los estadounidenses están en las redes sociales, incluidos los habitantes rurales y las poblaciones de adolescentes y adultos jóvenes que siempre han estado subrepresentados en los ensayos clínicos. Aunque muchos adultos mayores no utilizan las redes sociales, es probable que sus cuidadores sí lo hagan.

Las personas con enfermedades terminales suelen experimentar por sí mismas con medicamentos, y las comunidades de pacientes en línea pueden proporcionar entornos para compartir y monitorear el uso de dichos medicamentos. Esto puede permitir que se planifiquen estudios observacionales en torno a datos de resultados cuantitativos basados ​​en Internet. Por ejemplo, los investigadores desarrollaron un algoritmo para diseccionar los datos informados en el sitio web PatientsLikeMe por personas con esclerosis lateral amiotrófica que experimentaron con el tratamiento con carbonato de litio 84 . Este análisis llegó a la misma conclusión que un RCT posterior, lo que sugiere que los datos del comportamiento de los pacientes en línea pueden ayudar a acelerar el desarrollo de medicamentos y evaluar la efectividad de los medicamentos que ya se utilizan.

Un aumento de la participación de los pacientes y de los grupos de apoyo a los pacientes puede ayudar a la educación y la divulgación de los pacientes y puede facilitar la investigación en colaboración con los pacientes, además de permitir la incorporación de las perspectivas de los pacientes en el diseño de la investigación clínica, generando en última instancia una investigación impulsada por las necesidades de personas reales con la enfermedad en investigación. Además, las redes sociales rompen los silos que dividen a los investigadores y los médicos, creando un enorme potencial para influir en todas las áreas de la medicina 85 .

Conclusión

El éxito de los ensayos clínicos futuros requiere una transformación fundamental en la forma en que se diseñan, realizan, monitorean, adaptan, informan y regulan los ensayos para generar la mejor evidencia. El modelo del statu quo es insostenible. En cambio, se necesita una medicina preventiva, personalizada, pragmática y participativa del paciente, y se requieren cambios de paradigma para llegar a ella mediante un crecimiento sostenible. Es necesario romper los silos. Los estándares de atención y los ensayos clínicos se consideran actualmente en ámbitos diferentes; sin embargo, el objetivo general de ambos es mejorar los resultados de salud. La pandemia de COVID-19 creó una oportunidad para observar cómo la atención clínica de rutina y los ensayos clínicos pueden trabajar sinérgicamente para generar evidencia 86 . Los ensayos de plataforma pragmática como el ensayo RECOVERY deben ser un modelo y una guía para la eficiencia de los ensayos y el impacto en tiempo real.

Los paradigmas actuales deben ser desafiados continuamente por la tecnología emergente y por todas las partes interesadas (las nuevas generaciones de científicos, médicos, la industria farmacéutica, las autoridades regulatorias y, lo más importante, los pacientes). La innovación disruptiva debe llevar a que cada sitio clínico sea un sitio de investigación, con todos los controles de calidad necesarios y la investigación como parte del estándar de atención. El sistema de atención médica debe integrarse en un sistema intuitivo de generación de RWE, con la investigación clínica y la atención clínica yendo de la mano. Más allá de un destello creativo ad hoc (necesario por una pandemia), se necesitará un impulso sostenido para aprovechar el conocimiento adquirido de programas como «Operación Warp Speed» (iniciada por el gobierno de EE. UU. para acelerar el desarrollo de la vacuna COVID-19). Mi opinión personal es que cada enfermedad importante necesita un programa «Moonshot» y cada enfermedad rara debería tener una «Operación Warp Speed», ambos con objetivos claramente identificados y sostenibles para mejorar la salud de la población y abordar la equidad, la diversidad y el acceso global a las terapias. Los avances metodológicos y los futuros análisis de todos los datos basados ​​en inteligencia artificial proporcionarán evidencia profunda para lograr el objetivo de la medicina personalizada, es decir, ofrecer el tratamiento adecuado al paciente adecuado en el momento adecuado.

Desafíos de la sustentabilidad de las obras sociales en Argentina

La sustentabilidad de las obras sociales está en su etapa agonal por eso a un sistema que cubrió la salud de 17 Millones de personas, desde 1967 hasta la fecha, corresponde despedirlo con todos los honores.


Agonizando por la baja recaudación, la falta de un liderazgo con legitimidad para su defensa sectorial, por el desprestigio en muchos casos con sus afiliados, la falta de mancomunación de fondos que atenúe las diferencias recaudatorias, el consumo del fondo solidario de la superintendencia, por los costos y la cantidad de beneficiarios con discapacidad, (que no permite cubrir los gastos de las prestaciones de alto costo), por el agregado de coberturas impulsadas por las leyes de enfermedad, de cápitas bajas del monotributo, (que no cubre un 20 % del PMO, 9.000 de 35.000) el aumento de los costos de las nuevas tecnologías, por el envejecimiento poblacional, por el encarecimiento de los tratamientos y por la falta de interés de los que fueron sus líderes en los años 70 hasta la actualidad, hoy ya con muchas batallas libradas, con desprestigio en la opinión periodística, con una pérdida de representatividad manifiesta, quedan las banderas pisoteadas en el suelo, destinadas injustamente al olvido. Quedarán en pie unas pocas, tal vez, las que se han adecuado, modernizado, y son austeras en los gastos, compradoras transparentes. esta en curso una depuración sin estrategia por parte de las autoridades, haciéndole perder oportunidades a muchos seres humanos. Quedarán las obras sociales provinciales, las de derechos especiales, y el PAMI. Esto es lo peligroso. Que esta pelea por el poder en ese sistema , nuevamente GENERE victimas inocentes, que tienen cáncer, infartos, accidentes cerebrovasculares, que verán pasar la oportunidad. Los hospitales públicos con muy baja productividad, estancados en la gestión, la gran mayoría tiene aún historia clínica en papel, y los datos son muy pobres. La facturación inexistente. En un país de alta presión tributaria y baja cobertura social: de educación, salud y seguridad, necesita de las obras sociales para darle salud a un porcentaje importante de la población


La seguridad social en salud en Argentina se inicia en el año 1967 durante un gobierno militar, que sirvió para dar servicios de atención médica a los beneficiarios titulares y su familia, con una base solidaria, que brinda servicios relacionados con la necesidad y no con la capacidad de pago o de afrontar dichos gastos. Este acceso mejoro las condiciones de salud de un grupo de la población importante. En 1973 también durante el mismo gobierno militar se crea el Instituto de Jubilados y Pensionados. Que generó una obra social para la clase pasiva para que tengan cobertura generando un seguro de salud con un grupo poblacional con una importante carga mórbida.

Luego en la década del 90 acontece la libre elección de obras sociales, y algunas de estas, para pasarse a planes de salud prepagas, esto llevó a que el mercado de prepagos creciera a 6.300.000 afiliados, desde 1.800.000 que eran los contratos individuales.

El decreto lo único que modifica es que las personas puedan elegir obras sociales o prepagos directamente y desde el momento que ingresan a un empleo formal. Pero la recesión económica, la perdida de empleo, la baja del salario, lleva a que esta libre elección no se produzca, porque los prepagos se incrementaron más que la inflación y esto aleja la posibilidad en la modificación de los hábitos de consumo que se invierta más en salud.


Relación entre las obras sociales y el desempeño económico

Existen diversas perspectivas y resultados de investigaciones en torno a la relación entre el seguro de salud y el desempeño económico, pero ninguna investigación ha aclarado estas variaciones. Revisando un metaanálisis para evaluar la relación general entre ambos, revelando una correlación fuertemente positiva. Indica que el seguro de salud influye positivamente en el desempeño económico, lo que respalda la primera perspectiva y aclara el debate sobre la dirección de la relación y la magnitud. Este estudio contradice la visión de una correlación inexistente o negativa entre el seguro de salud y el desempeño económico, y subraya la relación estadísticamente significativa que no debe ignorarse ni exagerarse en la práctica.

En concreto, el seguro de salud influye positivamente en el crecimiento económico, alivia las cargas económicas y mejora las capacidades de consumo en el proceso de promoción del rendimiento económico. Un aspecto crucial de la relación entre el seguro de salud y el rendimiento económico es el factor de la productividad de los trabajadores.

La mala salud individual puede conducir a la pérdida de mano de obra y productividad. El sistema de seguro de salud, al mejorar la salud de los residentes, mejora las capacidades laborales, la eficiencia y la calidad de vida, asegurando eficazmente la calidad del capital humano y mejorando posteriormente el rendimiento económico.

 Con el desarrollo del seguro de salud, se asignan más fondos a la atención y el desarrollo de nuevas tecnologías médicas, equipos y métodos de tratamiento.

Estas innovaciones aumentan la productividad en la industria de la salud, reducen los costos médicos, mejoran la calidad de los servicios médicos y, en consecuencia, impulsan el desarrollo del sector de la salud, contribuyendo al crecimiento económico.

Además, el seguro de salud, a través de su función de transferencia de riesgos, reduce la incertidumbre, fomenta el consumo individual y promueve mayores inversiones empresariales, lo que conduce al crecimiento económico. Además, a través de su función de compensación económica, el seguro de salud reduce los gastos médicos de bolsillo de los asegurados, aliviando así su carga económica. Mediante la adopción y promoción generalizada del seguro de salud y la orientación que éste proporciona a las personas, las personas pueden hacer un uso más racional de los recursos de atención de la salud, evitando el derroche y el consumo excesivo. Esto no sólo ayuda a reducir los costos de la atención de la salud, sino que también mejora la eficiencia de la utilización de los recursos de atención de la salud, mitigando aún más la carga económica. Además, el seguro de salud estabiliza las expectativas al aliviar las preocupaciones sobre los gastos médicos, reduciendo la necesidad de ahorros preventivos. Esto permite redirigir fondos hacia un consumo de mayor nivel, mejorando la calidad de vida de las personas e impulsando las industrias relacionadas, contribuyendo al crecimiento económico.

Al reducir su gasto en atención de la salud, las personas tienen más ingresos disponibles para otros consumos. Este aumento de los ingresos disponibles mejora la capacidad de consumo de las personas, impulsando el crecimiento de las ventas de bienes y servicios y estimulando aún más el crecimiento económico.

A medida que los patrones de enfermedad evolucionan y el envejecimiento de la población se intensifica, es crucial considerar la cuestión de la pobreza causada por la enfermedad.

Las obras sociales, son un instrumento vital para abordar el problema de la pobreza inducida por la enfermedad, mejorar la salud de los trabajadores, fortalecer la fuerza laboral y aumentar la productividad. En la continua evolución y mejora del sistema de seguro de salud, la cuestión fundamental de si el seguro de salud protege la salud de los residentes y al mismo tiempo promueve el desempeño económico ha surgido como un enfoque crítico para optimizar la eficacia institucional. Además, evaluar el desempeño económico del seguro de salud es esencial para mejorar la coordinación del sistema de seguridad médica y lograr un desarrollo sostenible de la economía y la sociedad.

Pero por el camino que se está transitando se lleva a la desaparición del sistema de obras sociales, por otros que no han demostrado ser mejores.

Causas de la Disminución de la Productividad en Hospitales Públicos: Análisis Detallado

Abstract: The content provides a thorough analysis of the causes and effects of decreased productivity in public hospitals. It is important to highlight the need for addressing issues like irregular work hours and complex administrative processes. Additionally, emphasizing the impact on patient care and the overall healthcare system is crucial. Consider incorporating specific examples or case studies to illustrate these points and engage the audience further. Including practical solutions or success stories from other healthcare systems could also inspire hope and action. Lastly, enhancing the visual appeal of the content with relevant images or infographics may help convey the message more effectively.

Cuando uno analiza los problemas de los hospitales públicos, que atienden a la población que no tiene obra social asignada, ni organizada mediante una red multihospitalaria, a pesar de esfuerzos de Ministros provinciales bien formados que no pueden modificar nada, absorbidos por las estructuras sociotécnicas que se resisten a cualquier modificación que modernice las organizaciones, se origina una letanía caracteriza por una oferta rígida, funcionarial, con listas de esperas ocultas, con barreras de accesibilidad, entonces se muestra este análisis lógico de causas de la baja productividad y los efectos que estos originan. Esto es en defensa de los hospitales públicos. Un por favor tomemos conciencia. Un se puede hacer. No es una cuestión de privatizar, sino de jerarquizar el hospital público y sus trabajadores.

Causas de la disminución de la productividad:

Bajo cumplimiento horario de los profesionales, que usan los nombramientos para lograr un salario más digno. Las horas son ajustes. No referencias a los contratos. Esto esta mal y exige una normalización puesto que genera una falta de los trabajadores, que genera abusos, que si son revisados por otras áreas de gobierno afecta mucho la imagen de los profesionales.

Problemas organizativos: poca presencia de los decisores, todos los médicos en el mismo horario.

Pacientes complejos por multimorbilidad, polipatologías, con determinantes sociales muy graves.

Problemas logísticos y tramites muy complejo de las compras.

No incentivos salariales de variación de los horarios de trabajo y de los esfuerzos, de las prestaciones. Regímenes funcionariales. Cargos sin concursos. Ni legalización.

Salarios poco competitivos. Remuneraciones básicas que afectan la jubilación posterior. No importa como hace unas décadas tener nombramiento hospitalario.

No tienen población asignada. bajo su responsabilidad.

No tienen compromisos de gestión, para alinear objetivos institucionales con los de su servicio.

Demora de estudios complementarios para suministrar información a los profesionales que están haciendo gestión clínica.

Carencia de historia clínica electrónica.

Compartimentalización excesiva de los servicios. No resolución de las zonas grises, entre las especialidades.

Pacientes sociales. Con problemas insolubles para la reinserción social.

Carencia de establecimientos con estancias prolongadas para contener pacientes en recuperación

Pocos anestesistas.

Pocos turnos disponibles para las intervenciones quirúrgicas programadas. Fundamentalmente por no tener anestesiólogos suficientes para la programación habitual.

Efectos:

Estancia prolongada en las patologías trazadoras.

No tener historia clínica única, carencia de información sobre los pacientes para el seguimiento.

No aumento de los ingresos, rechazo de pacientes, demora en el paso de la guardia a la sala común.

Aumento de la incidencia de eventos adversos por prolongación de la estancias.

dificultades para realizar las transiciones entre los servicios.

los problemas logísticos traen demora en el inicio de los tratamientos. La demora en el traslado de los pacientes para realizar estudios les hace perder turnos, y prolongar más la estancia.

Derivación de los pacientes de obras sociales. Disminución de la facturación y recupero de costos por tener las camas ocupadas.

Menos recambio de pacientes, estancias prolongadas, menos quirófanos, no tener anestesiólogos suficientes, lleva a tener menos cirugías, a peor formación de los residentes.

Mayor espera de pacientes con urgencias en las guardias, por las barreras en los quirófanos, y la anestesia.

Conclusiones:

La evolución de los hospitales públicos mejora por competencia con los otros prestadores, teniendo la precaución que no se genere una competencia desleal, sino una evolución de todo el sistema de salud, un aumento en los ingresos hospitalarios, menor espera y una disminución de la perdida de años vividos con calidad de los pacientes.

Gestión y Economía de la Salud

Producir información, conocimiento y discusión sobre gestión sanitaria y economía de la salud

Saltar al contenido ↓