Nota del autor del blog: Este artículo analiza la protección que reciben en forma diferencial los medicamentos biológicos y los de moléculas pequeñas y el mercado de los fármacos, que cada vez, cada año incrementa su participación relativa en el gasto en salud, convirtiendo peligrosamente a la misma, y a su financiamiento en un bien de lujo.
Importancia Los productos biológicos aprobados por la Administración de Alimentos y Medicamentos de los Estados Unidos (FDA) reciben 12 años de protección garantizada contra la competencia de los biosimilares, en comparación con los 5 años de protección contra la competencia de los genéricos para los nuevos medicamentos de moléculas pequeñas. Según la Ley de Reducción de la Inflación de 2022, los productos biológicos están exentos de la selección para la negociación de precios de Medicare durante 11 años, en comparación con los 7 años para los medicamentos de moléculas pequeñas. El Congreso codificó estas diferentes protecciones legales sobre la premisa de que los productos biológicos requieren más tiempo y recursos para desarrollarse y tienen una protección de patentes más débil, lo que requiere protecciones adicionales para que los fabricantes recuperen sus costos de desarrollo y generen retornos adecuados sobre la inversión.
Objetivo Revisar la evidencia empírica de la experiencia estadounidense con productos biológicos para analizar los supuestos que subyacen a períodos más largos de exclusividad en el mercado y protección frente a la negociación de precios en comparación con los medicamentos de moléculas pequeñas.
Revisión de evidencia Se analizaron datos recientes sobre tiempos de desarrollo, tasas de éxito de ensayos clínicos, costos de investigación y desarrollo, protección de patentes, períodos de exclusividad en el mercado, ingresos y costos de tratamiento de productos biológicos frente a medicamentos de moléculas pequeñas.
Resultados La FDA aprobó 599 nuevos agentes terapéuticos entre 2009 y 2023, de los cuales 159 (27 %) eran productos biológicos y 440 (73 %) eran fármacos de moléculas pequeñas. Los tiempos de desarrollo medios fueron de 12,6 años (RIC, 10,6-15,3 años) para los productos biológicos frente a 12,7 años (RIC, 10,2-15,5 años) para los fármacos de moléculas pequeñas ( P = 0,76). Los productos biológicos tuvieron mayores tasas de éxito en los ensayos clínicos en todas las fases de desarrollo. Los costes de desarrollo medios se estimaron en 3.000 millones de dólares (RIC, 1.300 millones-5.500 millones de dólares) para los productos biológicos y 2.100 millones de dólares (RIC, 1.300 millones-3.700 millones de dólares) para los fármacos de moléculas pequeñas ( P = 0,39). Los productos biológicos estuvieron protegidos por una mediana de 14 patentes (RIC, 5-24 patentes) en comparación con 3 patentes (RIC, 2-5 patentes) para medicamentos de moléculas pequeñas ( P < .001). El tiempo medio hasta la competencia de los biosimilares fue de 20.3 años (RIC, 16.9-21.7 años) en comparación con 12.6 años (RIC, 12.5-13.5 años) para los medicamentos de moléculas pequeñas. Los productos biológicos lograron mayores ingresos máximos medios ($1.1 mil millones en el año 13; RIC, $0.5 mil millones-$2.9 mil millones) que los medicamentos de moléculas pequeñas ($0.5 mil millones en el año 8; RIC, $0.1 mil millones-$1.2 mil millones; P = .01) y tuvieron mayores ingresos medios en cada año después de la aprobación de la FDA. El costo anual medio del tratamiento fue de $92 000 (RIC: $31 000-$357 000) para los productos biológicos y de $33 000 (RIC: $4000-$177 000) para los medicamentos de moléculas pequeñas ( P = .005).
Conclusiones y relevancia Hay pocas pruebas que respalden que los productos biológicos tengan períodos más largos de exclusividad en el mercado o de protección frente a la negociación. Como resultado del trato diferenciado, la legislación estadounidense parece recompensar excesivamente el desarrollo de productos biológicos en comparación con los fármacos de moléculas pequeñas.
Observamos a diario como instituciones de alta complejidad, acreditadas, de cuidados progresivos, a muchas personas morir y sufrir sin recibir el apoyo necesario. Entendiendo que morir es una transición natural e inevitable como el nacimiento. Recuperando la muerte, el duelo, como procesos sociales, con la desmedicalización necesaria, normalizando las conversaciones sobre la muerte, asistiendo al paciente y a sus seres queridos. Ciertamente en un mucho destrozado por los conflictos, la injusticia y la desigualdad. Personas desplazadas. Sin esperanzas. Rescatemos en cada uno de nosotros, los cuidadores, los pequeños actos de bondad, la palabra, la comprensión, la empatía, los tiempos y los afectos, el despedirse con lucidez de sus hijos, de sus parejas, de sus padres, comprendiendo que es un acto fundamental. Estas fuerzas, tan universalmente reconocidas como personales, dan forma a nuestra salud, nuestras vidas y nuestro mundo.
Afrontar la muerte de otra manera: revolucionar nuestra aproximación a la muerte y al duelo
BMJ 2024;387:q2815 Autor Selman Lucy.
A pesar del creciente interés público por la muerte, el apoyo a los cuidados al final de la vida y al duelo sigue siendo insuficiente. Necesitamos urgentemente un enfoque de salud pública centrado en la comunidad para los procesos sociales de la muerte y el duelo, respaldado por cuidados paliativos adecuadamente financiados,
En el Reino Unido, cada año mueren más de 600 000 personas, y más de seis millones de ellas siguen de luto. 2 A primera vista, las actitudes ante la muerte parecen estar cambiando: basta con observar el auge de los cafés sobre la muerte y el duelo, 3 festivales y eventos anuales de concienciación, 4 5 6 7 8 9 10 11 y la formación, en 2018, de una asociación nacional de doulas de fin de vida. 12 Proliferan los programas de televisión, las películas y los libros sobre la muerte y el duelo. Un vídeo de la BBC de la doctora en cuidados paliativos, autora y activista Kathryn Mannix, “Morir no es tan malo como crees”, ha tenido 145 000 visualizaciones. 13
Pero debajo de la superficie hay grandes lagunas en el conocimiento y la confianza del público en torno a la muerte, lo que significa que los deseos prácticos, emocionales y espirituales de las personas moribundas a menudo permanecen sin expresar ni cumplir. Mientras tanto, las intervenciones médicas inútiles al final de la vida persisten como un fracaso global. 14
La muerte es un proceso tan natural como el nacimiento, pero gran parte de la sociedad se niega a verlo así. Esta incomodidad se refleja en nuestro comportamiento: evitamos a las personas gravemente enfermas o en duelo y nos abstenemos de hablar de nuestros propios deseos sobre el final de la vida con familiares, amigos y profesionales de la salud. Estas actitudes están profundamente entrelazadas con cuestiones culturales y sistémicas, desde conceptos erróneos y perjudiciales sobre el duelo hasta la medicalización de la muerte.
Los recientes debates sobre la muerte asistida han puesto de relieve los fallos de nuestras actitudes y sistemas de atención al final de la vida y apoyo al duelo, y la diputada Rachael Maskell ha anunciado la creación de una comisión para mejorar los cuidados paliativos. Se trata de una medida oportuna y vital, pero la comisión debe abordar las cuestiones estructurales más amplias que determinan cómo mueren y sufren las personas. 15 Así como los determinantes sociales (ingresos, empleo, vivienda, educación, discapacidad y redes de apoyo social) determinan nuestra salud en vida, también determinan cómo morimos. 14 15 Sin un enfoque de salud pública de largo alcance e integrado para la atención al final de la vida y el duelo, solo estaremos haciendo pequeños retoques en los bordes de un sistema complejo.
Las personas gravemente enfermas o moribundas pasan sólo alrededor del 5% de su último año de vida bajo la atención directa de los servicios de salud, y el resto del apoyo lo proporcionan amigos, familiares y miembros de la comunidad sin formación sanitaria. 16 Entre el 75% y el 90% de la atención domiciliaria al final de la vida la proporcionan cuidadores no remunerados, a menudo miembros de la familia. 17 Es hora de cambiar el enfoque y poner a las familias y las comunidades en el centro de la gestión de la muerte, el duelo y el dolor, pero para desempeñar esta función necesitan recursos integrales, educación y apoyo. 18
Necesitamos hablar sobre la muerte…
La COVID-19 obligó a un reconocimiento global de la mortalidad, algo que para muchas personas es muy personal. Una encuesta realizada en 2021 por la empresa de funerarias Co-op Funeral Care sugirió un cambio de actitud: el 20% de los adultos se sentían más cómodos hablando del duelo, el 47% manifestó una mayor compasión hacia las personas en duelo y el 54% se sentía más consciente de su propia mortalidad. 19 Pero esta concienciación no ha llevado a la acción: solo el 14% de los adultos del Reino Unido ha hablado realmente con alguien sobre sus deseos al final de la vida. 20
A muchas personas les cuesta tomar decisiones informadas sobre los cuidados al final de la vida porque la jerga y los procesos médicos son muy opacos. Pocas personas saben qué es un plan de cuidados anticipados o una directiva anticipada o cómo y por qué se toman decisiones de “no intentar reanimación cardiopulmonar” (DNACPR, por sus siglas en inglés), 21 22 y solo el 60% de las personas son conscientes de que tienen derecho a rechazar un tratamiento que les salve la vida. 23
La desconfianza en los proveedores de atención sanitaria es otra barrera. Casi un tercio de los adultos del Reino Unido dudan de que se respeten sus preferencias al final de la vida, lo que hace que sea menos probable que expresen sus deseos. 20 Esto refleja una creciente insatisfacción con el NHS, 24 lo que indica que es necesario hacer mucho más para mejorar las experiencias del público y reconstruir la confianza.
. . . y de duelo
Las conversaciones después de una muerte también son vitales, pero el duelo es un tema que plantea desafíos particulares. El apoyo de los familiares, amigos y comunidades es fundamental para afrontar el duelo, 25 26 pero con demasiada frecuencia es insuficiente. 2 27 Muchos de nosotros tememos “decir algo incorrecto” y no sabemos cómo ofrecer apoyo; una cuarta parte de nosotros evitamos hablar con alguien que está de duelo, lo que agrava su aislamiento. 28
La vergüenza y el miedo a ofender pueden deberse a un estigma o a ideas equivocadas sobre el duelo. Por ejemplo, la idea psicoanalítica obsoleta de que el duelo se produce en “etapas” y tiene un tiempo limitado suele ser contraria a la experiencia. Las normas culturales también moldean el duelo: en los EE. UU., el “trastorno de duelo prolongado” es un diagnóstico para un duelo intenso después de 12 meses, 29 mientras que en Egipto el duelo entre lágrimas años después de una muerte se considera saludable. 30
También es una opinión común que existe una jerarquía en el duelo. Esto podría reflejar los esfuerzos sociales por controlar o compartimentar el duelo, pero aprobar algunas formas de respuesta a la pérdida mientras se priva de derechos a otras, como sucede a menudo cuando un bebé muere antes de nacer, 31 puede llevar a las personas a comparar su duelo con el de los demás y preocuparse de estar sufriendo demasiado o muy poco. Esas expectativas sociales mixtas hacen que las personas en duelo puedan creer que están fracasando, que son anormales o que no merecen apoyo, lo que les impide expresar sus sentimientos o pedir ayuda.
Medicalización . . .
La medicalización de la muerte ha desplazado el proceso de morir de los hogares y las comunidades a la atención sanitaria. 14 32 33 Morir se ha convertido en un proceso clínico, dejando de lado las dimensiones emocionales, sociales y espirituales que antes eran parte integral de las experiencias del final de la vida. La pérdida de los rituales religiosos y comunitarios en el norte global no ha hecho más que profundizar nuestra distancia con la muerte. El negocio funerario ha comercializado el duelo, y el duelo se ha profesionalizado: es competencia de los consejeros capacitados. 32 33
En el hinduismo, el sijismo y el islam, los rituales funerarios suelen incluir el lavado y la cobertura del cuerpo por parte de los miembros de la familia. En algunas partes del Reino Unido, hasta mediados del siglo XX, era común que las familias se encargaran de la muerte en casa. En los pueblos de Yorkshire, por ejemplo, las mujeres se enorgullecían de “acostar” a los muertos. 34 Los miembros de la familia se turnaban para sentarse junto al cuerpo durante la noche. Se contrataba a una mujer, la “postora”, para que llamara a todas las casas para pedir, o invitar, a los miembros de la familia a asistir al funeral. Estas tradiciones se han desvanecido; a nivel comunitario, los conocimientos y las habilidades cruciales han disminuido constantemente. Como resultado, es posible que no reconozcamos ni aceptemos cuando la muerte está cerca y que tengamos más miedo de la muerte y sus consecuencias.
Los profesionales de la salud también tienen dificultades para afrontar la muerte y los límites de lo que la ciencia médica puede lograr, sobre todo porque eso significa enfrentarse a su propia mortalidad. Pero, cuando los médicos evitan hablar de la muerte y de las preferencias de los pacientes para el final de sus vidas, los pacientes y sus familias pierden oportunidades cruciales de conectarse, prepararse y, en última instancia, tomar decisiones informadas. 35 La educación y la formación clínicas deben garantizar que los futuros médicos tengan habilidades de cuidados paliativos generalistas, sepan cuándo consultar a un especialista en cuidados paliativos y, fundamentalmente, no tengan miedo y reciban apoyo para tener conversaciones tiernas sobre la muerte, la piedra angular de la atención centrada en la persona. 36
… y despriorización
Los cuidados al final de la vida no sólo se han medicalizado, sino que se les ha quitado prioridad. Los sistemas de atención sanitaria y la educación se centran en la cura y la prolongación de la vida, a veces a expensas de la calidad de vida y la atención compasiva a las personas moribundas. 37 38
En el Reino Unido, aproximadamente el 90% de las personas que están muriendo se beneficiarían de cuidados paliativos, pero el 25% no los recibe. 39 40 41 Se prevé que la demanda aumente un 25% en los próximos 25 años a medida que aumenta la esperanza de vida y las condiciones de salud se vuelven más complejas, pero el sector ya está gravemente subfinanciado y sobrecargado. Solo un tercio de la financiación de los hospicios del Reino Unido proviene del estado, y los 1.000 millones de libras restantes se recaudan anualmente a través de tiendas benéficas, eventos de recaudación de fondos y donaciones. 42 Esta brecha de financiación envía un mensaje claro: la atención a las personas moribundas se valora menos que los tratamientos agresivos y los avances médicos de alta tecnología. (Seguramente no es coincidencia que 9 de cada 10 del personal clínico y asistencial en los hospicios del Reino Unido sean mujeres, 43 lo que refleja una larga historia de infravaloración del «trabajo de las mujeres»).
Este modelo de financiación fragmentado deja a las comunidades rurales y otras comunidades desatendidas con graves carencias en materia de atención, en particular para los niños. 44 A medida que aumenta la demanda de cuidados paliativos, se hace cada vez más urgente la necesidad de una financiación gubernamental adecuada para la prestación de cuidados al final de la vida en hogares de ancianos y en la comunidad, incluidos los hospicios. 45 46
Mientras tanto, existen marcadas desigualdades en el acceso a los servicios de cuidados paliativos, de cuidados paliativos y de duelo. Las comunidades marginadas enfrentan la mayor cantidad de obstáculos para acceder a la ayuda en un momento en que la compasión es más necesaria. 47 48 49 50 51 52 Los grupos de minorías étnicas, en particular, se enfrentan a barreras lingüísticas, una difusión inadecuada y una escasez de proveedores culturalmente competentes. 48 50 51 El 30% de las personas de grupos de minorías étnicas, pero solo el 17% de las personas blancas, dicen que no confían en los profesionales de la salud para brindar atención de alta calidad al final de la vida. 23
Para cerrar esas brechas, los servicios e intervenciones de cuidados paliativos y de hospicio deben ser coproducidos con y para las comunidades desatendidas. El acceso a la planificación anticipada de la atención, por ejemplo, puede mejorarse mediante el uso de métodos participativos basados en las artes y mediante la colaboración con organizaciones comunitarias de confianza para garantizar que la información y el apoyo sean culturalmente apropiados y accesibles en múltiples formatos e idiomas. 53 54
Integración significativa a través de un enfoque de salud pública
El acceso a los servicios y las intervenciones, aunque necesario, no es suficiente. La muerte, el morir, la atención y el duelo son eventos esencialmente comunitarios y deben recuperarse como tales. 14 Esta transformación requiere más que inversión: exige un cambio desde la evaluación de necesidades y la prestación de servicios hacia asociaciones intersectoriales genuinas con las autoridades locales, la asistencia social, el sector voluntario y comunitario y las comunidades. Debemos aprovechar y apoyar los activos comunitarios (los recursos sociales, culturales y naturales que ya están arraigados en nuestras comunidades) y priorizar los enfoques de atención basados en las relaciones. 55 56 A través de este enfoque pueden surgir nuevos sistemas en los que la resiliencia comunitaria y las redes de apoyo puedan prosperar. 57
Las alianzas entre la atención sanitaria, la asistencia social, las autoridades locales, el sector voluntario y comunitario y las comunidades no son nuevas: la atención integrada ha sido un principio central del NHS durante más de dos décadas. 58 Desde 2022, todas las juntas de atención integrada de Inglaterra tienen el deber legal de encargar servicios adecuados de cuidados paliativos y al final de la vida, incluido el apoyo al duelo, con el mandato de reducir las desigualdades sanitarias locales, proporcionando un impulso de arriba hacia abajo para el enfoque de salud pública para la atención al final de la vida y el duelo que es claramente necesario. Pero la prestación varía entre las juntas. 59 60
El debate sobre cómo debería ser una integración eficaz y qué es lo que se necesita para lograrla continúa. Los críticos de la integración sostienen que corre el riesgo de trasladar a la comunidad la responsabilidad de las desigualdades sanitarias, arraigadas en las políticas de austeridad. 61 Otros sostienen que la superación de las barreras a la integración, como la precariedad financiera a la que se enfrentan muchas organizaciones comunitarias, mejora la prestación de servicios y reduce las desigualdades sanitarias mediante la creación de resiliencia y capacidad colectiva en los sistemas vecinales. 62 En el ámbito de los cuidados paliativos y al final de la vida, los modelos comunitarios compasivos, como la Carta de Ciudades Compasivas, ofrecen un marco formalizado para apoyar los enfoques de salud pública, 63 pero puede ser un desafío cambiar un sistema hacia la participación y el desarrollo comunitarios después de un enfoque prolongado en la prestación de servicios. 64 66 Necesitamos un compromiso gubernamental a largo plazo para invertir en una integración intersectorial significativa y en la reorientación de los servicios de salud.
Alfabetización sobre la muerte y el duelo
Los medios de comunicación desempeñan un papel fundamental en la construcción colectiva de un sentido y la comprensión pública de la muerte y el duelo, pero a menudo higienizan o sensacionalizan las experiencias del final de la vida. En los dramas médicos, por ejemplo, la reanimación cardiopulmonar (RCP) suele presentarse como altamente efectiva, presentando resultados poco realistas que refuerzan conceptos erróneos. 67 68 Rara vez se muestran las experiencias de pacientes ancianos con multimorbilidad (la mayoría en entornos hospitalarios reales) cuyos resultados después de la RCP son notoriamente malos. 69 70 La cobertura de noticias, a menudo de muertes violentas o inesperadas, presenta la muerte como algo angustiante y temible, pero a distancia, como algo que les sucede a otras personas. 71 De manera similar, las vívidas descripciones del sufrimiento intratable hacia el final de la vida que se relataron en el parlamento el mes pasado durante los debates sobre la muerte asistida pueden causar un miedo innecesario a menos que también contemos historias de “muerte común”. 72 73 Las representaciones y los debates realistas sobre la muerte y el duelo pueden contrarrestar conceptos erróneos comunes, ayudando a alinear las expectativas del público con la realidad y fomentar actitudes y comportamientos sociales más compasivos.
Promover la alfabetización en la muerte y el duelo (el conocimiento y las habilidades para hablar y planificar la muerte y apoyar a otros en su duelo) es una parte clave de un enfoque de salud pública para los cuidados paliativos y al final de la vida y el duelo. Las artes y la cultura, incluidos los festivales, ofrecen puntos de entrada vitales a lo que pueden ser temas desafiantes. 7 8 La mayoría de los niños del Reino Unido estarán de luto por alguien cercano a ellos, sin embargo, el duelo, la muerte y la pérdida están en gran medida ausentes del currículo escolar. 74 Para preparar mejor a los niños para manejar su propio duelo y apoyar a otros, la educación sobre el duelo debería convertirse en una parte central del currículo nacional, una medida que actualmente se está debatiendo en el parlamento.
Los médicos también tienen un papel fundamental en la remodelación de actitudes y, por lo tanto, deben desarrollar su propia alfabetización sobre la muerte y el duelo. Al hablar abiertamente sobre los cuidados al final de la vida y cuestionar los conceptos erróneos comunes, los proveedores de atención médica pueden dar ejemplo de aceptación de la muerte, generar confianza y mostrar al público que es seguro hacer preguntas y expresar dudas y temores. La atención debe ser emocionalmente consciente, culturalmente sensible, compasiva y centrada en la persona, y esto debe reflejarse en la educación clínica y el apoyo continuo a los médicos. Los líderes clínicos deben reconocer el peso emocional de lidiar con la muerte y el duelo y apoyar a los médicos en esta tarea, alentando el intercambio, el apoyo entre pares y el recuerdo. Al hacer espacio para el duelo y la vulnerabilidad en la vida profesional, fomentamos el lado humano de ser un médico.
Para cambiar las actitudes sociales ante la muerte y el duelo se necesitan acciones audaces y multifacéticas. Necesitamos una inversión estatal adecuada en hospicios, cuidados paliativos y apoyo al duelo, y un esfuerzo decidido para eliminar las desigualdades en el acceso. Esto debe ir de la mano de un enfoque de salud pública que se base en la colaboración, la integración y el reconocimiento de las fortalezas de la comunidad. Pero nada de esto tendrá éxito sin alfabetización sobre la muerte y el duelo: los conocimientos, las habilidades y la confianza para enfrentar la mortalidad con los ojos abiertos. Tal vez la última pieza del rompecabezas, y la más difícil, sea el coraje de tender la mano a los demás cuando más importa.
Los recientes avances en genómica han reforzado nuestra capacidad para profundizar en las etiologías complejas de diversas enfermedades. Entre ellos, los estudios de asociación del genoma completo (GWAS, por sus siglas en inglés) son un ejemplo de los enfoques que impulsan estos avances y han mejorado enormemente nuestra comprensión de los factores genéticos que sustentan muchos rasgos y enfermedades complejos importantes. Sin embargo, esta investigación aún enfrenta muchas limitaciones que exigen soluciones innovadoras para liberar todo su potencial. Muchos de estos problemas surgen de la capacidad insuficiente de los métodos de modelado actuales para capturar el grado completo de complejidad biológica subyacente. El número de variantes genéticas es enorme y sus efectos individuales suelen ser pequeños y específicos del contexto. El mapeo completo de los mecanismos que traducen la variación genética en fenotipos requiere una fina integración del análisis genético con otros tipos de conocimiento y dominios «ómicos». Por su naturaleza, estas aspiraciones se alinean estrechamente con los problemas que se encuentran y resuelven actualmente en otros dominios de uso intensivo de datos, tanto en otras áreas de la biología como en un ámbito más amplio. En esta revisión, describiremos sinergias y soluciones prometedoras de los avances recientes en el análisis de DL y explicaremos sus posibles aplicaciones en la investigación biomédica.
Los amplios conjuntos de datos ofrecen información sobre los mecanismos moleculares que subyacen a diversas enfermedades y crean nuevas oportunidades para el modelado predictivo en la medicina de precisión, en particular en el ámbito de la predicción de la eficacia de los fármacos. Sin embargo, la complejidad y el volumen de los datos ómicos plantean desafíos importantes a la hora de extraer información significativa y descifrar el contexto biológico esencial. En el ámbito de la genómica de alto rendimiento, al igual que en otros dominios ómicos, los avances tecnológicos han traído consigo tanto los desafíos típicos asociados con la sobreabundancia de datos como también problemas únicos, como los que surgen de las particularidades metodológicas de los análisis de grupos de estudio. La interpretación significativa de dichos datos es complicada, ya que la mayoría de las estrategias de elaboración de perfiles contemporáneas capturan una visión aparentemente extensa pero funcionalmente estrecha de todo el sistema biológico. A continuación se describen brevemente algunos de los desafíos clave que afectan actualmente a la investigación genómica en el contexto de estos temas generales.
Una crítica que se recibe con frecuencia al enfoque GWAS es su enfoque en variantes genéticas comunes con efectos modestos que a menudo no explican una parte significativa de la contribución genética a los rasgos complejos [ 1 ]. Este problema surge debido a la presencia de variantes raras con contribuciones muy grandes, efectos epistáticos complejos e interacciones entre los genes y el medio ambiente. Incluso una vez que un estudio GWAS ha llevado a la identificación de variantes potencialmente relevantes, sigue siendo esencial determinar sus consecuencias funcionales y causalidad, lo que a menudo puede ser complicado y requerir experimentos específicos adicionales [ 2 ]. La tarea de distinguir las variantes causales de otros marcadores en bloques de desequilibrio de ligamiento y comprender sus efectos mecanicistas en los fenotipos observables requiere algún tipo de información adicional. Por lo tanto, este tipo de investigación se beneficiará en gran medida de la integración confiable y automatizada de la genómica funcional [ 3 ], la epigenómica [ 4 ] y la transcriptómica [ 5 ].
Intentar explicar procesos naturales cada vez más complejos requiere inevitablemente modelos de una complejidad comparable. Esto requiere el uso de algoritmos avanzados para automatizar la construcción de modelos y el proceso de ajuste, lo que da como resultado modelos de «caja negra» que, aunque son muy precisos, generalmente carecen de interpretabilidad humana. El aumento de la complejidad puede, en última instancia, limitar la utilidad de estos métodos para el descubrimiento biológico (ya que puede oscurecer pistas sobre mecanismos potenciales) y socavar la confianza en dichas herramientas para aplicaciones clínicas, un ejemplo son las puntuaciones de riesgo poligénico para enfermedades complejas [ 6 ]. Además, muchos estudios genéticos tienen que lidiar con cantidades subóptimamente pequeñas de muestras, especialmente en el caso de enfermedades raras, variantes con efectos sutiles o aquellas confinadas a subgrupos específicos de población. La inteligencia artificial (IA) y las técnicas de ML [ 7 , 8 ] ofrecen múltiples estrategias nuevas para abordar estas limitaciones y, lo que es más importante, mejorar nuestra capacidad para integrar el conocimiento y los datos en múltiples capas de organización biológica.
Los algoritmos de ML abarcan una amplia gama de métodos computacionales que permiten a las computadoras construir modelos predictivos que conducen a información procesable. En genómica médica, las técnicas de ML han encontrado diversas aplicaciones, que incluyen, entre otras, la clasificación predictiva de enfermedades, el descubrimiento de biomarcadores, la predicción de la respuesta a medicamentos y la identificación de variantes genéticas causantes de enfermedades. Las técnicas clásicas de ML, como Random Forest [ 9 ], Support Vector Machines [ 10 ] y la regresión logística [ 11 ], han sido fundamentales en el análisis de datos ómicos. Estos métodos se destacan en el manejo de datos de alta dimensión y han demostrado éxito en varios esfuerzos de investigación genómica. Para una encuesta integral sobre las aplicaciones típicas de las técnicas de ML estándar en la investigación biomédica, se remite a los lectores a los artículos de revisión existentes [ 12 , 13 , 14 , 15 , 16 , 17 ]. Sin embargo, a medida que aumentan las dimensiones y las capas de datos, también lo hacen las limitaciones de estos métodos clásicos. Un inconveniente importante es su falta de sensibilidad a las relaciones que se esconden detrás de los datos, por ejemplo, los genes, que suelen ser cruciales en la ómica, porque en su mayoría provienen de datos “tabulares”, donde las variables se representan de forma independiente entre sí. Aprovechar las posibles relaciones de los genes o elementos puede ofrecer una gran cantidad de información, como describimos en detalle a continuación.
La aparición del aprendizaje automático ha revolucionado el campo de la IA y ha transformado el panorama del análisis de datos. Esta capacidad del aprendizaje automático para aprender representaciones jerárquicas a partir de datos sin procesar ha demostrado ser inestimable para el modelado predictivo, capturando dependencias intrincadas dentro de los conjuntos de datos, incluso cuando se trata de datos ruidosos y de alta dimensión. Un avance particularmente importante en el área del aprendizaje automático es la creación de nuevos métodos para tratar con tamaños de muestra pequeños, una preocupación recurrente en la elaboración de perfiles genéticos de poblaciones pequeñas y enfermedades raras. Si bien la aplicación ideal del aprendizaje automático tiene como objetivo facilitar el aprendizaje de la representación integral de las estructuras subyacentes dentro de los datos ómicos, surgen desafíos prácticos cuando hay muy pocas muestras disponibles. En ciertas aplicaciones, esto puede incluso obstaculizar el aprendizaje de la representación adecuada y complicar el procesamiento directo de los datos ómicos dentro de los marcos de aprendizaje automático. Esta importante limitación se puede mitigar utilizando una técnica llamada aprendizaje por transferencia. A diferencia de los modelos estadísticos clásicos, las redes neuronales se ajustan secuencialmente, lo que significa que se pueden actualizar continuamente con nuevos datos. Esto abre la posibilidad de «preentrenar» un modelo en un conjunto de datos grande, pero débil o parcialmente relevante y luego finalizar el entrenamiento en uno más valioso pero más pequeño. Para los patrones que persisten entre los dos conjuntos de datos habrá un beneficio del acceso a todas las observaciones combinadas, mientras que los patrones irrelevantes simplemente se sobrescribirán con nuevos datos. El aprendizaje por transferencia puede facilitar la reutilización del conocimiento de conjuntos de datos más grandes para mejorar sustancialmente la precisión en cohortes más pequeñas. En principio, los modelos preentrenados inicializados en datos genéticos a gran escala pueden reespecializarse para nuevas tareas, lo que reduce la necesidad de recopilación de datos y al mismo tiempo mejora el rendimiento. El potencial y las limitaciones de esta estrategia se discuten en detalle en esta revisión y sus beneficios se demuestran con varios ejemplos [ 18 , 19 , 20 , 21 , 22 , 23 , 24 ].
Los modelos DL ofrecen una amplia gama de capacidades de análisis adicionales que pueden mejorar muchos tipos de análisis biomédicos de alto rendimiento. En primer lugar, las redes neuronales artificiales pueden identificar fácilmente grandes cantidades de interacciones y modelar efectos no lineales, al mismo tiempo que ofrecen una regularización muy eficaz para mitigar el riesgo de sobreajuste [ 25 ]. En segundo lugar, las redes neuronales modernas pueden utilizar tamaños de entrada muy grandes, incorporar métodos para la imputación de valores faltantes [ 26 ] y acomodar tipos muy diversos de información estructurada. Todas estas capacidades ofrecen formas adicionales de aumentar la potencia para detectar SNP raros, epistasis y modelar con mayor precisión la gama completa de posibles patrones de asociación. Los modelos DL pueden analizar e integrar conjuntamente fuentes de datos heterogéneos, lo que permite una visión más completa de las contribuciones genéticas y algunos métodos introducidos recientemente ofrecen formas de integrar diferentes tipos de datos ómicos dentro del mismo modelo y realizar inferencias entre ellos simultáneamente. Cabe destacar la familia de enfoques DeepInsight [ 18 , 19 , 20 , 21 ], donde varios estudios han demostrado un análisis transómico exitoso que incluía la variación somática del cáncer como uno de los tipos de entrada. Como este tipo de datos es similar a la variación de la línea germinal, se pueden utilizar estrategias potencialmente similares en el futuro para mejorar la anotación funcional y causal de los SNP.
Por último, el uso creciente de la IA en todas las áreas de la vida ha puesto de relieve la necesidad de que dichos sistemas se vuelvan más transparentes e interpretables. Este problema es un foco de creciente interés de investigación y la IA explicable (XAI) ahora está surgiendo como su propia subdisciplina dentro de la investigación de la IA. Como la gran mayoría de este trabajo se realizó con modelos basados en DL, la mayoría de estos métodos se pueden utilizar fácilmente con la mayoría de las arquitecturas típicas de redes neuronales. Técnicas como la atención y la atribución basada en gradientes pueden, en principio, ayudar a comprender la contribución de los factores biológicos individuales al riesgo de enfermedad y la respuesta a los medicamentos, lo que hace que los resultados sean más interpretables para biólogos y médicos. Para demostrar estos beneficios potenciales, esta revisión utilizará el método DeepFeature como un ejemplo ilustrativo, que implementa un enfoque de atribución basado en gradientes para descubrir posibles mecanismos involucrados en la eficacia de los medicamentos contra el cáncer [ 20 , 21 ].
Aquí nos centramos más en las CNN de inspiración biológica [ 27 ], que son una de las arquitecturas fundamentales ampliamente utilizadas en el dominio de la visión por computadora, y su adopción ha llevado a mejoras sin precedentes en el rendimiento. Las CNN bidimensionales (2D) son herramientas ampliamente utilizadas, particularmente para el análisis de datos de imágenes, ya que extraen características espaciales jerárquicamente, comenzando con datos de imágenes sin procesar, pasando por la detección de bordes, etc., y finalmente para la predicción de objetos. Si bien las CNN 2D han prosperado tradicionalmente en el análisis de imágenes, recientemente ha surgido un interés en su aplicación al análisis de datos ómicos. Los investigadores han contemplado la posibilidad de aprovechar la potencia de las CNN 2D para el análisis de datos tabulares u ómicos, lo que requiere la revelación de información latente (a veces llamamos «espacial») inherente entre los genes (o elementos) dentro de una muestra (o vector de características) [ 28 , 29 , 30 , 31 ]. [ 32 ] subrayaron la importancia de DL incluyendo CNN en tareas predictivas como determinar la especificidad de secuencia de proteínas de unión de ADN y ARN y señalar regiones cis-reguladoras, entre otras aplicaciones. En particular, las CNN y las redes neuronales recurrentes se han convertido en las arquitecturas de elección para modelar estos elementos reguladores con patrones de secuencia, lo que ilustra la amplia utilidad de DL en genómica. Talukder et al. exploran más a fondo las complejidades de los métodos de interpretación de redes neuronales profundas (DNN), particularmente sus aplicaciones en genómica y epigenómica [ 33 ]. Esta amplitud de aplicación también se extiende a la biología sintética, enfatizando su promesa en el mejoramiento de plantas y animales [ 34 ]. No obstante, las revisiones existentes no han abordado ampliamente cómo manejar de manera efectiva datos tabulares como datos ómicos sin patrones explícitos convirtiéndolos en representaciones adecuadas para CNN.
Con la aparición de técnicas de conversión como DeepInsight [ 18 ], se ha producido un avance revolucionario: la conversión de datos tabulares, como los datos ómicos, en representaciones similares a imágenes. Esta conversión transformadora ahora permite el aprovechamiento eficaz de las CNN para el análisis. DeepInsight, una técnica pionera, revoluciona el preprocesamiento de datos al incorporar información latente entre genes o elementos dentro de un vector de características. Esta reinvención de los datos organiza los elementos que comparten características similares en vecinos próximos, mientras que los elementos distantes siguen siendo distintos. Este contexto espacial genera un entorno rico para que las CNN funcionen no solo de manera factible sino también perspicaz. A diferencia de las técnicas de ML tradicionales, que manejan variables de forma independiente y a veces eligen las representativas, esta nueva técnica reúne variables similares cercanas y las trata como un grupo, lo que refleja la estructura detrás de los datos ómicos.
Para aclarar más, cuando los datos biológicos se transforman en un formato de imagen, las relaciones latentes entre entidades biológicas, como los genes, se codifican como proximidades espaciales dentro de la imagen. Posteriormente, el uso de una CNN con estas imágenes permite una reducción sustancial en el número de parámetros del modelo. Esta reducción se logra mediante el diseño arquitectónico de capas convolucionales, que son expertas en identificar oportunidades para compartir parámetros entre entradas apropiadas, específicamente en casos caracterizados por correlaciones lineales parciales o incluso no lineales entre características. Dada la prevalencia de tales correlaciones en datos biológicos, los modelos resultantes suelen tener mejores capacidades de generalización, al tiempo que preservan la capacidad innata de las redes neuronales para descubrir y modelar características más complejas si y cuando sea necesario. Además, estas imágenes facilitan la interpretación de los resultados al mostrar explícitamente la relación potencial entre las entidades biológicas que el modelo considera importantes, como se explicará en detalle más adelante.
Una ventaja adicional notable es la capacidad de utilizar el aprendizaje por transferencia, lo que elimina la necesidad de crear redes desde cero. Este atributo permite un aprendizaje integral en un espectro diverso de datos ómicos, lo que abre nuevas vías para un análisis integral. A través del aprendizaje por transferencia, los modelos se pueden inicializar con pesos de un modelo preentrenado [ 35 ], desarrollado típicamente utilizando conjuntos de datos de imágenes extensos y diversos como ImageNet. Estos modelos preentrenados ya han aprendido patrones esenciales de millones de imágenes naturales, capturando jerárquicamente características universales que son sorprendentemente efectivas cuando se reutilizan para tareas distintas, incluso en dominios aparentemente no relacionados como la genómica. Este enfoque permite a los investigadores capitalizar el conocimiento fundamental integrado en estos modelos preentrenados, reduciendo drásticamente el esfuerzo computacional y el tiempo requerido para el entrenamiento, y a menudo mejorando el rendimiento.
El uso del aprendizaje por transferencia con modelos entrenados previamente ofrece una ventaja única para el análisis de datos ómicos [ 18 , 19 ]. Los conjuntos de datos genómicos, a diferencia de los conjuntos de datos de imágenes disponibles públicamente, suelen tener un tamaño limitado. Aprovechar el patrón aprendido por los modelos a partir de grandes conjuntos de datos de imágenes mediante el aprendizaje por transferencia puede proporcionar una base sólida, que permite a los investigadores ajustar estos modelos para las particularidades de los datos ómicos, sin la necesidad de grandes conjuntos de entrenamiento. Además, el aprendizaje por transferencia permite la extracción de patrones intrincados y matizados de los datos ómicos que podrían pasarse por alto o ser inalcanzables al comenzar el entrenamiento del modelo desde cero. La destreza del aprendizaje por transferencia mediante CNN se muestra vívidamente en varias aplicaciones más allá del procesamiento de imágenes, lo que demuestra su potencial para revolucionar el análisis de datos en todos los campos [ 18 , 22 , 36 , 37 ].
La adaptabilidad de DeepInsight es evidente a través de sus aplicaciones en varios dominios, incluido su papel fundamental en la conformación del modelo ganador (‘Hungry for gold’) de la competencia de Kaggle.com [ 19 , 20 , 22 , 23 , 38 , 39 , 40 , 41 , 42 , 43 , 44 , 45 , 46 ]. Para una exploración en profundidad, los curiosos pueden adentrarse en un compendio integral de métodos de conversión de imágenes y sus aplicaciones, como lo explican Ye y Wang [ 47 ]. Esta progresión transformadora en la transformación y el análisis de datos significa un paso trascendental hacia adelante no solo para desentrañar los intrincados matices arraigados en los datos tabulares, sino también para mejorar sus capacidades de modelado predictivo. La representación esquemática del proceso de conversión de tabla a imagen para usar CNN se ilustra en la Fig. 1 .
Fig. 1: Conversión de tabla a imagen con DeepInsight.
Desafíos en el avance de las aplicaciones de CNN en el análisis ómico
Si bien la combinación de conversión de tablas a imágenes con redes neuronales convolucionales para el análisis ómico ha impulsado avances significativos, aún queda un panorama de desafíos y problemas por resolver, entre ellos:
1.Interpretabilidad: Los modelos DL, incluidas las CNN, suelen considerarse como «cajas negras» debido a sus arquitecturas complejas. La capacidad de comprender los genes o elementos específicos que influyen en las decisiones de un modelo es fundamental para dilucidar los mecanismos biológicos, como las vías. Aunque se han introducido técnicas como DeepFeature [ 20 ], que aprovecha los mapas de activación de clases (CAM) [ 48 ], el desafío sigue abierto y requiere el desarrollo de modelos para interpretar las características aprendidas para obtener conocimientos más profundos.
2.Heterogeneidad de los datos: los datos ómicos son intrínsecamente heterogéneos y abarcan diversos tipos de información biológica, como la expresión génica, la metilación y la mutación. Adaptar varios tipos de datos ómicos y, al mismo tiempo, preservar cada estructura latente plantea un desafío.
3.Escalabilidad y tamaño de los datos: los modelos de aprendizaje automático, incluidas las redes neuronales convolucionales, exigen cantidades sustanciales de datos para una generalización eficaz. Sin embargo, los conjuntos de datos ómicos, especialmente los asociados con enfermedades raras o afecciones específicas, pueden tener tamaños de muestra limitados. Superar las limitaciones de los conjuntos de datos de pequeña escala y garantizar la solidez del modelo son consideraciones vitales.
4.Sobreajuste: Se sabe que los métodos tradicionales de aprendizaje automático, en particular cuando se trata de datos ómicos de alta dimensión, son susceptibles al sobreajuste. Esto llevó a comprender que la complejidad del modelo debe gestionarse con cuidado para evitar dicho sobreajuste. Sin embargo, los avances teóricos recientes están desafiando esta visión, en particular en el ámbito del aprendizaje automático. Específicamente, los algoritmos de aprendizaje automático poseen características de regularización intrínsecas dentro de su proceso de aprendizaje de propagación hacia atrás. Curiosamente, estas características pueden reducir el riesgo de sobreajuste a medida que la red escala; al contrario de lo que se podría esperar, agregar más nodos o capas puede hacer que el modelo sea más robusto. Esto cambia radicalmente nuestra comprensión tradicional de las estadísticas clásicas y el aprendizaje automático, donde una mayor complejidad del modelo generalmente exacerba el sobreajuste. Por lo tanto, si bien la importancia de equilibrar la complejidad, la capacidad y los datos del modelo sigue siendo válida, estos nuevos conocimientos sugieren que las consideraciones para lograr este equilibrio en el contexto de las redes neuronales profundas pueden ser fundamentalmente diferentes.
5.Ajuste de hiperparámetros: los modelos de aprendizaje automático comprenden múltiples hiperparámetros que influyen en su rendimiento. Identificar el conjunto óptimo de hiperparámetros para conjuntos de datos ómicos específicos puede requerir mucho tiempo y experiencia. Las técnicas de optimización bayesiana ofrecen vías para explorar hiperparámetros óptimos.
6.Recursos computacionales: el entrenamiento de modelos de aprendizaje a distancia, especialmente las redes neuronales convolucionales, puede agotar los recursos computacionales. Para los investigadores con recursos limitados, optimizar el proceso de entrenamiento y explorar técnicas como el aprendizaje por transferencia se vuelve crucial.
7.Relevancia biológica: si bien los modelos convierten los datos ómicos en representaciones similares a imágenes, es fundamental preservar la relevancia biológica de estas representaciones. Validar la significatividad de los datos transformados en términos de captar los mecanismos biológicos subyacentes sigue siendo un desafío.
8.Generalización: garantizar la generalización de un modelo en diferentes condiciones experimentales, plataformas y contextos biológicos exige atención. Si bien los esfuerzos recientes han integrado datos de células individuales de diferentes plataformas para la identificación de células en el contexto de la conversión de tablas a imágenes con la aplicación CNN [ 21 ], se justifica una mayor investigación en esta dirección.
9.Integración con el conocimiento del dominio: la incorporación de conocimientos específicos del dominio en el proceso de entrenamiento del modelo mejora la interpretabilidad y la relevancia de los resultados. El desarrollo de métodos para integrar sin problemas el conocimiento biológico previo con el análisis basado en CNN es prometedor.
10.Evaluación comparativa y comparación: una evaluación comparativa rigurosa con métodos establecidos y comparaciones entre conjuntos de datos son vitales para evaluar el verdadero potencial de un modelo.
En la figura 2 se muestra un resumen de estos problemas . Para abordar estos desafíos multifacéticos se necesita una colaboración interdisciplinaria entre expertos en aprendizaje automático, investigadores en bioinformática y biólogos. Esta colaboración es fundamental para avanzar en la integración de modelos de conversión de tablas a imágenes con redes neuronales convolucionales, lo que impulsa los horizontes del análisis y la interpretación de datos ómicos.
Fig. 2: Descripción general de los desafíos en las aplicaciones de CNN para datos ómicos.
DeepInsight y DeepFeature: una nueva peculiaridad en el análisis de datos ómicos
La aplicación del aprendizaje automático a la genómica se ha producido principalmente en el ámbito del análisis de datos tabulares (similares a tablas, incluidos los vectoriales). Sin embargo, con la aparición de nuevas metodologías, ahora podemos superar la brecha entre el análisis de datos tabulares y de imágenes, mejorando la extracción de información significativa de los conjuntos de datos ómicos.
DeepInsight: transformación de datos tabulares en formato similar a imágenes y uso de CNN preentrenada
A la vanguardia de este enfoque de transformación se encuentra DeepInsight [ 18 ], una metodología diseñada para convertir datos tabulares (incluidos los datos ómicos) en representaciones similares a imágenes que reflejan la estructura latente detrás de los datos. La Figura 3 proporciona una ilustración del proceso de DeepInsight. Brevemente, un vector de características, , que contiene expresiones o elementos genéticos se transforma en una matriz de características a través de una transformación . La ubicación de las características individuales dentro de esta matriz depende de sus similitudes, como se muestra en la Figura 3a . Una vez que se determinan las ubicaciones de las características, sus valores de expresión o elementos se asignan a estas posiciones. El proceso de transformación consta de varios pasos clave, como se muestra en la Figura 3b :xMT
1.Colocar los genes o elementos en las coordenadas cartesianas utilizando métodos múltiples como t-SNE, UMAP o kernel PCA.
2.Utilizando el algoritmo de envoltura convexa para encontrar el rectángulo más pequeño que encapsula la distribución de características, seguido de una rotación para alinear con los ejes horizontal y vertical.
3.Conversión de las coordenadas cartesianas a un marco de píxeles.
4.Asignar los valores de los elementos o la expresión genética a sus posiciones correspondientes dentro de este marco de píxeles.
Fig. 3: Tubería y red de DeepInsight.
En este proceso de conversión, la similitud entre genes u otros factores de interés se representa por la cercanía relativa de sus posiciones espaciales. Esta codificación asegura que los elementos con características similares se posicionen próximos entre sí, mientras que aquellos que son diferentes se posicionen distantes. Esta transformación produce una representación de imagen equivalente al vector de características original, como se muestra en la Fig. 3c . Estas imágenes generadas sirven como entrada para las CNN en el modelado predictivo posterior, como se representa en la Fig. 3d . Otras mejoras ampliadas en este paradigma, como agregar la técnica de desenfoque a DeepInsight [ 49 ], fusión con filtrado de Gabor [ 50 ], con autoencoders [ 24 ], alineando características en diferentes capas (para evitar promediar) [ 38 , 46 ], transformando a un marco de píxeles fijos [ 45 ] y modelo de representación multifacética [ 51 ]. El DeepInsight original se ha perfeccionado aún más y Gokhale y su equipo lo adaptaron por primera vez para su integración con Vision Transformers (ViT), lo que supone un importante avance en este campo [ 24 ].
Las representaciones similares a imágenes resultantes son ideales para el análisis mediante redes neuronales convolucionales. Además, como se mencionó anteriormente, DeepInsight facilita el uso de modelos de redes neuronales convolucionales previamente entrenados, que históricamente han sobresalido en el análisis de imágenes. El beneficio de este enfoque es doble: no solo aprovecha las sólidas capacidades de las arquitecturas de redes neuronales convolucionales preexistentes, sino que también ofrece información acelerada al eliminar la necesidad de entrenar los modelos desde cero.
Para evaluar el rendimiento de DeepInsight, se examinaron varios escenarios, como se detalla en [ 18 ], incluida la predicción del tipo de cáncer, en la que el método brindó un rendimiento mejorado en relación con varios otros métodos de ML. En un estudio posterior, DeepInsight-3D [ 19 ] se comparó con múltiples arquitecturas de redes neuronales (feed forward, autoencoder, ANNF), pipeline de bosque aleatorio optimizado (AutoBorutaRF), clasificador basado en máquina de vectores de soporte y tres pipelines recientes de predicción de respuesta a fármacos (modelo de Gelleher et al., MOLI y Super.FELT). DeepInsight-3D mostró una mejora del 7-29% en el rendimiento, medido por el modelo AUC-ROC, en todos estos métodos.
DeepFeature: extracción de características con CAM
DeepFeature [ 20 ] complementa las capacidades analíticas introducidas por DeepInsight. Mientras que DeepInsight se centra en la transformación de datos, DeepFeature apunta al desafío de la interpretabilidad, particularmente en el contexto de los modelos DL. Utilizando CAMs [ 48 ], DeepFeature extrae y resalta las características fundamentales que influyen en las decisiones de un modelo, por ejemplo, la predicción. En genómica, esto se traduce en la identificación de genes o elementos clave que son cruciales para determinar resultados fenotípicos específicos o la manifestación de enfermedades. La Figura 4 ilustra la secuencia de la metodología DeepFeature. Un vector de entrada de datos tabulares se presenta en la parte superior izquierda, lo que lleva a las características o genes seleccionados que se muestran en la parte inferior derecha.
Fig. 4: Descripción general del procedimiento DeepFeature para la selección de características utilizando CNN.
Las implicaciones biológicas son profundas, especialmente cuando se analizan los tipos de cáncer como se describió anteriormente. Al transformar los datos ómicos de varias muestras de cáncer en formatos similares a imágenes, los investigadores pueden usar las CNN para discernir patrones y diferencias que podrían ser difíciles de detectar en el análisis tabular tradicional. Las capacidades de extracción de características de DeepFeature enriquecen aún más este análisis. Al resaltar genes o elementos de importancia dentro de las CNN a través de técnicas de visualización como CAM, los investigadores pueden obtener conocimientos más profundos sobre los mecanismos moleculares que impulsan los diferentes tipos de cáncer. Cuando se aplica a la tarea de identificación del tipo de cáncer descrita anteriormente, podría extraer muchos más genes/vías relacionadas con el cáncer conocidos que los modelos estadísticos tradicionales o los métodos de ML como la regresión logística penalizada, y también podría descubrir nuevas vías para la clasificación de diferentes tipos de cáncer. Estos conocimientos tienen el potencial de dilucidar las vías que se activan o suprimen en formas específicas de cáncer, allanando el camino para estrategias terapéuticas específicas y medicina personalizada.
En resumen, la innovadora transformación de datos ómicos en imágenes ofrece un cambio de paradigma en el análisis ómico. Mediante la transformación avanzada de datos y la extracción de características, estas metodologías proporcionan una lente más refinada para explorar el complejo mundo de la genómica, en particular para comprender las complejidades de diversas enfermedades como el cáncer. Es decir, estas metodologías pueden realizar «descubrimientos científicos» a partir de «big data».
DeepInsight-3D
Para abordar la cuestión de la modalidad de datos heterogéneos en los análisis multiómicos, como se mencionó anteriormente, hemos conceptualizado y desarrollado DeepInsight-3D [ 19 ], una extensión del DeepInsight original, diseñado específicamente para análisis multiómicos.
Ampliación de DeepInsight para análisis multiómicos
DeepInsight, diseñado originalmente para transformar datos ómicos tabulares en representaciones similares a imágenes, allanó el camino para aprovechar la destreza computacional de las CNN preentrenadas para la genómica. DeepInsight-3D lleva esto a un nivel superior. Al adaptarse a datos multiómicos, integra información de diferentes tipos ómicos en un espacio tridimensional (3D) unificado. Esta representación 3D captura las interacciones sinérgicas entre diferentes tipos de datos ómicos, lo que facilita una comprensión holística y ofrece un contexto más rico para el análisis. La Figura 5 proporciona una representación gráfica del modelo DeepInsight-3D. Los datos multiómicos se muestran en el lado izquierdo, y culminan en la selección de genes después del bloque Element Decoder (en la parte inferior central de la Figura 5 ).
Fig. 5: Descripción general del modelo DeepInsight-3D.
Aplicación a la predicción de la respuesta a fármacos contra el cáncer
Los recientes avances en los campos de la IA, especialmente el ML y el DL, han demostrado un potencial notable en el modelado predictivo de la respuesta a los fármacos en diversas enfermedades, incluido el cáncer. La aplicabilidad de estas técnicas computacionales varía desde la caracterización numérica de moléculas para algoritmos de ML [ 52 ] hasta la evaluación de la generalización de los modelos de respuesta a fármacos [ 53 ]. En particular, se han empleado métodos de DL complejos para predecir las respuestas a los fármacos en líneas celulares cancerosas, aunque aún existen desafíos como el sobreajuste a conjuntos de datos limitados [ 54 ]. Estos métodos computacionales ofrecen vías para opciones de tratamiento más precisas e individualizadas, lo que proporciona un impacto significativo en la medicina de precisión y la atención médica [ 55 ].
Una de las aplicaciones de DeepInsight-3D se encuentra en el campo de la oncología, específicamente para la predicción de la respuesta a los fármacos contra el cáncer. Aunque los datos limitados sobre la respuesta a los fármacos causan problemas de estabilidad en el modelo, este concepto es un paso adelante en el manejo de datos multimodales. Al representar datos multiómicos en 3D, DeepInsight-3D puede capturar las interacciones complejas de los genes. Cuando se combina con datos específicos de pacientes, esta herramienta ofrece predicciones sobre cómo un tumor podría responder a un fármaco contra el cáncer específico. Este tipo de predicción tiene el potencial de revolucionar la medicina al guiar las decisiones terapéuticas basadas en perfiles de pacientes individuales.
En el artículo DeepInsight-3D, se introdujeron datos multiómicos de mutaciones genéticas, expresión genética y alteraciones del número de copias para crear el modelo de predicción de la eficacia de los fármacos. El mapeo de los puntos de datos se determinó a partir de los datos de expresión por DeepInsight y se posicionaron las mutaciones y las alteraciones del número de copias en las posiciones de los genes, con diferentes colores según sus niveles. Las líneas celulares Cancer Cell Line Encyclopedia (CCLE) y Genomics of Drug Sensitivity in Cancer (GDSC) acompañadas de la eficacia de los fármacos, y los conjuntos de datos de Cancer Genome Atlas (TCGA) y xenografts derivados de pacientes (PDX) se utilizaron para aprender y probar la CNN, respectivamente. Como resultado, mostró una precisión del 72 %, que superó a otros métodos basados en el aprendizaje profundo en más del 7 %. Esto demostró claramente el poder del esquema de transformación de DeepInsight.
Selección de características con DeepFeature y análisis de rutas
Representar y predecir no es suficiente; comprender el porqué y el cómo de estas predicciones es primordial, especialmente en un entorno clínico. DeepFeature, utilizado en conjunto con DeepInsight-3D, extrae características cruciales mediante CAM, destacando regiones específicas en la representación 3D que influyen significativamente en las predicciones. Esta selección de características es crucial no solo para la interpretación del modelo, sino también para guiar las investigaciones biológicas posteriores.
Para ampliar nuestra comprensión, el análisis de las vías, posterior a la extracción de DeepFeature, descifra el significado biológico de estas características influyentes. Por ejemplo, en el contexto de la respuesta a los fármacos contra el cáncer, la identificación de las vías asociadas con la resistencia o sensibilidad a los fármacos puede arrojar luz sobre posibles dianas moleculares y estrategias terapéuticas. DeepInsight-3D ha identificado muchas vías que se sabe que están implicadas en múltiples respuestas a los fármacos: STAT3, PI3K/AKT, JAK/STAT, Rho GTPasa, degradación y reciclaje de proteínas, estructura extracelular y adhesión celular, y podría encontrar nuevas vías: metabolismo del triptófano X y endocitosis dependiente de clatrina. Dicho esto, la estabilidad es un problema con DeepInsight-3D y la escala limitada de datos puede dar lugar a predicciones incorrectas. Por lo tanto, se deben tener en cuenta estas consideraciones al estimar el modelo. Sin embargo, la integración exitosa de la multiómica a través de DeepInsight-3D, combinada con las capacidades de extracción de características de DeepFeature, es prometedora para una gran variedad de aplicaciones, desde el desarrollo de fármacos hasta la terapia personalizada.
visión profunda de sc
Desentrañando el paisaje celular con mayor precisión: aplicación a datos de scRNA-seq para la identificación de tipos de células
La secuenciación de ARN de células individuales (scRNA-seq) ha abierto nuevas fronteras en la comprensión de la heterogeneidad celular, revelando información que a menudo queda oculta en la secuenciación masiva de ARN. Sin embargo, el desafío radica en el procesamiento y la interpretación de los datos de alta dimensión producidos. Al ingresar un perfil de expresión génica para una sola célula a partir de scRNA-seq, la tarea de anotación del tipo de célula identifica el tipo de célula del que proviene el perfil. Los métodos tradicionales de anotación del tipo de célula se basan en el etiquetado manual de los resultados de agrupamiento no supervisado. Este proceso requiere el análisis de los resultados de expresión de genes marcadores específicos. Sin embargo, los genes marcadores disponibles son limitados y se superponen, especialmente para subtipos de células similares. La selección e interpretación subjetiva de las listas de genes marcadores también descuidan las complejas interrelaciones entre los genes, lo que impide aún más una anotación precisa. Aquí es donde entra en juego scDeepInsight [ 21 ], que aprovecha las fortalezas de DeepInsight y las amplía con medidas de control de calidad y normalización de lotes para atender específicamente las complejidades del análisis de células individuales. La Figura 6 presenta una descripción general de scDeepInsight en el lado izquierdo. En el lado derecho, la figura contrasta la anotación de células real con la anotación de células predicha por scDeepInsight.
A la izquierda, el flujo de trabajo de scDeepInsight progresa desde la introducción del identificador molecular hasta la generación de anotaciones celulares.
Después de procesar un conjunto de datos de referencia y los datos de consulta, se traducen en imágenes 2D, que se utilizan para entrenar el modelo CNN. Cabe destacar que solo los datos de referencia entrenan el modelo, mientras que el conjunto de consulta se clasifica. Para futuros conjuntos de consultas, el modelo existente se puede aplicar directamente sin un nuevo entrenamiento. A la derecha, una visualización UMAP de un conjunto de datos de consulta muestra los tipos de células etiquetados del estudio inicial, en contraste con un UMAP coloreado por las predicciones de scDeepInsight. (De Jia et al. [ 21 ] bajo licencia creative commons).
scDeepInsight revoluciona la anotación de tipos de células al aplicar la metodología de transformación de tabla a imagen a los datos de scRNA-seq. Esta representación transformada, combinada con la fuerza analítica de las CNN, facilita la identificación precisa y robusta de los tipos de células. En lugar de depender únicamente de marcadores conocidos, el modelo aprovecha todo el perfil transcriptómico de las células individuales, lo que ofrece una clasificación más completa. Esto se logra entrenando scDeepInsight en un conjunto de datos de referencia e identificando los tipos de células para los conjuntos de datos de consulta. La mejora del rendimiento observada fue de más del 7 % en comparación con otros métodos de la competencia.
Descubriendo nuevos tipos de células
Una de las facetas más prometedoras de scDeepInsight es su potencial para descubrir tipos de células poco comunes o no descubiertos anteriormente. Al transformar los datos de scRNA-seq en un panorama visual, se destacan los grupos que podrían pasarse por alto o fusionarse en los análisis tradicionales. Estos grupos únicos representan posibles nuevos tipos de células o estados de transición, lo que mejora nuestra comprensión de la biología de los tejidos, los procesos de desarrollo y los mecanismos de las enfermedades.
Identificación de genes marcadores
Los genes marcadores desempeñan un papel fundamental en la identificación de los tipos de células, ya que ofrecen información biológica sobre la función y la naturaleza de las distintas poblaciones celulares. Además de la clasificación, scDeepInsight también ayuda a identificar estos genes marcadores. Al aplicar ingeniería inversa a la representación en forma de imagen y vincularla con los datos genómicos, se pueden identificar genes que se expresan de forma específica en tipos de células específicos. Esto no solo consolida la identificación, sino que también proporciona una base para ensayos funcionales, orientación terapéutica y otras investigaciones biológicas.
En esencia, scDeepInsight amplifica el poder de la secuenciación de ARN de células individuales, brindando herramientas no solo para la identificación sino también para el descubrimiento. A medida que el mundo de la genómica avanza hacia una mayor resolución, herramientas como scDeepInsight serán fundamentales para garantizar que aprovechemos al máximo el potencial de los datos, lo que hará avanzar tanto la ciencia como la medicina
Conclusiones y perspectivas futuras
A medida que los límites de la genómica continúan expandiéndose, nuestras estrategias analíticas deben evolucionar al mismo tiempo. DeepInsight y sus derivados representan un salto monumental en esta progresión. Fusionan los mundos del análisis de datos basados en imágenes con los datos ómicos, lo que facilita interpretaciones matizadas que antes eran difíciles de lograr:
1.Redefiniendo la interpretación de datos ómicos: La transformación de datos ómicos en representaciones similares a imágenes a través de DeepInsight o tecnología similar ha ampliado sin duda nuestras capacidades analíticas y nuestra solidez al capturar estructuras y coherencias latentes detrás de los datos, por ejemplo, los datos ómicos. Su adaptabilidad, como se ve en su fusión con diversas metodologías, resalta el potencial dinámico de la técnica.
2.Integración multiómica holística: la aparición de modelos integradores pone de relieve la creciente necesidad de enfoques más integrales en el campo de la genómica. Dado que la dependencia de datos ómicos únicos puede llegar a ser limitada, en el futuro podríamos ver una mayor dependencia de herramientas como DeepInsight y sus derivados, por ejemplo, DeepInsight-3D, para proporcionar una perspectiva holística de los sistemas biológicos. Sus aplicaciones, especialmente en campos como la predicción de la respuesta a fármacos contra el cáncer, subrayan su posible relevancia clínica.
3.Descifrando la heterogeneidad celular: los análisis de células individuales, impulsados por herramientas como scDeepInsight, han transformado nuestra comprensión de los paisajes celulares. El descubrimiento de nuevos tipos de células y genes marcadores subraya su potencial para contribuir enormemente a la biología celular.Si bien la fusión de la conversión de tablas a imágenes con CNN para el análisis ómico ha impulsado avances significativos, aún existe un panorama de desafíos que requieren solución:
4.Interpretabilidad y relevancia biológica: la naturaleza de “caja negra” de los modelos de aprendizaje automático, incluidas las redes neuronales convolucionales, ha llevado al surgimiento de técnicas como las CAM y DeepFeature. Si bien estas herramientas son prometedoras, garantizar la interpretabilidad y preservar la relevancia biológica de las representaciones de datos son desafíos primordiales.
5.Desafíos de los datos, complejidad del modelo y sobreajuste: los datos ómicos son intrínsecamente heterogéneos y abarcan información como datos genómicos, epigenómicos, transcriptómicos, proteómicos y metabolómicos. La adaptación de estos diversos tipos de datos y el manejo de problemas de escalabilidad, tamaño y sobreajuste de los datos son preocupaciones importantes. Lograr un equilibrio entre la complejidad del modelo, la capacidad y los datos disponibles es esencial para evitar el sobreajuste, especialmente cuando se trabaja con datos ómicos de alta dimensión.
6.Desafíos técnicos: Es necesario abordar cuestiones como el ajuste de hiperparámetros, las limitaciones de recursos computacionales y la generalización del modelo en diferentes condiciones y plataformas.
7.Integración y evaluación comparativa: incorporar conocimientos específicos del dominio en el entrenamiento del modelo y realizar una evaluación comparativa rigurosa frente a métodos establecidos es crucial para evaluar el verdadero potencial de un modelo.
8.Horizontes futuros: La confluencia de la DL y la biología, tal como se manifiesta en estas metodologías, probablemente se intensificará en los próximos años. Podemos imaginar un futuro en el que la transformación y el análisis de datos ómicos en tiempo real se conviertan en estándar en los entornos clínicos, agilizando las decisiones diagnósticas y terapéuticas. Además, se prevé la aparición de modelos aún más robustos, adaptables a una amplia gama de tipos de datos ómicos.
9.Hacia una medicina personalizada: la culminación de estos avances apunta a personalizar las intervenciones médicas para cada individuo. Aprovechando los conocimientos de los conversores de imágenes tabulares y las redes neuronales convolucionales entrenadas en grandes conjuntos de datos, nos acercamos a la realización de una medicina verdaderamente personalizada. Ya sea que se trate de respuestas a medicamentos, descubrimiento de mecanismos moleculares o identificación de nuevos estados celulares, estas herramientas son prometedoras para diseñar tratamientos adaptados al mapa genético de cada individuo.
Los desafíos, como los que se enumeran arriba, subrayan la importancia de la colaboración interdisciplinaria entre expertos en aprendizaje automático, profesionales de la bioinformática, biólogos, investigadores médicos y médicos, y pacientes. Estas colaboraciones serán fundamentales para el avance de los modelos de aprendizaje automático y la ampliación de los horizontes del análisis de datos ómicos.
En conclusión, ahora que nos encontramos en el umbral de esta revolución analítica en genómica, es imperativo adoptar estas nuevas metodologías. Su potencial para revolucionar nuestra comprensión de la biología, combinado con sus profundas implicaciones clínicas, consolida su papel como instrumentos indispensables en nuestro esfuerzo por descifrar las complejidades de la vida.
Cara a cara: la perspectiva de un neurólogo sobre la teleeducación
Matthew W. Schelke, M.D.
A estas alturas, el inicio de cualquier conferencia de Zoom es predecible. Los micrófonos se silencian rápidamente, las cámaras se apagan y un presentador solitario habla con un mar de nombres.
Incluso si los estudiantes están (en su mayoría) escuchando, pensando y procesando, ¿es realmente lo mismo para sus cerebros que la alternativa en persona?
El cambio masivo a las videoconferencias desde el inicio de la pandemia de Covid-19 ha transformado la experiencia educativa de los estudiantes y pasantes de medicina.
Al comienzo de la pandemia, yo era residente de neurología de tercer año y tengo buenos recuerdos del estado de la educación antes de ese momento. Los educadores, los aprendices y los estudiantes siempre se reunían en persona, ya sea para conferencias, conferencias de casos o grandes rondas.
Examinamos a los pacientes con condiciones interesantes como grupo; Los breves comentarios e interacciones condujeron a ideas memorables. La educación médica ha recuperado algunas de estas tradiciones y experiencias, pero no todas.
La mayoría de las sesiones de video en educación médica hoy en día son conferencias y discusiones, que teóricamente incluyen las mismas diapositivas de PowerPoint y puntos de aprendizaje que sus versiones presenciales. Pero ahora que soy tratante y educadora-clínica, me pregunto si los aprendices y los estudiantes aprenden el mismo material a través de video, incluso si el contenido presentado es idéntico. Y como neurólogo, también me pregunto si nuestros cerebros podrían aprender el mismo material por medio de un medio completamente virtual, y creo que la respuesta es no.
La enseñanza y el aprendizaje son actividades fundamentales para el desarrollo humano.
Los psicólogos cognitivos Gergely Csibra y György Gergely han afirmado que una de las ventajas evolutivas más importantes de los seres humanos es la capacidad de la «pedagogía natural»: compartir el conocimiento por el hecho de compartir el conocimiento.1
El cerebro humano tiene redes neuronales que gobiernan el lenguaje y la imitación (el «sistema de neuronas espejo») y regiones de asociación sensorial ampliadas que codifican la identidad y la función de objetos específicos que percibimos.
Juntos, estos sistemas permiten a los seres humanos compartir conocimientos y habilidades con otros; Sin ellos, no podríamos empezar a aprender qué hace el cerebelo o cómo calcular una puntuación en una escala de trazos.
Según Csibra y Gergely, la efectividad del aprendizaje depende de «señales ostensivas», o principalmente señales no verbales que nos dicen: «¡Presta atención a esto!» La mayoría de estas señales no verbales se procesan rápidamente, y a menudo de forma inconsciente, durante las interacciones en persona: una leve sonrisa, un cambio de postura o un momento de contacto visual, por ejemplo.
Como puede atestiguar cualquier residente, no hay fuerza didáctica más poderosa que la mirada penetrante de un asistente mayor.
La teleeducación limita la transmisión de este tipo de señales, incluso si las cámaras permanecen encendidas. Las expresiones faciales rápidas, «microexpresiones» que duran menos de medio segundo, se transmiten mal a través de video. La postura es casi imposible de ver, por lo que se pierden cambios sutiles pero importantes, como una persona que se inclina hacia adelante o se sienta más recta. Incluso si las señales ostensivas son capturadas por la cámara de un participante, las transmisiones de video ligeramente retrasadas pueden impedir que coincidan perfectamente con el contenido de audio, lo que puede ser una distracción.
Las fuentes de audio también limitan la transmisión de los cambios prosódicos sutiles que señalan la importancia de palabras o frases particulares. Desde un punto de vista neurológico, las señales ostensivas pueden ser esenciales para ayudar a las personas a comprender lo que los demás están haciendo y diciendo.
La red cerebral que controla la percepción de la mirada, el lenguaje corporal y las señales prosódicas comienza en el lóbulo temporal especializado y las regiones límbicas y se proyecta hacia la corteza prefrontal medial.2
La corteza prefrontal medial envía aferencias a varias otras regiones corticales, y se propone que este control «de arriba hacia abajo» mejora el procesamiento sensoriomotor del habla, acciones, metas, y la atención de otras personas.3 En otras palabras, la corteza prefrontal medial es el vínculo clave entre las interacciones sociales y la mejora del aprendizaje. Como un ejemplo extremo de la importancia de la participación de la corteza prefrontal medial, las lesiones graves en esta parte del cerebro pueden causar mutismo acinético. Como su nombre indica, los pacientes con esta afección son incapaces de hablar o actuar, permaneciendo inmunes a los estímulos sociales.
Un paciente del neuropsicólogo Alexander Luria llegó a informar (después de cierta recuperación) que «los pensamientos no entraban en mi cabeza». 4
El deterioro de la señalización ostensiva durante las videoconferencias es mucho menos grave, pero la amortiguación de estas redes significa que los circuitos de arriba hacia abajo que mejoran el aprendizaje no están completamente activos. La señalización ostensiva es multidireccional. Durante las clases tradicionales, los estudiantes reciben señales ostensivas de los maestros, pero los maestros también reciben señales de los estudiantes que indican si los estudiantes están siguiendo la conferencia o tienen una pregunta. Muchos profesores han experimentado alienación (o alivio) al hablar a través de Zoom que se deriva de la falta de señalización en vivo de los estudiantes. Además, en las discusiones grupales, como las conferencias de casos, la capacidad de beneficiarse de perspectivas ricas e interactivas se basa en la señalización ostensiva entre todos los presentes: entre el moderador y los participantes, pero también entre los propios participantes. Tales conexiones son imposibles de replicar virtualmente con las tecnologías disponibles actualmente. No obstante, en determinadas situaciones, la teleeducación puede aumentar el aprendizaje tradicional. Por ejemplo, las conferencias que antes solo estaban disponibles para un pequeño grupo de aprendices en una sola institución ahora se pueden compartir a nivel mundial, y la popularidad de los videos educativos médicos en línea da fe de su eficacia en la democratización del conocimiento. Este alcance también puede mejorar algunos de los aspectos no cognitivos de la educación, en particular la exposición de los estudiantes y aprendices a una variedad de enfoques culturales y sociales de la atención médica. Pero hay límites en el tipo de información que se puede transmitir con éxito a través de video. Muchos videos en línea se enfocan en hechos discretos y a menudo comprobables en lugar de la compleja toma de decisiones involucrada en la atención clínica. Aunque los hechos son importantes, el desarrollo del juicio clínico y el razonamiento es crucial para la educación de cualquier aprendiz y se facilita mucho mejor con las discusiones en persona. A pesar de sus limitaciones, la videoconferencia es ahora una parte ineludible de la vida moderna. Entonces, ¿qué podemos hacer los educadores médicos para mejorar nuestras sesiones de enseñanza? Más allá de la respuesta obvia —brindar más oportunidades para las interacciones cara a cara— hay algunas intervenciones que pueden mejorar el aprendizaje virtual. En primer lugar, es posible que los profesores tengan que compensar en exceso las limitaciones del medio cuando presentan material en vídeo. Un mayor énfasis en los puntos clave y una inflexión vocal más dramática pueden ayudar a compensar las reducciones en la señalización ostensiva durante las interacciones basadas en Internet. Muchas pistas, como las microexpresiones, dependen de la resolución de las transmisiones audiovisuales, por lo que es importante tener una buena cámara y micrófono.
En segundo lugar, durante las sesiones virtuales, los educadores pueden centrarse en el aprendizaje de doble canal, en el que las imágenes desempeñan un papel crucial en las palabras de apoyo. En lugar de depender principalmente del texto, los educadores pueden desarrollar imágenes impactantes, que (cuando son efectivas) también pueden sustituir algunas señales ostensivas. Pero probablemente la mejor opción es realizar al menos algunas sesiones, particularmente la primera sesión de un curso o programa, en persona. Muchas señales ostensivas se reciben y se recuerdan subconscientemente5 ;
Si un estudiante asiste a una clase basada en video después de haber conocido al profesor y a sus compañeros en persona, su cerebro infiere algunas pistas sobre la base de los recuerdos de las interacciones cara a cara.
Muchas personas se sorprenden por los aparentes cambios de personalidad en los demás cuando los conocen en persona por primera vez después de haberlos visto solo por video. Gran parte de esta reacción se deriva de la escasez de señales ostensivas asociadas subconscientemente con esas personas.
La importancia de las vías neuronales que conectan las señales ostensivas con la corteza prefrontal medial es una de las razones por las que la teleeducación puede ser inadecuada.
Sin embargo, al igual que con cualquier otra tecnología, los educadores pueden guiar el uso de la teleeducación: la desconexión no es toda la historia, y hay formas de mejorar y aprovechar las herramientas basadas en video.
Pero como especie con un cerebro adaptado para las interacciones cara a cara, los humanos necesitan en última instancia una pedagogía cara a cara.
Laura Barcán, Julián Bibolioni, Rocío Gago, Patricia Giorgio, Melisa Martínez Ríos, Natalia Pujato, Claudia Salgueira, Astrid Smud, Elena Temporiti y Silvina Villamandos (Comisión de Infecciones en Transpalante de Órganos Sólidos, SADI).
Fundación Huésped – Sociedad Argentina de Infectología Gianantonio, Carlos Dr. (ex Pje. Peluffo) 3932 (C1202ABB), Ciudad Autónoma de Buenos Aires (CABA), Argentina redaccion.asei@huesped.org.ar
ISSN 2718-7845
Varios factores han contribuido a que el dengue sea la principal arbovirosis a nivel mundial, con aproximadamente 3,9 mil millones de personas expuestas en más de 120 países. La adaptación del vector vinculada al clima, la urbanización, las condiciones de vida, las acciones de control de vectores y el aumento del movimiento de personas son algunos de los factores que destacan Echazarreta y Couto en uno de los editoriales del número 114 de ASEI.
En la Argentina se describen casos autóctonos desde 2006, y en 2023 se constató por primera vez la continuidad de la transmisión autóctona durante el periodo invernal. En el transcurso de 2024, hasta la semana epidemiológica 24 se han notificado 498.091 casos de dengue, con una incidencia acumulada de 708 casos por cada cien mil habitantes (Boletín Epidemiológico Nacional, Ministerio de Salud 2024).
En este escenario, la procuración de órganos para trasplante se convierte en un desafío, no solo para quienes trabajan en la atención de pacientes, sino también para la sociedad en su conjunto. Y si bien en lo que va de 2024 se realizaron ya 719 trasplantes, todavía queda un largo camino por recorrer, dado que la cantidad de personas que necesitan de un órgano es 7141, casi diez veces más, de acuerdo con los datos del INCUCAI.
En ese contexto, este documento, redactado por la Comisión de Infecciones en Trasplante de Órganos Sólidos de la Sociedad Argentina de Infectología, intenta arrojar luz sobre estas dos realidades que, hoy en día, en cierto modo se superponen. El objetivo es por un lado llamar la atención acerca del potencial riesgo de transmisión del dengue de los donantes a los receptores de un trasplante de órgano sólido y, por otro, continuar la lucha para que la procuración de órganos no se detenga.
Consideramos que es un importante aporte, principalmente para quienes tienen la responsabilidad de evaluar a potenciales donantes y receptores de órganos en la situación epidemiológica actual.
María Belén Bouzas y Lautaro de Vedia Secretaría de redacción, Revista ASEI 4
5 Suplemento II: Documento de posición: recomendaciones sobre dengue en la procuración de órganos Actual. Sida Infectol., Agosto 2024 – Noviembre 2024; 32 (115) Suplemento I: 1-10,
INTRODUCCIÓN
El dengue es una enfermedad viral que puede ocurrir en forma endémica o epidémica. Es transmitido por la picadura de mosquitos del género Aedes. El agente causal es un virus de la familia Flaviviridae, del cual se reconocen cuatro serotipos: DEN 1, DEN 2, DEN 3 y DEN 4.
En nuestro país, hasta la SE 15/2024 (abril/2024) se registraron 469.272 casos de dengue, de los cuales 91% corresponden a casos autóctonos, 7% se encuentran en investigación y 2% presentan antecedentes de viaje (importados). Los casos acumulados hasta la SE15 representan 3,17 veces más que lo registrado en el mismo período de la temporada anterior (2022/2023) y 9,1 veces más que lo registrado en el mismo período de 2019/2020. Desde la semana epidemiológica 31/2023 a la 15/2024, la Argentina registró más de 333.084 casos, con 762 casos graves y 238 fallecidos. A la vez, se detectó que circulan tres serotipos en el país, el DEN 1, DEN 2 y DEN 3. Las áreas principales son la región del centro, todo el NEA y NOA.
PRESENTACIÓN
La enfermedad puede causar cuadros asintomáticos o manifestarse como enfermedad febril autolimitada, fiebre hemorrágica o síndrome de shock. Presenta un periodo de incubación de 3-15 días, la viremia suele ser de 4 a 7 días (mediana de 5 días) pero puede persistir hasta 21 días en inmunocomprometidos. La infección primaria a menudo es asintomática o se presenta como una enfermedad febril leve.
Se caracteriza por un cuadro de fiebre elevada de comienzo agudo,sin síntomasrespiratorios, con cefalea, dolor retroocular, mialgias, artralgias, vómitos, diarrea, exantema, rash eritemato-maculopapular leve, petequias u otras manifestaciones hemorrágicas. Laduración habitual del cuadro febril es menor de 7 días.
En el laboratorio se encuentra leucopenia en el 50 a 90% de los casos, con neutropenia, linfocitosis y linfocitos atípicos, plaquetopenia, hemoconcentración y leve alteración de enzimas hepáticas.
Las formas graves comienzan con un cuadro clínico de dengue clásico, pero alrededor del cuarto al séptimo día (período en el cual el paciente deja de tener fiebre) aparece hipotensión, hipotermia, manifestaciones hemorrágicas y aumento de la permeabilidad capilar, con la consecuente hemoconcentración. También aparecen plaquetopenia severa e hipoproteinemia.
El cuadro puede progresar hacia el shock y muerte. El tratamiento de soporte precoz puede reducir la mortalidad a menos del 1%.
Hay formas menos frecuentes de dengue grave producidas por la afectación directa del virus en un órgano (miocarditis, hepatitis, etc.).
Los receptores de trasplante generalmente adquieren la enfermedad por vectores durante viajes o al habitar en áreas endémicas. Después de un período de incubación, la enfermedad sepresenta abruptamente como una en trifásica: febril, crítica y de recuperación.
CUADRO CLÍNICO
Las tres fases no son claramente distinguibles en pacientes trasplantados, en quienes la duración de los síntomas es más larga y la trombocitopenia está presente en el 80% de los casos.
Hay reportes de presentaciones atípicas que incluyen colitis aguda y encefalitis. También se ha descripto síndrome hemofagocítico secundario. La mortalidad global reportada en este grupo de pacientes es del 16% (entre 0-38%), frente al 3,7 % de la población general.
En general se considera que el cuadro clínico y la evolución son muy similares a los que se producen en huéspedes sanos. Si bien se documentó un aumento de la creatinina durante el episodio febril, en receptores de trasplante renal debido a la depleción de volumen intravascular, esta cifra vuelve a los valores previos con la mejoría del cuadro. La mayoría de los casos notificados de dengue después del trasplante han culminado en la supervivencia del injerto y del paciente.
DIAGNÓSTICO
En la fase aguda (virémica) se utilizan pruebas de detección genómica (PCR) y detección del antígeno NS1. Estos métodos detectan viremia, pero es posible, sin embargo, que el virus persista en el tejido después de la eliminación de la sangre. Por esta razón, el screening de laboratorio no reemplaza totalmente la evaluación epidemiológica para una infección reciente por arbovirus.
Después de la fase virémica de la infección, la serología es el método de elección para diagnóstico. Los niveles de IgM alcanzan su punto máximo aproximadamente dos semanas después del inicio de los síntomas, y luego declinan a niveles indetectables en dos a tres meses.
TRATAMIENTO
No existe un fármaco antiviral específico para tratar el dengue. La reposición abundante de líquidos es el pilar de la terapia. Actualmente, no hay suficiente evidencia para recomendar disminuir o cambiar los regímenes de inmunosupresión. Existe un riesgo potencial de transmisión del dengue de los donantes a los receptores de un trasplante de órgano sólido. Hay escasos reportes de trasmisión de dengue por el órgano. En los casos de transmisión por injerto,
los síntomas del dengue suelen comenzar en los primeros diez días después del trasplante.
Frecuentemente se presentan con fiebre, trombocitopenia y dolor abdominal. En algunos casos se presenta bajo la forma de dengue hemorrágico con riesgo de afectación del injerto y muerte, y en otros como cuadros febriles más leves sin compromiso del injerto. Es por esto que debemos estar alerta a los síntomas del donante y realizar una anamnesis completa para la búsqueda de antecedentes de dengue de este y/o su círculo social para reforzar la sospechas diagnósticas.
Las pruebas de rutina de serología de dengue en donantes no se practican como parte del estudio pretrasplante.
En los donantes fallecidos provenientes de áreas no endémicas debe evaluarse el riesgo de exposición a arbovirus mediante la detección de viajes recientes.
Los potenciales donantes que provengan de zonas epidémicas o endémicas de dengue deberían ser testeados con prueba de antígeno dengue NS1 o pruebas de detección genómica (PCR), de estar disponibles, a fin de detectar viremia, y con IgM si pasaron más de cinco días del comienzo de un cuadro compatible.
Si el donante tiene positivo el NS1 o la deteccion genómica por PCR esdetectable, debe descartarse como donante.
En caso de IgM positiva, si se desconoce el tiempo de inicio de los síntomas o elmismo es menor a 30 días, también se deberá descartar. Si el donante tiene IgM positiva, pero con antecedente de diagnóstico hace más de 30 días, se desaconseja donarórganos hasta que se disponga de más información de seguridad (durante el brote enArgentina 2023-2024, nuestra comisión ha detectado trasmisiones posibles a receptres de donantes con dengue entre 2-3 meses previos). En acuerdo con INCUCAI, en el caso de requerimiento de trasplante de órgano por emergencia y si solo se dispusiera de un donante con NS1 o PCR para dengue negativos e IgM positiva, sin antecedentes recientes de infección o vacunación, podría disponerse del órgano con consentimiento informado del receptor.
En caso de no poder realizar dichos testeos, los órganos podrán ser distribuidos con el debido consentimiento informado al receptor.
Los órganos de potenciales donantes que provengan de zonas epidémicas con diagnóstico confirmado o sospechoso de dengue, zika o chikungunya dentro de los 30 días deben descartarse.
Los órganos de donantes con diagnóstico confirmado o sospechado de arbovirus
pueden ser considerados para trasplante después de un periodo mínimo de 30 días.
Se recomienda obtener y guardar suero de donantes provenientes de zonas de alto riesgo para dengue a fin de realizar serología ante la aparición de signos/síntomas sugestivos de esta enfermedad en el receptor.
En los donantes vivos provenientes de áreas no endémicas puede evaluarse el riesgo de
exposición mediante la detección de viajes recientes.
Se debe educar a los donantes vivos para evitar infecciones previas a la donación.
En los donantes de regiones endémicas debe diferirse si tienen antecedentes recientes de una enfermedad febril sugestiva de infección activa por arbovirus, particularmente dentro de los 30 días.
En caso de donantes vivos que se hayan aplicado recientemente vacuna contra dengue a virus atenuado, se deberá esperar al menos 30 días desde el momento de la aplicación para proceder con el trasplante.
Se recomienda obtener y guardar suero de donantes provenientes de zonas de alto riesgo para dengue a fin de realizar serología ante la aparición de signos/síntomas sugestivos de esta enfermedad en el receptor.
RECOMENDACIONES PARA CANDIDATOS A RECEPTORES DE ÓRGANOS
El receptor puede decidir recibir bajo consentimiento informado un órgano de un potencial donante que provenga de zona endémica cuando no se dispone de testeo con prueba de antígeno dengue NS1 o PCR a fin de detectar viremia.
El receptor debe realizar consulta inmediata ante fiebre de causa inexplicada posteriora la recepción de un órgano de donante con potencial exposición en área endémica.
De haber recibido la vacuna contra el dengue, deberá esperar al menos 30 días para el trasplante, por ser una vacuna a virus vivos atenuados.
Si un paciente está cursando un fallo de órgano ocasionado por dengue que compromete su vida y no ha respondido en un tiempo prudencial a medidas de sostén y se propone trasplante de urgencia, debe procederse sin restricción.
RECOMENDACIONES GENERALES
Control focal en viviendas:
Identificar y controlar todos los criaderos existentes en el interior del domicilio y peridomicilio (patios, jardines y techos): eliminar recipientes en desuso que pueden acumular agua y todos los reservorios de agua donde pueden proliferar los mosquitos.
Larvas y huevos pueden sobrevivir un año en aguas estancadas.
Para aquellos recipientes que no puedan ser eliminados: tapar, cubrir, voltear y limpiarlos con regularidad.
•
Mantener patios y jardines desmalezados para prevenir la presencia de mosquitos
adultos.
•
Prevención de picaduras: si no se puede evitar la exposición (pacientes residentes en
áreas endémicas/epidémicas):
•
Utilizar ropa de mangas y piernas largas de colores claros.
Evitar exposición al aire libre al amanecer y al atardecer.
Utilizar repelente con DEET al 25-30% (OFF® verde) y renovarlo cada 4 a 6 horas.
La vacuna disponible en la Argentina en 2024 es de virus vivos atenuados (Qdenga®)
(dos dosis con tres meses de diferencia), y está contraindicada en trasplantados y otras
situaciones de inmunosupresión. En un candidato a trasplante que se vacune debe
aguardarse 30 días desde la última dosis antes de trasplantarse.
Nota del blog «El dengue ya es endémico en Argentina, ya está entre nosotros, se esta realizando una campaña de vinculación muy lenta, que será sobrepasada por la transmisión del virus en pocas semanas. Donde nuevamente explotarán de demanda nuestras guardia. Haremos diagnóstico de síndrome gripal sin catarro dolor muscular, plaquetas y sin serotipar. Manejándonos como el siglo pasado. No vacunando en la provincia a quienes no hayan tenido dengue, cuya evidencia es débil. De esta forma, con estas estrategias la vacunación no va a doblegar la epidemia de dengue».
Este estudio evaluó la asociación entre la infección previa por dengue confirmada serológicamente y el riesgo posterior de dengue confirmado virológicamente, dengue grave, hospitalización por dengue, muerte relacionada con el dengue y mortalidad por todas las causas.
Métodos.
Se realizó una revisión sistemática y un metanálisis siguiendo las pautas PRISMA (Preferred Reporting Items for Systematic Reviews and Meta-Analyses). Se realizaron búsquedas en PubMed, CINAHL, MEDLINE, Cochrane Library y Web of Science para encontrar informes de ensayos controlados aleatorizados de fase III sobre la eficacia de la vacuna que tuvieran datos sobre el grupo placebo e información sobre infecciones previas y que se publicaron entre enero de 1994 y marzo de 2024. Se utilizaron modelos de efectos aleatorios para calcular los odds ratios (OR) combinados y se evaluó la heterogeneidad.
Resultados.
Se incluyeron cuatro estudios de tres ensayos de fase III. Los participantes con infección previa tuvieron una menor probabilidad de desarrollar dengue confirmado virológicamente durante el seguimiento (OR: 0,85, intervalo de confianza [IC] del 95%: 0,75 a 0,98, P = 0,024) y el mismo riesgo de hospitalización por dengue que aquellos sin infección previa (OR: 1,18, IC del 95%: 0,92 a 1,53, P = 0,198). Sin embargo, tuvieron una tasa más alta de dengue grave (OR: 2,91, IC del 95%: 1,23 a 6,87, P = 0,015). No se produjeron muertes relacionadas con el dengue durante el seguimiento. No hubo diferencias estadísticamente significativas en la mortalidad por todas las causas entre los individuos con y sin dengue previo (OR: 1,74, IC del 95%: 0,21 a 14,08, P = 0,76).
Conclusiones.
La infección previa por dengue redujo significativamente el riesgo de dengue confirmado virológicamente y aumentó el riesgo de dengue grave, pero no tuvo un efecto significativo en la hospitalización por dengue, la muerte relacionada con el dengue o la mortalidad por todas las causas durante el seguimiento. Estos hallazgos sugieren la necesidad de reconsiderar la infección previa como un factor de riesgo independiente.
Palabras clave: Dengue, dengue grave, vacunas contra el dengue, metanálisis
En el contexto de la creciente incidencia y prevalencia del dengue ( 1 , 2 ), varios estudios han analizado los factores relacionados con las infecciones graves ( 3 ). Entre estos, una segunda infección por dengue se ha identificado como un factor de riesgo significativo para el dengue grave en algunos estudios. Una revisión ( 3 ) que examinó 22 estudios encontró que tener una segunda infección por dengue se asoció con un riesgo significativamente mayor de dengue grave (odds ratio [OR]: 2,69, intervalo de confianza del 95% [IC]: 2,08 a 3,48). Estos resultados son materialmente similares a otra revisión sistemática de estudios observacionales que encontró un riesgo asociado de 1,75 (IC del 95%: 1,26 a 2,42) ( 4 ). Sin embargo, un estudio prospectivo realizado en Perú ( 5 ) que investigó el papel de las segundas infecciones por dengue en el contexto del genotipo americano del virus del dengue (es decir, DENV-2) concluyó que a pesar de la alta prevalencia de segundas infecciones por dengue, no se asociaron con un mayor riesgo de dengue grave. Esto sugiere que el genotipo americano DENV-2 podría no tener las características necesarias para inducir formas graves de la enfermedad. Otro estudio ( 6 ) examinó cómo las infecciones previas con diferentes serotipos del virus del dengue afectaron el riesgo y la gravedad de las infecciones posteriores, y encontró que la presencia de anticuerpos heterotípicos preexistentes redujo significativamente el riesgo de dengue grave en infecciones posteriores ( 6 ).
Aunque las revisiones narrativas ( 7 ) enfatizan una segunda infección como un factor predisponente para el dengue grave y la hospitalización por dengue, no todos los hallazgos son consistentes ( 3–6 ). Las razones de estas discrepancias son numerosas, pero los sesgos inherentes al uso de cohortes de estudios no controlados y el sesgo de recuerdo en pacientes con dengue grave pueden contribuir.
La aparición de ensayos controlados aleatorizados (ECA) que examinan la eficacia de diversas vacunas para prevenir el dengue confirmado virológicamente (DCV), el dengue grave, la hospitalización por dengue y la muerte relacionada con el dengue brinda una oportunidad para estudiar este tema mediante el examen de mejores evidencias. A diferencia de los estudios retrospectivos de casos y controles, los ensayos clínicos cuentan con una estrecha vigilancia prospectiva y documentación de los eventos, lo que los hace menos propensos al sesgo de observación.
Este estudio investigó el papel de las segundas infecciones por dengue en la aparición de DCV, dengue grave, hospitalización por dengue, muerte relacionada con el dengue y mortalidad por todas las causas.
MÉTODOS
Estrategia de búsqueda
Para este metanálisis se utilizaron las directrices PRISMA (Preferred Reporting Items for Systematic Reviews and Meta-Analyses). Esta revisión implicó varias etapas: definición de palabras clave, búsqueda de artículos en bases de datos, evaluación crítica de los estudios, selección y análisis de los datos e interpretación de los resultados. El protocolo de investigación está registrado en PROSPERO (número 542370), el registro prospectivo internacional de revisiones sistemáticas. Se realizaron búsquedas en PubMed, CINAHL, MEDLINE, la Biblioteca Cochrane y la Web of Science de artículos publicados entre enero de 1994 y marzo de 2024 (la información sobre la estrategia de búsqueda está disponible a través del autor correspondiente). Además, se realizaron búsquedas manuales, incluido el escaneo de listas de referencias, para identificar artículos que podrían no haberse recuperado con la estrategia de búsqueda inicial.
Criterios de selección y elegibilidad de estudios
Dos investigadores (AM, CB) evaluaron el título y el resumen de todos los artículos para determinar los criterios de elegibilidad para la población estudiada, la intervención, las comparaciones y el diseño del estudio. Se obtuvo el texto completo de todos los estudios potencialmente elegibles y dos investigadores (AM, FQ) evaluaron su elegibilidad para su inclusión en el metanálisis. Cualquier desacuerdo se resolvió mediante discusión. Las razones para excluir algunos ensayos clínicos y el proceso de selección se registraron utilizando el diagrama de flujo PRISMA ( Figura 1 ).
Fuente: Figura elaborada por los autores con base en los resultados de su estudio.
Criterios de inclusión
Los estudios eran elegibles para su inclusión si eran artículos de investigación originales revisados por pares escritos en inglés que examinaban la inmunogenicidad, seguridad o eficacia de varias vacunas contra el dengue y se publicaban dentro del plazo especificado. Solo se incluyeron los estudios finales sobre cada vacuna para eliminar la duplicación. Solo se incluyeron los estudios que informaron el número de participantes con infección previa documentada en el grupo placebo o de control.
Criterios de exclusión
Se excluyeron los estudios si no estaban escritos en inglés y no eran ECA de fase III o si carecían de un grupo de control o placebo.
Extracción de datos
Dos autores (SF, CB) extrajeron datos de los estudios incluidos y verificaron su exactitud. Mediante una hoja de extracción de datos estandarizada, se extrajo la siguiente información de los estudios: dónde se registró el protocolo del estudio; características demográficas de los participantes del estudio; infección por dengue preexistente y documentada; grupo de tratamiento; región y país donde se realizó el estudio; duración del seguimiento; y datos de los resultados.
Riesgo de sesgo
El riesgo de sesgo en cada ensayo aleatorizado se evaluó utilizando la herramienta Risk of Bias 2 desarrollada por la Colaboración Cochrane. Los cinco dominios de sesgo considerados en esta herramienta son el sesgo que surge del proceso de aleatorización, debido a la desviación de las intervenciones previstas, debido a la falta de datos de resultados, en la medición del resultado y en la selección de los resultados informados.
Síntesis de datos
Se recogieron los datos necesarios de cada ensayo clínico para estimar el riesgo y el intervalo de confianza del 95% de infección por dengue/100 000 personas-año. Para cada estudio, se registraron los números totales de participantes, infecciones por dengue, casos de dengue grave, hospitalizaciones por dengue y muertes por todas las causas y muertes relacionadas con el dengue. También se registró el número de años de seguimiento en cada estudio.
Se calculó el riesgo de cada resultado por cada 100 000 personas-año para cada estudio. El riesgo se calculó dividiendo el número total de infecciones por el producto del número total de participantes multiplicado por el período de seguimiento, y luego multiplicando este resultado por 100 000. La probabilidad de cada resultado individual se calculó dividiendo el número total de eventos por el producto del número total de participantes multiplicado por el período de seguimiento. Los intervalos de confianza del 95% para los riesgos se determinaron calculando primero el error estándar de una proporción. Luego, se multiplicó 1,96 por el error estándar y se restó este valor de la estimación del riesgo para determinar el límite inferior; luego se agregó esta misma cantidad a la estimación del riesgo para determinar el límite superior. Luego, los valores finales se multiplicaron por 100 000 para expresar el riesgo por cada 100 000 personas-año. Después de estimar el riesgo y los intervalos de confianza del 95% para cada estudio, se calculó el riesgo ponderado general en todos los estudios. Para obtener el riesgo general, se calcularon los pesos de cada estudio basándose en la inversa de la varianza (es decir, el cuadrado del error estándar) de las estimaciones de riesgo del estudio. Luego, se calculó el riesgo ponderado general sumando los productos del peso y el riesgo de cada estudio y dividiendo este resultado por la suma de los pesos. El error estándar global se obtuvo tomando la raíz cuadrada de la inversa de la suma de los pesos.
Se realizaron metanálisis separados para cada uno de los resultados de interés, identificados como DCV, dengue grave, hospitalización por dengue, mortalidad general y muerte relacionada con dengue, utilizando el método de efectos aleatorios de varianza inversa para calcular la razón de probabilidades (OR) combinada para cada estudio. Cada metanálisis se presenta como un diagrama de bosque, que muestra las estimaciones centrales junto con sus intervalos de confianza del 95%. Para evaluar la heterogeneidad entre los estudios incluidos en cada metanálisis, se utilizó la estadística I² . La estadística I² mide el porcentaje de variación total entre los estudios que se debe a la heterogeneidad en lugar del azar. La heterogeneidad se consideró sustancial cuando I² superó el 40% y P < 0,10 para la prueba χ². La identificación de heterogeneidad sustancial también influyó en la decisión de utilizar un modelo de efectos aleatorios para calcular la razón de probabilidades en cada análisis. Además, se calculó la incidencia de cada resultado de interés para cada ensayo individualmente, así como colectivamente para los participantes con y sin infección previa por dengue. La incidencia se presenta sobre una base anualizada y por 100 000 personas.
Definiciones de resultados utilizados en ensayos clínicos
Los estudios de Kallás et al. ( 8 ) y Tricou et al. ( 9 ) utilizaron los criterios de 2009 de la Organización Mundial de la Salud (OMS), incluido el de los casos que requieren hospitalización por DCV. Los estudios de Capeding et al. ( 10 ), Villar et al. ( 11 ) y Forrat et al. ( 12 ) utilizaron las definiciones de la OMS de 1997 de fiebre hemorrágica del dengue, dengue grave y casos que requieren hospitalización debido a la gravedad de la infección confirmada virológicamente. Un comité de estudio independiente también adjudicó los casos de forma independiente para cada ensayo para reducir el sesgo y garantizar que los resultados informados se alinearan con el protocolo del estudio.
RESULTADOS
Identificación de estudios
Se identificaron 39 publicaciones de tres RCTs. De estos, se seleccionaron cinco estudios que contenían los datos más recientes de los tres ensayos clínicos de fase III y que examinaban los resultados de interés ( Tabla 1) (8–12 ) . El diagrama de flujo PRISMA para los estudios se muestra en la Figura 1 , y la evaluación del riesgo de sesgo se presenta en la Figura 2 .
CUADRO 1. Ensayos controlados aleatorios de vacunas contra el dengue que cumplieron los criterios de inclusión (es decir, incluyeron pacientes en el grupo placebo que tuvieron una segunda infección por dengue después de una infección por dengue previamente documentada).
Fuente: Tabla elaborada por los autores con base en los resultados de su estudio.
Fuente: Figura elaborada por los autores con base en los resultados de su estudio.
Incidencia en los ensayos
La incidencia de VCD durante el seguimiento fue de 1 625 casos (IC del 95%: 1 536 a 1 715) por 100 000 personas-año. La tasa de hospitalización por dengue fue de 52 casos (IC del 95%: 37 a 68) por 100 00 personas-año de seguimiento, la tasa de dengue grave fue de 22 casos (IC del 95%: 11 a 32), y la mortalidad por todas las causas fue de 8 (IC del 95%: 2 a 14). No se registraron muertes relacionadas con el dengue en ninguno de los ensayos clínicos durante los períodos de seguimiento, que fueron de 6 años en el estudio de Forrat et al. ( 12 ), 4,5 años en el estudio de Tricou et al. ( 9 ) y 2 años para el ensayo de Kallás et al. ( 8 ).
Asociaciones entre antecedentes documentados de dengue y resultados de interés
Dengue confirmado virológicamente. Se incluyeron en el metanálisis cuatro estudios con un total de 19 320 observaciones y 1 084 eventos notificados ( 8–11 ). Los participantes con antecedentes de infección por dengue tuvieron una menor incidencia de DCV durante el período de seguimiento, con un odds ratio de 0,86 (IC del 95 %: 0,75 a 0,98, P = 0,024) ( Figura 3 ). La heterogeneidad entre los estudios fue baja, con un I² del 14 % y P = 0,32 para la prueba de heterogeneidad.
IC: intervalo de confianza.Fuente: Figura elaborada por los autores con base en los resultados de su estudio.
Dengue grave. Se incluyeron cuatro estudios, con un total de 13 493 observaciones y 57 eventos reportados. La heterogeneidad entre los estudios fue muy baja, con un I² de 0% y P = 0,69 para la prueba de heterogeneidad. El modelo de efectos fijos mostró que los participantes con antecedentes de dengue tenían mayor riesgo de dengue grave, con un odds ratio de 2,91 (IC del 95%: 1,23 a 6,87, P = 0,0149) ( Figura 4 ).
IC: intervalo de confianza.Fuente: Figura elaborada por los autores con base en los resultados de su estudio.
Hospitalización por dengue. Se incluyeron cuatro estudios, con un total de 13 493 observaciones y 381 eventos reportados. Los participantes con antecedentes de dengue tuvieron la misma probabilidad de hospitalización durante el período de seguimiento que aquellos que no tenían antecedentes de dengue, con un odds ratio de 1,18 (IC del 95%: 0,92 a 1,53, P = 0,198) ( Figura 5 ). La heterogeneidad entre los estudios fue moderada, con un I² de 20% y P = 0,29 para la prueba de heterogeneidad.
IC: intervalo de confianza.Fuente: Figura elaborada por los autores con base en los resultados de su estudio.
Muerte relacionada con dengue. En los cuatro estudios con un total de 13 493 observaciones, no se reportaron muertes relacionadas con dengue. Dado que no se registraron eventos en ninguno de los grupos, se realizó un ajuste introduciendo un factor de continuidad de 0,1. Este ajuste permitió calcular una razón de probabilidades estimada y sus intervalos de confianza, que fueron neutros en 0,50 (IC del 95%: 0,01 a 40,05). Solo dos estudios informaron el número de muertes según la seroprevalencia en el grupo placebo del ensayo. Esto mostró que la mortalidad por todas las causas fue similar entre los participantes con y sin dengue previo (OR: 1,74, IC del 95%: 0,21 a 14,08, P = 0,76). Los resultados no cambiaron significativamente cuando se analizaron juntos dos grupos de edad en el ensayo (es decir, de 2 a 8 años y de 9 a 16 años).
DISCUSIÓN
Este metanálisis de ensayos controlados proporciona información valiosa sobre la gravedad de los eventos relacionados con una segunda infección por dengue en pacientes con dengue previamente documentado. Este metanálisis comparó las frecuencias de eventos en individuos asignados aleatoriamente al grupo placebo de ensayos de eficacia de la vacuna en función de la seroprevalencia previa.
Los pacientes seropositivos tuvieron un menor riesgo de una segunda infección por dengue, tasas de hospitalización similares y la misma mortalidad que los individuos seronegativos. Sin embargo, una mayor proporción de individuos seropositivos fueron clasificados como portadores de dengue grave que entre los seronegativos.
Los resultados de esta revisión sistemática proporcionan información que respalda una reevaluación crítica de la conceptualización actual sostenida por la comunidad médica respecto del papel de la infección previa por dengue en el empeoramiento de infecciones posteriores.
Los ensayos clínicos incluidos en este estudio ( 8–12 ) involucran todas las vacunas contra el dengue aprobadas hasta la fecha. Las autoridades sanitarias internacionales suelen tomar decisiones basadas en los resultados publicados en estos y otros estudios similares.
El hallazgo de un menor riesgo de VCD entre los participantes con una infección previa por dengue se alinea con el hecho bien conocido de que la infección previa confiere inmunidad homotípica. Sin embargo, existe evidencia de que una segunda infección con un serotipo diferente conlleva un mayor riesgo de dengue grave debido al potenciador dependiente de anticuerpos, en el que los anticuerpos preexistentes de la infección inicial pueden facilitar la entrada del virus en las células huésped, aumentando la replicación viral y la gravedad de la enfermedad ( 13 ). En individuos con una infección previa, los anticuerpos generados contra el primer serotipo pueden facilitar la entrada de un serotipo diferente en las células huésped en lugar de neutralizarlo, aumentando la replicación viral y aumentando la gravedad de la enfermedad. El potenciador dependiente de anticuerpos ha sido una de las principales hipótesis utilizadas para explicar la mayor gravedad de las segundas infecciones, y ha provocado un debate sobre las estrategias de vacunación. Si bien algunos estudios han confirmado la asociación entre el potenciador dependiente de anticuerpos y el aumento de la gravedad, otros han encontrado resultados más variables, lo que destaca la necesidad de seguir investigando este mecanismo en diferentes contextos epidemiológicos ( 14 ).
Los resultados informados en este metanálisis también resaltan esta necesidad, mostrando que el riesgo de dengue grave fue mayor en individuos con una infección previa por dengue. Sin embargo, durante el seguimiento en los ensayos clínicos, el evento que ocurrió con mayor frecuencia después de VCD no fue el dengue grave sino la hospitalización por dengue. Los resultados informados aquí muestran que el riesgo de hospitalización por dengue fue similar entre los participantes con y sin enfermedad previa. Hallazgos similares también han sido publicados por otros grupos ( 15 , 16 ), y subrayan la necesidad de reconsiderar la utilidad de la clasificación clínica actual del dengue grave y reevaluar el papel de la infección previa como factor de riesgo para eventos graves.
Los resultados de este metanálisis sugieren que la definición de dengue grave puede no reflejar adecuadamente la verdadera gravedad de la enfermedad. Sin embargo, los hallazgos resaltan la necesidad de adoptar criterios de hospitalización como indicadores más sólidos de la gravedad del dengue y de reexaminar la interpretación del riesgo asociado con infecciones previas para mejorar las estrategias de prevención y manejo de la enfermedad ( 15 , 16 ). Algunos estudios sugieren que la clasificación revisada de la OMS para el dengue grave es sensible y específica ( 13 , 16 ), mientras que otros han indicado que hay inconsistencias y discrepancias en la definición de enfermedad grave ( 17–21 ). Aunque existe consenso en que la nueva clasificación de la OMS es más simple y clara, algunos estudios han señalado que aún puede haber dificultades para usarla en entornos con recursos limitados ( 19 ) porque la falta de acceso a los diagnósticos y la variabilidad en la interpretación de los signos de advertencia pueden complicar su implementación efectiva ( 20 , 21 ).
En los ensayos aleatorizados, el número de muertes por dengue durante el seguimiento fue cero. En estudios de Brasil, este hallazgo se ha atribuido a que los participantes habían sido infectados previamente con el virus Zika ( 22 ). Si bien esto podría ser biológicamente plausible para Brasil, parece poco probable que explique la ausencia de muertes en otros países, donde la transmisión de Zika ha sido menor o solo ocasional. La ausencia de muertes por dengue en ensayos clínicos contrasta con el número sustancial de estudios observacionales que muestran claramente su letalidad ( 3 , 7 ). Puede haber varias razones para estas discrepancias. Primero, los estudios observacionales incluyen pacientes con diferentes niveles de acceso a la atención médica y pueden tener niveles más altos de comorbilidad que los reclutados en los ensayos. Además, los pacientes en estudios aleatorizados son monitoreados de cerca para detectar síntomas y probablemente reciban asistencia médica más temprana. Esta atención proactiva puede prevenir la progresión a formas graves de la enfermedad y reducir significativamente la mortalidad. En segundo lugar, también deben considerarse cuestiones metodológicas. En estudios observacionales, el sesgo de observación puede llevar a una sobreestimación del riesgo de mortalidad por dengue en pacientes con infección previa. Este sesgo puede surgir de varios factores, entre ellos, la forma en que se seleccionan y monitorean los participantes y cómo se recopilan y analizan los datos. Los pacientes con antecedentes de dengue pueden tener más probabilidades de buscar atención médica porque conocen la enfermedad, lo que genera una mayor probabilidad de ser incluidos en estudios retrospectivos en comparación con aquellos sin antecedentes de dengue.
Limitaciones
Se deben considerar las limitaciones de este metanálisis. En primer lugar, aunque solo se incluyeron ECA de fase III, la heterogeneidad en los criterios de inclusión y las definiciones de resultados entre los estudios podría haber influido en los hallazgos. En segundo lugar, el número limitado de estudios y eventos informados puede afectar la precisión y generalización de los resultados. En tercer lugar, el uso de datos de los grupos placebo de los ensayos puede no reflejar completamente las condiciones del mundo real, ya que los participantes en los ensayos clínicos a menudo reciben un seguimiento más intensivo y una atención médica superior en comparación con la población general. Es probable que en el contexto del dengue con signos de alarma, los pacientes que participan en un ensayo clínico puedan ser hospitalizados rápidamente, lo que podría llevar a resultados sesgados hacia una menor morbilidad y mortalidad. En cuarto lugar, la población de los ensayos clínicos incluidos en este metanálisis consiste en aquellos de los ensayos de fase III que probaron la eficacia de varias vacunas. Si bien la eficacia de la vacuna se puede extrapolar a otros contextos, se debe tener en cuenta que este análisis no evaluó la eficacia de la vacuna sino más bien los resultados de los participantes en el grupo placebo del ensayo como un indicador de la carga de enfermedad sin vacunación. Por tanto, los resultados obtenidos son indicativos de la carga de enfermedad en contextos epidemiológicos con alta circulación viral y no necesariamente representan otros contextos. Adicionalmente, la variabilidad en las características demográficas y geográficas de las poblaciones estudiadas podría limitar la aplicabilidad de los resultados a otras regiones y contextos.
Otra limitación de este estudio radica en la naturaleza evolutiva de la definición de dengue grave, que ha variado con el tiempo ( 21 , 23 , 24 ), incluso durante los ensayos clínicos analizados. Esta falta de una taxonomía consistente para definir la causa de la hospitalización plantea un desafío. Si bien los ensayos proporcionaron una documentación clara del evento (es decir, la hospitalización), no siempre especificaron los criterios precisos que motivaron la hospitalización. Esto podría llevar a una superposición entre los casos de VCD y dengue grave, en el que un caso de VCD podría ser hospitalizado sin ser necesariamente clasificado como dengue grave. Sin embargo, los eventos en los ensayos no se informaron por duplicado, sino solo bajo una sola categoría, por lo que los resultados se analizaron por separado.
Conclusiones
Los resultados de este metanálisis muestran que la infección previa por dengue se asocia con un mayor riesgo de dengue grave, pero no con un mayor riesgo de hospitalización por dengue ni con un aumento de la mortalidad. El dengue grave en los ensayos clínicos representó una proporción menor de eventos durante el seguimiento, mientras que la hospitalización por dengue fue más frecuente. Estos hallazgos sugieren que la definición de dengue grave debería revisarse para captar mejor la verdadera gravedad de la enfermedad, haciendo hincapié en los criterios de hospitalización como indicadores más fiables. Los resultados subrayan la necesidad de reevaluar el papel de las infecciones previas para refinar las estrategias de prevención y tratamiento del dengue.
Descargo de responsabilidad.
Los autores son los únicos responsables de las opiniones expresadas en el manuscrito, que no necesariamente reflejan la opinión o política de la Revista Panamericana de Salud Pública/Pan American Journal of Public Health o de la Organización Panamericana de la Salud.
Compromiso con el sistema nervioso central:
El virus del dengue es un flavivirus transmitido por los mosquitos Aedes aegypti y Aedes albopictus. La infección por dengue por los cuatro serotipos (DEN 1 a 4) es endémica a nivel mundial en regiones con climas tropicales y subtropicales, con un estimado de 100 a 400 millones de infecciones anuales. Entre los hospitalizados, la mortalidad es de alrededor del 1%. Se ha informado que la afectación neurológica es de alrededor del 5%. El espectro de manifestaciones neurológicas abarca tanto el sistema nervioso periférico como el central. Estas manifestaciones posiblemente podrían categorizarse en aquellas directamente relacionadas con la infección por dengue, es decir, encefalitis aguda y crónica, complicaciones indirectas que conducen a la encefalopatía por dengue y síndrome postinfeccioso debido a reacciones inmunomediadas, y manifestaciones con mecanismos inciertos, como mielitis transversa aguda, cerebelitis aguda y miositis.
La tendencia creciente de la incidencia mundial del dengue exige que se preste atención a una definición más explícita de cada manifestación neurológica para disponer de datos epidemiológicos más precisos. La carga mundial real de infección por dengue con manifestaciones neurológicas es esencial para la planificación y ejecución futuras de estrategias, especialmente en el desarrollo de antivirales y vacunas eficaces contra el virus del dengue.
En este artículo, se analizan los hallazgos recientes de diferentes espectros de manifestaciones neurológicas en la infección por dengue y brindamos una actualización sobre el desarrollo de antivirales y vacunas y sus desafíos.
La tenecteplasa (TNK) es un agente fibrinolítico recombinante de bolo único que se utiliza para tratar los coágulos intravasculares.El fármaco pertenece a la clase de medicamentos del activador tisular del plasminógeno (tPA). Las indicaciones aprobadas por la FDA incluyen el infarto agudo de miocardio con elevación del segmento ST (STEMI). La tenecteplasa es el agente trombolítico de elección para el infarto agudo de miocardio. La tenecteplasa se está utilizando cada vez más como agente trombolítico en accidentes cerebrovasculares isquémicos agudos, en gran medida debido a su eficacia en comparación con la alteplasa aprobada por la FDA. Esta actividad explora las indicaciones, contraindicaciones, actividad, perfil de eventos adversos, toxicidades y monitoreo de la tenecteplasa para ayudar al equipo interprofesional en el cuidado de los pacientes que necesitan terapia trombolítica.
Objetivos:
Identificar las indicaciones para iniciar la terapia con tenecteplasa.
Implementar la estrategia de monitoreo adecuada para tenecteplasa.
Evaluar el perfil potencial de eventos adversos y toxicidades asociadas con la tenecteplasa.
Coordinar acciones y utilizar una comunicación abierta entre los miembros del equipo interprofesional para mejorar la atención y mejorar los resultados de los pacientes que reciben tenecteplasa para las afecciones indicadas.
Indicaciones
La tenecteplasa (a veces abreviada como TNK, aunque el Instituto de Prácticas Médicas Seguras lo desaconseja) es un agente trombolítico fabricado mediante tecnología de ADN recombinante. La tenecteplasa es un medicamento aprobado por la FDA específicamente indicado para reducir la mortalidad en pacientes con infarto agudo de miocardio con elevación del segmento ST (STEMI). Las indicaciones fuera de indicación incluyen la trombólisis para el tratamiento del accidente cerebrovascular isquémico agudo, la embolia pulmonar y la limpieza del catéter venoso central. Las indicaciones más utilizadas son el infarto agudo de miocardio y el accidente cerebrovascular isquémico agudo. [1] [2]
La tenecteplasa se ha convertido en el agente trombolítico preferido para el tratamiento del infarto agudo de miocardio debido a su eficacia, conveniencia y relación costo-beneficio en comparación con la alteplasa aprobada por la FDA. Si bien la tenecteplasa no está aprobada por la FDA para los accidentes cerebrovasculares isquémicos agudos, su uso fuera de indicación está aumentando debido a sus atributos favorables, como la administración intravenosa de dosis única y un menor costo en comparación con la alteplasa. La tenecteplasa, administrada en una dosis para accidentes cerebrovasculares de 0,25 mg/kg hasta 25 mg, es una opción más rentable en comparación con la alteplasa para el tratamiento de accidentes cerebrovasculares en el mercado estadounidense, con una diferencia de costo de aproximadamente $3000. [3]
Mecanismo de acción
La tenecteplasa es una variante de la alteplasa obtenida mediante bioingeniería, una versión derivada del ADN recombinante del activador tisular del plasminógeno (tPA) natural. El fármaco se deriva de tres sustituciones de aminoácidos en tres sitios (T, N y K representan las tres regiones modificadas de la proteína tPA natural). El tPA nativo es una serina proteasa que se encuentra en las células endoteliales. La tenecteplasa se une al componente de fibrina de un coágulo sanguíneo (trombo). Actúa dentro de la cascada de coagulación fibrinolítica endógena para catalizar selectivamente la escisión del plasminógeno en plasmina. La plasmina activada posteriormente degrada la fibrina, lo que da como resultado la disolución del coágulo y la recanalización del flujo sanguíneo. [4]
La tenecteplasa muestra una especificidad de fibrina mucho mayor, una mayor resistencia a la inactivación por el inhibidor endógeno del activador del plasminógeno (PAI-1) y una vida media más larga en comparación con el tPA nativo. Debido a su larga vida media, la tenecteplasa se puede administrar como una única inyección intravenosa en bolo. [4]
Administración
La tenecteplasa se presenta como un polvo liofilizado en un vial de 50 mg; se envasa con un vial separado de 10 ml de agua estéril para su reconstitución a fin de obtener una concentración final de 5 mg/ml. La solución reconstituida se puede refrigerar a una temperatura de entre 2 °C y 8 °C (36 °F y 46 °F) y debe utilizarse dentro de las 8 horas.
La tenecteplasa se administra en un único bolo intravenoso de 5 segundos en dosis escalonadas según el peso de 0,25 mg/kg o 0,50 mg/kg con una dosis máxima de 50 mg. La tenecteplasa tiene una vida media de 20 a 25 minutos.
El ensayo STREAM demostró una menor incidencia de hemorragia intracraneal (HIC) en pacientes mayores de 75 años que recibieron media dosis de tenecteplasa (0,25 mg/kg) en comparación con la dosis estándar de 0,5 mg/kg. [5]
Infarto de miocardio
El infarto agudo de miocardio (IM) se trata con trombólisis o intervención coronaria percutánea (ICP) oportunas. Si bien la ICP es el abordaje preferido, la trombólisis sigue siendo una estrategia primaria crucial para los pacientes que no pueden recibir ICP dentro del período de tratamiento preferido. [6]
El estudio CAPTIM demostró que la tenecteplasa puede ser tan eficaz como la ICP en el tratamiento del infarto agudo de miocardio con elevación del segmento ST (STEMI) cuando se administra en el ámbito prehospitalario. [7] Esta estrategia es recomendable para pacientes que no pueden recibir ICP dentro de los 90 minutos recomendados después del primer contacto médico. De hecho, hasta el 70% de los pacientes con STEMI se presentan en hospitales sin capacidad para realizar ICP, por lo que requieren ser transferidos a un centro de ICP o una estrategia de revascularización primaria alternativa. [8] Esta estrategia está respaldada además por las directrices del Colegio Estadounidense de Cardiología/Asociación Estadounidense del Corazón (ACC/AHA), que fomentan la terapia trombolítica prehospitalaria dentro de los 30 minutos posteriores al inicio de los síntomas. [9]
La tenecteplasa se puede utilizar junto con terapia antiplaquetaria y anticoagulante. El fármaco también se puede utilizar antes de someterse a una intervención coronaria percutánea. En caso de fracaso de la trombolisis con tenecteplasa, se debe considerar la realización de una intervención coronaria percutánea de rescate.
La seguridad y eficacia de la tenecteplasa antes de la ICP se siguen investigando. El ensayo ASSENT-4 se interrumpió prematuramente debido a la mortalidad hospitalaria excesiva en el grupo de estudio que recibió ICP facilitada por tenecteplasa. [10] Mientras que los estudios WEST y GRACIA-2 encontraron una eficacia comparable entre la ICP facilitada por tenecteplasa y la ICP primaria, estos estudios determinaron que el mayor beneficio se logró cuando la ICP de rutina se pospone al menos 3 a 12 horas después de la administración de tenecteplasa. [11] [12]
Accidente cerebrovascular isquémico agudo
Varios ensayos controlados aleatorizados para el ictus isquémico agudo han comparado la tenecteplasa y la alteplasa. El ensayo EXTEND-1A TNK mostró una mejor reperfusión frente a la alteplasa en lesiones con baja carga de coágulos. [13] El ensayo NOR-TEST2 con 0,4 mg/kg de tenecteplasa no logró demostrar la no inferioridad con respecto a una dosis estándar de alteplasa IV. [14] El ensayo ATTEST comparó 0,25 mg/kg de tenecteplasa y la dosis estándar de alteplasa IV y no encontró diferencias en los resultados. [15]
El ensayo TAAIS comparó las dosis de tenecteplasa en la oclusión de la arteria cerebral media (ACM) confirmada mediante tomografía computarizada (TC). El ensayo concluyó que se obtuvieron tasas de recanalización más altas y una mejoría neurológica mayor, como lo demuestra una mejora en la Escala de ictus de los Institutos Nacionales de Salud (NIHSS) en la cohorte de 0,25 mg/kg. [16] Además, este grupo de dosis demostró una mejor puntuación en la Escala de Rankin modificada (mRS) de 0 o 1 en el seguimiento de 90 días. La eficacia del grupo de dosis de 0,25 mg/kg está respaldada además por un metanálisis de 5 ensayos controlados aleatorizados, que encontró una mayor eficacia y una menor tasa de hemorragia intracraneal sintomática (sICH) con la dosis de 0,25 mg/kg en comparación con las dosis de 0,1 mg/kg y 0,4 mg/kg. [17] [18]
El ensayo AcT publicado más recientemente en Canadá es un ensayo abierto, aleatorizado y de gran escala que compara 0,25 mg/kg de tenecteplasa y alteplasa. Este ensayo demostró la no inferioridad de la tenecteplasa frente a la alteplasa. [19]
De todos los datos disponibles sobre la tenecteplasa en el ictus isquémico agudo, se puede concluir que ningún ensayo de fase 3 con resultados positivos claros muestra su superioridad sobre la alteplasa. La dosis de 0,4 mg/kg de tenecteplasa no mostró ninguna ventaja sobre la dosis de 0,25 mg/kg. Dada su vida media más larga, de modo que puede administrarse en una dosis única en bolo, y su menor coste, la tenecteplasa está ganando cada vez más aceptación en la mayoría de los centros de ictus de los EE. UU. frente a la alteplasa.
Las pautas de 2019 de la Asociación Estadounidense del Corazón/Asociación Estadounidense de Accidentes Cerebrovasculares (AHA/ASA) brindan las recomendaciones más actualizadas para el uso de tenecteplasa en el ictus isquémico agudo. [20] Las pautas de la AHA/ASA incluyen tenecteplasa en dosis de 0,25 mg/kg y 0,40 mg/kg como terapia alternativa (recomendación de clase IIB). La pauta indicó que podría ser razonable elegir tenecteplasa (un bolo intravenoso único de 0,25 mg/kg, máximo 25 mg) en lugar de alteplasa intravenosa en pacientes sin contraindicaciones para el fibrinolítico intravenoso que también sean elegibles para someterse a una trombectomía mecánica. No se ha demostrado que la tenecteplasa administrada como un bolo intravenoso único de 0,4 mg/kg sea superior o no inferior a la alteplasa, pero podría considerarse como una alternativa a la alteplasa en pacientes con deterioro neurológico menor y sin oclusión intracraneal importante.
Embolia pulmonar
Aunque la tenecteplasa no está aprobada por la FDA para su uso en la embolia pulmonar (EP), varios estudios han evaluado su eficacia y seguridad en el uso para la EP aguda. [21] [22] La tenecteplasa puede considerarse para la EP de alto riesgo o masiva. La EP de alto riesgo o masiva se define por hipotensión sostenida o shock cardiogénico y se administra en la misma dosis que el infarto agudo de miocardio.
El estudio PEITHO y su evaluación de resultados a largo plazo representaron el ensayo más grande que evaluó el uso de trombolíticos en el contexto de EP aguda. El estudio mostró que la tenecteplasa puede mejorar la hemodinámica en pacientes con EP y evidencia de tensión en el corazón derecho, pero con un mayor riesgo de hemorragia intracraneal en comparación con placebo (6,3 % frente a 1,2 %). [23] Además, no se observaron diferencias en la función a largo plazo con tenecteplasa. Hasta la fecha, ningún estudio ha comparado directamente la eficacia y seguridad de la tenecteplasa con otros trombolíticos en la EP aguda.
Efectos adversos
Los efectos adversos de la tenecteplasa, incluidos sangrado, anafilaxia, tromboembolia y arritmia, son similares a los de otros trombolíticos.
El sangrado es la complicación más frecuente del uso de tenecteplasa y trombolíticos. El sangrado puede ocurrir en cualquier parte del cuerpo, así como en los sitios de punción y quirúrgicos. La hemorragia intracraneal plantea la preocupación más importante por el aumento de la mortalidad. La incidencia de hemorragia intracraneal sintomática en pacientes que reciben tenecteplasa (2,9%) es comparable a la de los pacientes que reciben alteplasa (2,7%), otro agente trombolítico. [24] El riesgo de sangrado con tenecteplasa aumenta con el uso concomitante de anticoagulantes y agentes antiplaquetarios.
Se han descrito eventos tromboembólicos y embolización de colesterol con el uso de trombolíticos, incluida la tenecteplasa. Además, se han asociado arritmias cardíacas con el uso de trombolíticos en STEMI como un caso de reperfusión tisular.
En el estudio ASSENT-4, se observaron mayores incidencias de mortalidad, shock cardiogénico, insuficiencia cardíaca congestiva e infarto de miocardio recurrente que requirió revascularización repetida en la cohorte que recibió tenecteplasa con PCI en comparación con PCI sola. [10] En estos casos de STEMI grande, se recomienda a los médicos elegir trombólisis o PCI como estrategia de reperfusión primaria.
Contraindicaciones
La tenecteplasa está contraindicada en varias afecciones. [25] Estas incluyen las siguientes:
Hemorragia interna activa
Hipertensión grave no controlada
Historia de accidente cerebrovascular
Historia de aneurisma o malformación arteriovenosa
Historia de neoplasia intracraneal
Cirugía intracraneal o intraespinal en los últimos 2 meses
Traumatismo craneoencefálico o espinal en los 2 meses anteriores
Condiciones que aumentan el riesgo de sangrado
La tenecteplasa es un fármaco clasificado en la categoría C de la FDA para el embarazo. No hay estudios bien controlados que evalúen el riesgo de resultados adversos para la madre o el feto con la tenecteplasa. Se desconoce si la tenecteplasa se excreta en la leche materna. El embarazo es una contraindicación relativa para la tenecteplasa y solo debe administrarse después de considerar cuidadosamente los riesgos y beneficios para la paciente y el feto. [26]
Las interacciones farmacológicas significativas que contraindican el uso de tenecteplasa incluyen defibrotida y mifepristona. El uso simultáneo de tenecteplasa con defibrotida puede aumentar el riesgo de sangrado debido a efectos aditivos y anticoagulación duplicada. La mifepristona y la tenecteplasa están contraindicadas cuando se utiliza mifepristona para la interrupción del embarazo; la combinación puede aumentar el riesgo de sangrado vaginal severo o prolongado debido a efectos aditivos.
Escucha
Los pacientes que reciben tenecteplasa requieren monitoreo neurológico y cardiovascular de rutina para evaluar sangrado y reacciones de hipersensibilidad. [24]
Se deben evitar las manipulaciones y punciones no esenciales durante las primeras horas posteriores a la administración de tenecteplasa. Si no se puede evitar una punción arterial, el sitio preferido es un vaso sanguíneo de la extremidad superior que se pueda comprimir fácilmente. Se debe aplicar presión directa durante 30 minutos después de la venopunción.
Se debe realizar un examen neurológico en forma seriada para evaluar el deterioro del estado mental o cualquier déficit neurológico focal nuevo, que pueda sugerir un episodio hemorrágico. Se debe realizar una TC cerebral urgente si hay algún signo de deterioro neurológico. Si el paciente también está recibiendo anticoagulación concomitante, como heparina, se debe suspender el agente y administrar el agente de reversión adecuado. También se deben controlar otros sitios de sangrado, como sitios de punción o quirúrgicos y hematomas.
Se deben evaluar con frecuencia los signos vitales para detectar fiebre, hipotensión y taquicardia. También se debe realizar de manera rutinaria la evaluación de los signos clínicos de anafilaxia, incluidos angioedema, exantema y dificultad respiratoria. Se debe disponer de medicación de apoyo, como antihistamínicos y epinefrina intramuscular.
Debido al riesgo de arritmia cardíaca con tenecteplasa, es necesario realizar un seguimiento cardíaco. Además, durante la administración de tenecteplasa debe estar disponible un tratamiento antiarrítmico para la bradicardia y la inestabilidad ventricular.
Tenecteplasa en ACV.
Los agentes trombolíticos, incluida la tenecteplasa, se utilizan generalmente dentro de las 4,5 horas posteriores al inicio de los síntomas del accidente cerebrovascular. La información sobre si la tenecteplasa confiere beneficios más allá de las 4,5 horas es limitada. A pesar de los avances en la trombólisis intravenosa y la trombectomía mecánica para los accidentes cerebrovasculares isquémicos agudos, muchos pacientes no reúnen los requisitos para estos tratamientos que restablecen el flujo sanguíneo cerebral y reducen el daño isquémico. La alteplasa y la tenecteplasa intravenosas ahora se han establecido como tratamientos para el accidente cerebrovascular cuando se administran hasta 4,5 horas después del momento en que se supo por última vez que el paciente estaba bien. 1,2 La tenecteplasa es una variante genéticamente modificada de la alteplasa que tiene una mayor especificidad para la fibrina y una vida media más larga. Debido a que los estudios sugieren que la tenecteplasa es tan segura y eficaz como la alteplasa y se puede administrar rápidamente en lugar de requerir una infusión.
La tenecteplasa es un activador del plasminógeno específico para la fibrina producido mediante la técnica del ADN recombinante, utilizando una línea celular ovárica de hámster chino.
Métodos
Realizamos un ensayo multicéntrico, doble ciego, aleatorizado y controlado con placebo en pacientes con accidente cerebrovascular isquémico para comparar la tenecteplasa (0,25 mg por kilogramo de peso corporal, hasta 25 mg) con placebo administrado de 4,5 a 24 horas después del momento en que se supo por última vez que el paciente estaba bien. Los pacientes debían tener evidencia de oclusión de la arteria cerebral media o la arteria carótida interna y tejido recuperable según lo determinado en imágenes de perfusión. El resultado primario fue la puntuación ordinal en la escala de Rankin modificada (rango, 0 a 6, con puntuaciones más altas indicando mayor discapacidad y una puntuación de 6 indicando muerte) en el día 90. Los resultados de seguridad incluyeron muerte y hemorragia intracraneal sintomática.
En el ensayo participaron 458 pacientes, de los cuales el 77,3% se sometió posteriormente a una trombectomía; 228 pacientes fueron asignados a recibir tenecteplasa y 230 a recibir placebo. El tiempo medio entre el momento en que se supo por última vez que el paciente estaba bien y la aleatorización fue de aproximadamente 12 horas en el grupo de tenecteplasa y aproximadamente 13 horas en el grupo placebo. La puntuación media en la escala de Rankin modificada a los 90 días fue de 3 en cada grupo. La razón de probabilidades común ajustada para la distribución de las puntuaciones en la escala de Rankin modificada a los 90 días para tenecteplasa en comparación con placebo fue de 1,13 (intervalo de confianza del 95%, 0,82 a 1,57; P = 0,45). En la población de seguridad, la mortalidad a los 90 días fue del 19,7% en el grupo de tenecteplasa y del 18,2% en el grupo placebo, y la incidencia de hemorragia intracraneal sintomática fue del 3,2% y del 2,3%, respectivamente.
Conclusiones
El tratamiento con tenecteplasa que se inició entre 4,5 y 24 horas después del inicio del accidente cerebrovascular en pacientes con oclusiones de la arteria cerebral media o de la arteria carótida interna, la mayoría de los cuales se habían sometido a una trombectomía endovascular, no produjo mejores resultados clínicos que aquellos que recibieron placebo. La incidencia de hemorragia intracerebral sintomática fue similar en los dos grupos. (Financiado por Genentech; número de TIMELESS ClinicalTrials.gov,
Este artículo recientemente publicado en el New England, ofrece una forma de actuar en salud pública para evitar la propagación de una enfermedad mortal como el ébola, con la vacunación a contactos y contactos de los contactos, con lo cual se logra mitigar el impacto, desde los diez días de realizada la vacunación. Si como lo leen. Cuando estudiábamos originalmente la respuesta inmunitaria esta se producía a los catorce días. Ganar este tiempo para enfermedades como esta pueden ser muchas muertes evitadas. Además de la estrategia de vacunación.
Al comienzo del brote de enfermedad por el virus del Ébola (EVE) de 2018-2020 en el este de la República Democrática del Congo (RDC), no se había autorizado ninguna vacuna. Sin embargo, la evidencia aleatorizada por conglomerados de Guinea en 2015 había indicado que la vacunación en anillo alrededor de los nuevos casos (dirigida a los contactos y contactos de contactos) con el uso de la vacuna viva de replicación rVSV-ZEBOV-GP de dosis única reducía las tasas de EVE a partir de los 10 días posteriores a la vacunación. Por lo tanto, la vacunación en anillo se agregó a las medidas de control estándar para ese brote.
Métodos
En este estudio, evaluamos la incidencia de la EVE en los primeros 9 días posteriores a la vacunación (cuando se esperaba poca protección del aislamiento de casos o la vacunación en anillo), durante los días 10 a 29 y en períodos posteriores. Establecimos 1853 anillos alrededor de nuevos casos o grupos dentro de los 21 días posteriores a la aparición de los síntomas en el caso índice y ofrecimos la vacunación a los miembros del anillo. Se hizo un seguimiento de la aparición de la EVE en los vacunados hasta el final del brote a mediados de 2020.
Resultados
Del 8 de agosto de 2018 al 14 de enero de 2020, vacunamos a 265.183 participantes. De estos vacunados, 102.515 fueron monitoreados los días 0, 3 y 21 por seguridad. Entre los contactos y contactos de contactos, se diagnosticaron 434 casos de EVE (0,2 por anillo), casi todos entre 0 y 9 días (380 casos) o entre 10 y 29 días (32 casos) después de la vacunación. Se diagnosticaron 22 casos adicionales después del día 29 durante un promedio de 170 días más de seguimiento. Cuanto antes se iniciaran las medidas de control (incluida la vacunación en anillo) después de la aparición de EVE en el caso índice, antes se reducirían las tasas de EVE entre los contactos. En cada subgrupo, las tasas de EVE cayeron repentinamente alrededor del día 10. Entre los contactos y los contactos de contactos que todavía estaban libres de enfermedad el día 10, la tasa de aparición de EVE durante los días 10 a 29 fue de 0,16 por 1000 (en 32 de 194.019 participantes). Esta tasa fue mucho menor que la tasa de 4,64 por 1000 (en 21 de 4528 participantes) que se había observado entre los miembros del anillo definidos de manera similar en Guinea, en quienes se habían iniciado rápidamente las medidas de control estándar pero la vacunación se retrasó hasta 21 días después de la formación del anillo (cociente de tasas, 0,04; intervalo de confianza del 95%, 0,02 a 0,06). No se identificaron problemas de seguridad con la vacuna.
A pesar de un seguimiento minucioso de casi 200.000 contactos o contactos de contactos en la República Democrática del Congo, desde aproximadamente el día 10 después de la intervención con la vacunación en anillo y otras medidas de protección, se identificaron pocos casos adicionales de aparición de EVE entre los vacunados. Además, cuanto antes se aplicaron estas intervenciones después de la aparición de la EVE en el caso índice, antes disminuyó la incidencia de la EVE en los contactos. La asociación entre el momento de la disminución de la incidencia de la EVE entre los contactos de los participantes que recibieron el paquete de intervención proporciona evidencia de que este conjunto de intervenciones fue protector, pero no separa los efectos protectores de la vacunación de los de otras medidas. La evidencia de que la vacunación en anillo con rVSV-ZEBOV-GP mejora el efecto protector de las otras medidas se proporciona mediante la comparación de los vacunados en los anillos del este de la República Democrática del Congo con los miembros de los anillos de control en el ensayo aleatorizado por grupos de Guinea de 2015, en el que la vacunación se había pospuesto durante 21 días, pero los procedimientos para la formación del anillo y las medidas distintas de la vacunación habían sido similares a los utilizados en la República Democrática del Congo. Además, los síntomas en el tercer día de seguimiento que eran compatibles con una infección sistémica por vacuna se asociaron con una incidencia posterior ligeramente menor de EVE.La eficacia de la vacuna puede ser más fuerte contra la EVE mortal que contra la EVE no mortal, como se informó en un análisis de cohorte retrospectivo de pacientes que fueron hospitalizados durante el brote de 2018-2020 en el que los vacunados tuvieron una tasa de letalidad más baja que los no vacunados. 11 Los registros de vacunación más detallados en nuestro estudio actual proporcionan evidencia confirmatoria de una tasa de letalidad más baja entre los vacunados que entre los no vacunados y muestran una tasa de letalidad que es incluso más baja para los casos de EVE que se diagnosticaron 10 días o más después de la vacunación. En un ensayo controlado aleatorizado de terapias para la EVE entre pacientes hospitalizados, los investigadores encontraron que la tasa de letalidad podría reducirse con el uso apropiado de anticuerpos monoclonales. 12 Esos hallazgos aumentan la plausibilidad de que la vacunación no solo protegió contra la aparición de la EVE, sino que también redujo la tasa de letalidad. Durante todo el estudio se vacunó a niños y en la última parte del mismo se incluyeron bebés mayores de 6 meses, mujeres en período de lactancia y mujeres en el segundo o tercer trimestre del embarazo. Aunque nuestro estudio no incluyó un grupo de comparación controlado con placebo, no se observaron efectos secundarios graves. La vacuna rVSV-ZEBOV-GP que se utilizó en este brote ha sido precalificada por la OMS y aprobada para su uso en la Unión Europea, los Estados Unidos y varios países africanos.
La necesidad clave en un brote es la identificación rápida y confiable de los casos y la vacunación de los contactos. Los resultados de nuestro análisis de los anillos de contagio sugieren que la vacunación de los contactos de los contactos de los casos (aunque útil si las circunstancias operativas lo permiten) sería menos importante que centrarse en los contactos inmediatos. Además, la sorprendente diferencia en las tasas de aparición de la EVE entre los clasificados como contactos y los clasificados como contactos de contactos muestra que la identificación confiable de los contactos fue posible incluso en las difíciles condiciones de campo encontradas en el este de la República Democrática del Congo. Entre los vacunados, los trabajadores de la salud y los trabajadores de primera línea que no eran contactos ni contactos de contactos tenían un riesgo a corto plazo aún menor que los contactos de contactos y tendrían un riesgo a largo plazo aún menor en un brote que se hubiera controlado más rápidamente que los brotes de África occidental o el este de la República Democrática del Congo. Los contactos de tercer nivel que fueron vacunados tenían un riesgo muy bajo.
La integración de la investigación en la respuesta al brote de la República Democrática del Congo de 2018-2020 identificó tratamientos efectivos para pacientes hospitalizados y ha facilitado una mayor evaluación de la seguridad y eficacia de las vacunas, al tiempo que ayudó a controlar la transmisión de la enfermedad.
Este estudio ha demostrado la viabilidad de implementar la vacunación en anillo en un contexto de brote en combinación con las medidas tradicionales de control del ébola. La vacunación en anillo es eficaz, eficiente desde el punto de vista operativo y ahorra dosis en comparación con la vacunación de la población, y es factible para los equipos que operan en contextos inseguros.
Enhanced Recovery After Surgery Guidelines and Hospital Length of Stay, Readmission, Complications, and Mortality A Meta-Analysisof Randomized Clinical Trials
Pregunta: ¿La adopción de pautas de recuperación mejorada después de la cirugía (ERAS) reduce la duración de la hospitalización, los reingresos hospitalarios, las complicaciones y la mortalidad?
Resultados En este metanálisis de 74 ensayos clínicos aleatorizados con 9076 participantes, las pautas ERAS se asociaron con una disminución de la duración de la hospitalización y de las complicaciones. El tipo de cirugía y el número de elementos ERAS se asociaron con estimaciones de la duración de la hospitalización.
Significado Estos hallazgos sugieren que las directrices ERAS se asociaron con una disminución de la duración de la hospitalización y de las complicaciones; las investigaciones futuras deberían centrarse en mejorar la implementación y el cumplimiento de las directrices ERAS para mejorar los resultados de los pacientes.Abstracto
Importancia No se ha completado una revisión exhaustiva de la evidencia que explora los resultados de las pautas de recuperación mejorada después de la cirugía (ERAS).
Objetivo Evaluar si las directrices ERAS están asociadas con una mejor duración de la estancia hospitalaria, readmisión hospitalaria, complicaciones y mortalidad en comparación con la atención quirúrgica habitual, y comprender las diferencias en las estimaciones basadas en el estudio y los factores del paciente.
Se realizaron búsquedas en fuentes de datos MEDLINE, Embase, Cumulative Index to Nursing and Allied Health Literature y Cochrane Central desde el inicio hasta junio de 2021.
Selección de estudios Los títulos, resúmenes y artículos de texto completo fueron examinados por dos revisores independientes. Los estudios elegibles fueron ensayos clínicos aleatorizados que examinaron la cirugía guiada por ERAS en comparación con un grupo de control e informaron sobre al menos uno de los resultados.
Extracción y síntesis de datos Los datos se resumieron por duplicado utilizando un formulario de abstracción de datos estandarizado. El estudio siguió los elementos de informe preferidos para revisiones sistemáticas y metanálisis. El riesgo de sesgo se evaluó por duplicado utilizando la herramienta Cochrane Risk of Bias. Se utilizó un metanálisis de efectos aleatorios para agrupar las estimaciones de cada resultado, y la metarregresión identificó las fuentes de heterogeneidad dentro de cada resultado.
Resultados y medidas principales Los resultados primarios fueron la duración de la estadía hospitalaria, el reingreso hospitalario dentro de los 30 días posteriores al alta índice, las complicaciones posoperatorias a los 30 días y la mortalidad posoperatoria a los 30 días.
Resultados De las 12 047 referencias identificadas, se examinaron 1493 textos completos para determinar su elegibilidad, 495 se incluyeron en la revisión sistemática y 74 ECA con 9076 participantes se incluyeron en el metanálisis. Los estudios incluidos presentaron datos de 21 países y 9 procedimientos quirúrgicos guiados por ERAS, de los cuales 15 (20,3 %) tuvieron un bajo riesgo de sesgo. La puntuación media (DE) de la lista de verificación de Informes sobre cumplimiento, resultados y elementos de investigación de ERAS fue de 13,5 (2,3). La duración de la estancia hospitalaria disminuyó en 1,88 días (IC del 95 %, 0,95-2,81 días; I 2 = 86,5 %; P < 0,001) y el riesgo de complicaciones disminuyó (riesgo relativo, 0,71; IC del 95 %, 0,59-0,87; I 2 = 78,6 %; P < 0,001) en el grupo ERAS. El riesgo de readmisión y mortalidad no fueron significativos.
Conclusiones y relevancia En este metanálisis, las directrices ERAS se asociaron con una disminución de la duración de la hospitalización y de las complicaciones. Los estudios futuros deberían apuntar a mejorar la implementación de las directrices ERAS y aumentar el alcance de las directrices.
Introducción
A nivel mundial, más de 313 millones de personas se someten a cirugía para salvar o prolongar la vida cada año y esa cifra está aumentando. 1 , 2 Si bien la cirugía es esencial para mantener la salud y la calidad de vida, consume importantes recursos de atención médica y no está exenta de complicaciones. La duración media de la estancia hospitalaria para la cirugía es de 5 días, lo que equivale a más de 7,5 millones de días-paciente cada año a un costo de al menos $1200 por día. 1La duración de la estancia hospitalaria aumenta para los pacientes sometidos a cirugía que experimentan complicaciones posoperatorias. 3 – 10 Más de un tercio de los pacientes sometidos a cirugía experimentan complicaciones, 11 – 13 colocando a estos pacientes en mayor riesgo de complicaciones que los pacientes que no se someten a cirugía. 3 – 5 , 14 , 15 Los pacientes que experimentan complicaciones también tienen más probabilidades de requerir intervenciones adicionales, ser readmitidos en el hospital y morir, todo lo cual se asocia con un aumento de los costos. 10 , 16 – 18Se estima que el 50% de las complicaciones son prevenibles, lo que brinda una oportunidad de utilizar estrategias basadas en evidencia para mejorar los resultados para los pacientes y los sistemas de atención de salud. 3 , 4 , 8 – 11 , 13 , 14 Además, mejorar los resultados quirúrgicos y reducir los recursos de atención de salud puede aumentar la capacidad de los pacientes para acceder a la atención quirúrgica. 8 , 9
A medida que la necesidad de cirugía continúa excediendo la capacidad de atención médica, se necesitan estrategias para garantizar que la atención sea efectiva, eficiente y segura. Una opción es implementar las pautas de recuperación mejorada después de la cirugía (ERAS). Actualmente, existen pautas ERAS para 23 tipos de cirugía 19 y programas de implementación activos en más de 20 tipos de cirugía. 20 Las pautas ERAS brindan recomendaciones para la atención perioperatoria y se ha descubierto que reducen las complicaciones, 21 la duración de la estadía hospitalaria 22 y el costo. 23 , 24 Varias revisiones sistemáticas específicas de cirugía han encontrado efectos positivos o mixtos en los resultados después de adoptar las pautas ERAS. 25 – 31 Sin embargo, no se ha realizado una revisión integral de la eficacia de ERAS en áreas quirúrgicas y dentro de poblaciones heterogéneas. Hasta donde sabemos, no hay revisiones sistemáticas que examinen estos resultados en toda la amplitud de los procedimientos quirúrgicos guiados por ERAS o que comparen los resultados por tipo de cirugía, lo que podría proporcionar una mejor comprensión de la eficacia de ERAS. El objetivo de este estudio es sintetizar la evidencia sobre la eficacia de ERAS y determinar si la adopción de las directrices ERAS mejora la duración de la estancia hospitalaria, la readmisión hospitalaria, la mortalidad y las complicaciones posoperatorias en comparación con la atención quirúrgica habitual.
Métodos
Esta revisión sistemática y metanálisis se informa utilizando la guía de informes de Elementos de informe preferidos para revisiones sistemáticas y metanálisis ( PRISMA ). 32 El protocolo se registró en el registro PROSPERO de revisiones sistemáticas ( CRD42021255973 ).Estrategia de búsqueda
La estrategia de búsqueda combinó vocabulario controlado y palabras clave para la población ( pacientes sometidos a cirugía ), la intervención ( ERAS , fast track , enhancement recovery ) y los resultados ( duración de la estancia hospitalaria , reingreso hospitalario , complicaciones , mortalidad ) y se ejecutó en MEDLINE, Embase, Cumulative Index to Nursing and Allied Health Literature y Cochrane Central Register of Controlled Trials el 18 de junio de 2021 (eAppendix 1 en Supplement 1 ). La estrategia de búsqueda no estuvo limitada por la fecha de publicación o el idioma.Criterios de elegibilidad
Se incluyeron los estudios que informaban al menos uno de los resultados entre pacientes adultos sometidos a cirugía antes y después de la implementación de las pautas ERAS. Los estudios que implementaron las pautas ERAS, incluidas las pautas basadas en ERAS (por ejemplo, ERAS, vía rápida, protocolo de recuperación mejorada), se incluyeron si los protocolos contenían elementos basados en ERAS. Cualquier diseño de estudio que comparara la intervención (pautas ERAS) y el grupo de comparación (atención habitual) se incluyó en la revisión sistemática general, pero solo los ensayos clínicos aleatorizados se incluyeron en el metanálisis.
Se excluyeron los estudios con pacientes pediátricos únicamente o aquellos que no estratificaron las estimaciones por adultos y niños. Se excluyeron los estudios que no proporcionaron estimaciones o datos suficientes para calcular las estimaciones. Se excluyeron las actas o resúmenes de congresos, revisiones, guías y comentarios. Se excluyeron los estudios con menos de 50 pacientes en total debido al alto riesgo de sesgo en estos estudios. Se incluyeron estudios publicados en cualquier idioma; sin embargo, se excluyó si no pudimos traducir el artículo. Para los estudios con múltiples manuscritos, se incluyó el manuscrito con el conjunto de datos más completo y se excluyeron los demás (datos duplicados).Selección de estudios
Covidence se utilizó para gestionar la selección de estudios. 33 En cada etapa de la selección, todos los revisores examinaron una muestra de títulos y resúmenes (n = 5) y textos completos (n = 10) para garantizar la coherencia entre los revisores y se revisaron estudios adicionales juntos hasta que se logró un κ de 0,8. Los títulos, resúmenes y textos completos fueron examinados para determinar su elegibilidad por 2 revisores independientes. Durante la selección de títulos y resúmenes, se incluyeron las referencias incluidas por al menos 1 revisor para la selección de texto completo para disminuir el riesgo de excluir estudios incorrectamente. Los desacuerdos entre revisores se resolvieron mediante discusión o consulta con un tercer revisor.Proceso de recopilación de datos
Se utilizó una base de datos estandarizada (Microsoft Excel) para resumir los datos de los estudios incluidos. La base de datos de abstracción de datos se probó de forma piloto en dos estudios. Antes de la abstracción completa de los datos, todos los revisores recibieron capacitación completando la abstracción de datos para los mismos cinco estudios; la capacitación continuó hasta que se alcanzó un κ de 0,8. Los datos fueron resumidos por un solo revisor y el 65 % de los datos fueron verificados dos veces por un revisor independiente. El diccionario de datos para el formulario de abstracción de datos estandarizado está disponible en el Apéndice electrónico 2 del Suplemento 1 .Variables
Las variables de resultado primarias fueron la duración de la hospitalización, la readmisión dentro de los 30 días posteriores al alta hospitalaria de referencia, las complicaciones posoperatorias dentro de los 30 días posteriores a la cirugía y la mortalidad dentro de los 30 días posteriores a la cirugía. Si bien las variables de resultado primarias se limitaron a los 30 días posteriores a la cirugía o la hospitalización de referencia, los datos de otros períodos de tiempo se resumieron como resultados secundarios.
Los datos adicionales extraídos de los estudios incluyeron información bibliográfica, características del estudio, datos de los pacientes, tipo de protocolo evaluado (ERAS, recuperación mejorada, vía rápida, otros), número de elementos ERAS incluidos en el protocolo (recuento) incluso si no se informó el cumplimiento de cada elemento y datos sobre el cumplimiento. Se incluye una lista completa de los datos extraídos en el diccionario de datos (apéndice electrónico 2 en el suplemento 1 ).Riesgo de sesgo en estudios individuales
El riesgo de sesgo de los estudios individuales se evaluó mediante la herramienta Cochrane de riesgo de sesgo (versión 2), 34 por 2 revisores independientes con formación de posgrado en epidemiología. Cualquier desacuerdo entre los revisores se resolvió mediante discusión. La lista de verificación de informes sobre cumplimiento, resultados e investigación de elementos de ERAS (RECOvER) evaluó la integridad de los informes. 35Análisis de datos
Las características del estudio se describieron utilizando estadísticas descriptivas según fuera apropiado. Se utilizó un metanálisis de efectos aleatorios para agrupar las estimaciones para cada variable de resultado (paquete metan). 36 , 37 El I 2 cuantificó la magnitud de la heterogeneidad entre estudios, y la estadística Q de Cochrane determinó la significancia de la heterogeneidad. Se calcularon los cocientes de riesgos (RR) para los datos informados como proporciones (es decir, mortalidad, complicaciones y readmisión), y se calcularon las diferencias de medias para los datos informados como medias (es decir, duración de la estancia hospitalaria). Las estimaciones informadas como mediana (RIC) se convirtieron a media (DE) utilizando el método Wan 38 y se agruparon.
La metarregresión exploró las posibles fuentes de heterogeneidad para cada resultado. Las posibles fuentes de heterogeneidad incluyeron la edad y el sexo del paciente, el año(s) de recopilación de datos, el tipo de cirugía, la cantidad de elementos ERAS incluidos en el protocolo, el tipo de protocolo (por ejemplo, ERAS, protocolo de recuperación mejorada, vía rápida u otro) y las puntuaciones RECOvER. El sesgo de publicación se evaluó mediante la inspección visual de un gráfico de embudo y estadísticamente utilizando el método de regresión lineal de Egger. Todos los análisis se realizaron en Stata 20.0 (StataCorp). 36 , 37 Los datos se analizaron desde septiembre de 2023 hasta febrero de 2024. Las pruebas estadísticas fueron bilaterales y la significancia se estableció en P < .05.Resultados
La estrategia de búsqueda arrojó 12 047 referencias únicas, de las cuales 1493 fueron revisadas en texto completo, 495 se incluyeron en la revisión sistemática general (eFigure en Suplemento 1 ) y 74 RCTs 39 – 112 se incluyeron en el metanálisis. Las características de cada estudio individual se incluyen en eTable 1 en Suplemento 1. Los estudios incluidos representan 9076 pacientes con 4577 pacientes en el grupo de control (no ERAS) y 4375 pacientes en el grupo ERAS. En los 54 estudios que incluyeron la edad, la edad media (DE) fue de 50,0 (12,6) años para los pacientes del grupo de control y 49,2 (12,6) años entre los pacientes del grupo ERAS. 39 , 41 – 47 , 49 – 54 , 56 , 57 , 59 , 62 – 68 , 70 , 73 , 76 , 79 , 81 – 84 , 86 , 88 , 89 , 91 , 93 – 106 , 108 – 111
Características del estudio
El año de publicación promedio (rango) fue 2019 (2009-2021). La mayoría de los estudios se realizaron en países de ingresos altos y de ingresos medios altos (57 [80,3%]); 22 (29,7%) se publicaron en China, 40, 46, 55, 56, 67-72 , 75 , 82 , 85-87 , 103 , 107-109 , 112 , 113 , 8 ( 10,8 % ) en India , 44 , 45 , 60 , 76 , 84 , 91 , 97 , 100 , 5 ( 6,8 % ) en EE. UU . 47 , 49 , 66 , 99 , 104
La mayoría de los 74 estudios examinaron los resultados de ERAS en pacientes sometidos a cirugía gastrointestinal (32 [43,2%]) 39 , 40 , 45 , 47 , 50 , 51 , 53 , 54 , 56 , 58-60 , 73 , 74 , 77 , 79 , 80 , 83 , 87 , 9298 , 100 , 102 , 103 , 105 , 112 , 114 y procedimientos quirúrgicos ginecológicos (11 [14,9%]), 41 , 43 , 49 , 52 , 65 , 89 , 90 , 110 , 111 , 115 con solo 1 (1,4%) en cirugía cardíaca . cirugía, 68 y 2 (2,7%) en urología. 44 , 106 La mayoría de los 74 estudios evaluaron los resultados de las directrices ERAS (37 [50,0%]), 39 – 46 , 48 , 52 – 54 , 57 , 68 – 71 , 73 , 75 , 78 , 82 , 87 – 91 , 98 – 101 , 104 – 108 , 110 , 111 mientras que 23 (31,1%) evaluaron protocolos de recuperación mejorada, 47 , 49 , 55 , 56 , 58 , 61 – 66 , 76 , 77 , 79 – 81 , 83 – 85 , 95 – 97 , 102 13 (17,6%) evaluaron protocolos de vía rápida, 50 , 51 , 59 , 60 , 72 , 74 , 86 , 92 – 94 , 103 , 109 , 112 , 116y 1 (1,4%) evaluó otros tipos de protocolos o vías basadas en los principios ERAS. 67 El número medio (DE) de elementos ERAS incluidos en las intervenciones (ERAS, protocolos mejorados, vía rápida, otros) fue de 11,1 (3,0) elementos de un posible total de 16. Comúnmente se incluyeron la movilización temprana (71 [96,0%]), el manejo de la analgesia posoperatoria (64 [86,5%]), la dieta posoperatoria y el manejo intestinal (63 [85,1%]) y el manejo del drenaje y el tubo (63 [85,1%]) ( Figura 1 ). Los protocolos clasificados como ERAS incluyeron más elementos que los clasificados como vía rápida, pero no fueron diferentes de los protocolos de recuperación mejorada ( F 1,493 = 9,58; P = .002). El número medio (DE) de elementos entre los estudios de ERAS fue de 11,8 (2,8), en comparación con 8,9 (2,3) en los protocolos de vía rápida, 10,6 (3,7) en los protocolos de recuperación mejorada y 11,4 (3,2) elementos con otros tipos de protocolos. El cumplimiento de los protocolos ERAS se informó en 17 (20,3%) estudios 49 , 52 , 53 , 56 , 59 , 67 , 69 , 70 , 77 , 80 , 88 – 90 , 99 , 101 , 106 , 107 pero se informó de forma inconsistente y no se pudo agrupar; el cumplimiento medio (DE) informado fue del 74,7% (10,2%) de los 9 estudios de los que pudimos sintetizar los datos. 49 , 52 , 67 , 80 , 89 , 90 , 99 , 101 , 106Metaanálisis por resultadosDuración de la estancia
De los 74 estudios incluidos, 44 estudios (62,2%) informaron una estimación general mediana o media de la duración de la estancia hospitalaria. 39 , 40 , 42 , 44 , 45 , 47 – 50 , 52 , 53 , 55 , 58 , 60 , 61 , 65 , 66 , 71 , 73 , 74 , 78 , 79 , 82 , 84 , 85 , 88 – 91 , 95 , 97 , 98 , 101 , 103 , 105 , 107 – 109 , 111 , 113 La duración media agrupada de la estancia hospitalaria fue 1,88 días (IC del 95 %, 0,95-2,81 días; I 2 = 86,5 %; P < 0,001) más corta en los grupos ERAS en comparación con los grupos de control. El ERAS también redujo la duración de la estancia hospitalaria postoperatoria (22 estudios; diferencia media, 2,83 días; IC del 95 %, 2,10-3,55 días; I 2 = 0 %; P < 0,001) en comparación con los grupos de control. El sesgo de publicación no fue significativo. 40 , 41 , 53 , 54 , 56 , 63 , 64 , 68 , 71 , 72 , 75 , 79 , 82 , 85 , 87 , 94 , 104 , 105 , 107 , 112 , 113 , 117Readmisión hospitalaria
Catorce de 74 estudios (18,9%) informaron una estimación general (no estratificada) de complicaciones con una estimación agrupada de 0,71 (IC del 95%, 0,59-0,87; I 2 = 78,6%; P < .001), 44 , 46 , 53 , 67 – 69 , 79 , 80 , 82 , 86 , 87 , 93 , 95 , 96 a favor de ERAS en comparación con los grupos de control. De los nueve estudios que informaron complicaciones a los 30 días, el RR agrupado fue de 0,73 (IC del 95 %, 0,56-0,94; I 2 = 86,3 %; P < 0,02), 53 , 67 , 79 , 80 , 82 , 87 , 93 , 95 , 96 a favor de ERAS sobre los grupos de control. Hubo evidencia de sesgo de publicación utilizando la prueba de Egger para efectos de estudio pequeños ( t = 2,24; IC del 95 %, 0,14-2,15; P = 0,003); sin embargo, las estimaciones se distribuyeron simétricamente tras la inspección visual del gráfico de embudo.Mortalidad
Hubo 19 de 74 estudios que informaron mortalidad postoperatoria a los 30 días, con un riesgo agrupado de 0,95 (IC del 95 %, 0,48-1,88) sin heterogeneidad entre las estimaciones ( I 2 = 0 %; P = 0,89). 40 , 44 , 50 , 53 , 54 , 57 , 69 , 70 , 77 , 78 , 87 , 89 , 92 , 93 , 95-98 , 107 Debido a que muchos estudios informaron estimaciones de mortalidad 0, se aplicó una corrección de continuidad para calcular los RR. 118 El sesgo de publicación no fue significativo .Fuentes de heterogeneidad determinadas por metarregresión
No hubo diferencias en las estimaciones agrupadas de la duración de la estancia hospitalaria en función de los ingresos del país, la puntuación de la lista de verificación RECOvER, el año de publicación, el número de elementos ERAS incluidos en el protocolo o el riesgo de sesgo. El tipo de cirugía explicó la heterogeneidad en la estimación de la duración de la estancia hospitalaria (coeficiente, 0,32; IC del 95 %, 0,17-0,48; P < 0,001). La estimación agrupada de la diferencia media en la duración de las estancias hospitalarias para los pacientes sometidos a cirugía pancreática, ortopédica y gastrointestinal fue mayor que la de otros procedimientos quirúrgicos ( Figura 2 ). Ninguna de las variables exploradas explicó la varianza en la estimación agrupada de readmisión hospitalaria a los 30 días, complicaciones o mortalidad. Estos hallazgos se pueden encontrar en la Figura 3 y la Figura 4 .Riesgo de sesgo y RECUPERACIÓN
Entre los 74 estudios incluidos, 40 (54,1%) tenían algún riesgo de sesgo, 19 (25,7%) tenían alto riesgo de sesgo y 15 (20,3%) tenían bajo riesgo de sesgo. La falta de datos de resultados se consideró una fuente de bajo riesgo de sesgo en 64 estudios (86,5%), mientras que las desviaciones de la intervención por protocolo se consideraron una fuente de alto riesgo de sesgo en 17 estudios (23,0%) (eTabla 2 en el Suplemento 1 ).
La media (DE) del número de elementos de la lista de verificación RECOvER que se incluyeron en los estudios fue de 13,5 (2,3). Los elementos notificados con más frecuencia incluyeron proporcionar contexto e importancia dentro de los antecedentes (74 [100,0 %]), explicar la importancia del estudio (73 [98,7 %]) e informar sobre el protocolo utilizado (72 [97,3 %]) ( Figura 1 ). Los elementos notificados con menos frecuencia fueron la auditoría de los resultados (10 [13,5 %]), el examen de las asociaciones entre los resultados y otras variables (13 [17,6 %]) y el informe sobre el cumplimiento de las directrices ERAS (20 [27,0 %] ( Figura 1 ).Discusión
Este estudio concluyó que el uso de las pautas ERAS se asoció con una disminución de la duración de la hospitalización y de las complicaciones. La duración de la hospitalización varió según el tipo de cirugía. Se incluyeron muchos estudios, pero aún quedan algunas lagunas en la evidencia. Por ejemplo, hubo escasez de evidencia para algunos procedimientos quirúrgicos (ninguno para cabeza y cuello y mama, y pocos estudios para cardiología), menos estudios informaron sobre la mortalidad y el cumplimiento se informó de manera inconsistente y deficiente.
Si bien las pautas ERAS se establecieron con la publicación de la pauta de la Sociedad ERAS para el cuidado perioperatorio de pacientes sometidos a cirugía de colon, 119 la recuperación mejorada como concepto se basó en protocolos de vía rápida descritos previamente. 120 – 122 En consecuencia, no es sorprendente que muchos estudios incluidos se etiquetaran como de vía rápida y que una gran proporción se centrara en la cirugía gastrointestinal. Sin embargo, este estudio no identificó ninguna diferencia en las estimaciones de la duración de la estancia hospitalaria, la readmisión, las complicaciones o la mortalidad relacionadas con el nombre del protocolo. Si bien el nombre dado al protocolo examinado no explicó la heterogeneidad entre las estimaciones, el número de elementos ERAS incluidos en los protocolos sí lo hizo para la duración de la estancia hospitalaria. Esto sugiere que el número de elementos incluidos en el protocolo es probablemente más importante que la marca del protocolo, que está respaldada por estudios previos. 123 , 124 Es alentador que la mayoría de los estudios informaron los elementos de su protocolo (90%), lo cual es importante para evaluar los resultados de ERAS, 35 pero muy pocos estudios informaron el cumplimiento de cada elemento. Lamentablemente, la mayoría de los estudios incluyeron menos del 70% (11) de los elementos tradicionales del ERAS. Si bien la cantidad de elementos del ERAS incluidos en el protocolo es importante, no fue posible evaluar qué elementos son los más importantes para los resultados del ERAS. Los estudios futuros deberían centrarse en evaluar los resultados relativos de cada elemento del ERAS para comprender los elementos básicos necesarios para lograr los beneficios del ERAS. Esto simplificará el ERAS y promoverá su adopción en entornos de menores recursos. 125 , 126
Al igual que con otras directrices, los resultados de ERAS dependen de la adopción de las directrices ERAS. 127 – 129 De hecho, se ha demostrado que un mayor cumplimiento de ERAS mejora los resultados. 129 – 131 Dado que solo alrededor del 20% de los estudios incluidos informaron el cumplimiento de ERAS, y los informes de estas estimaciones fueron demasiado heterogéneos para incluirlos en el análisis, es probable que el cumplimiento medio fuera inferior al 75% y que nuestros hallazgos subestimen los resultados de ERAS. Si el cumplimiento es importante para los resultados de ERAS, ¿cómo se puede mejorar el cumplimiento? Se han esbozado estrategias para implementar ERAS, con un enfoque en la formación de equipos y la auditoría del cumplimiento y la retroalimentación. 126 , 132 Estas estrategias están alineadas con los principios de la ciencia de la implementación y las estrategias basadas en la evidencia para la implementación efectiva de las directrices. 127 , 128 Las estrategias adicionales que se deben considerar al implementar ERAS incluyen la identificación de barreras y facilitadores para la implementación, incluidos los usuarios finales en el desarrollo de estrategias, educación y avisos y recordatorios. En conjunto , el trabajo futuro debería centrarse en estrategias para mejorar la implementación y el cumplimiento de las directrices ERAS ; cuya importancia se ha señalado. 126 Además, de acuerdo con la lista de verificación RECOvER, abogamos por una mejor presentación de informes sobre el cumplimiento general y el cumplimiento de cada elemento ERAS en estudios que exploren los resultados de las directrices ERAS.Limitaciones
Este estudio tiene limitaciones. Si bien la estrategia de búsqueda fue desarrollada por un bibliotecario con experiencia en revisiones sistemáticas, es posible que no se hayan identificado algunos estudios. Utilizando la estadística de Egger y una evaluación visual de los gráficos de embudo, no encontramos evidencia de sesgo hacia los estudios con grandes tamaños del efecto. Si bien la exhaustividad de la revisión sistemática es una fortaleza, también puede ser limitante porque los estudios incluidos fueron heterogéneos según el tipo de protocolo ERAS, el tipo de cirugía y los resultados. Además, el análisis está limitado por los datos proporcionados dentro de los estudios incluidos. Como tal, las variables que pueden estar asociadas con nuestras variables de resultado, incluido el estado socioeconómico, el estado del seguro y la complejidad quirúrgica, no se tuvieron en cuenta en el análisis. De manera similar, los pacientes sometidos a procedimientos quirúrgicos guiados por ERAS pueden ser un grupo altamente seleccionado, que no pudimos controlar. Finalmente, estos hallazgos pueden no ser generalizables a todos los tipos de cirugía porque la mayoría de los estudios exploraron la eficacia de ERAS en cirugía colorrectal y cirugía obstétrica o ginecológica. De hecho, nuestros hallazgos sugirieron que el tipo de cirugía estaba asociado con la duración de la estadía hospitalaria, pero la razón de la variación no estaba clara.Conclusiones
Este metanálisis determinó que el ERAS se asociaba con una disminución de la duración de la hospitalización (sin un aumento significativo de las readmisiones hospitalarias) y de las complicaciones. Dadas las mejoras en las especialidades, las investigaciones futuras deberían apuntar a aplicar el ERAS a nuevas especialidades quirúrgicas y en más entornos clínicos a nivel mundial.
La nanotecnología tiene una amplia aplicación como nanomedicina en el campo médico. Algunas nanopartículas tienen posibles aplicaciones en nuevos instrumentos de diagnóstico, imágenes y metodologías, productos medicinales específicos, productos farmacéuticos, implantes biomédicos e ingeniería de tejidos. Hoy en día, los tratamientos de alta toxicidad se pueden administrar con mayor seguridad utilizando la nanotecnología, como los medicamentos quimioterapéuticos contra el cáncer. Además, los dispositivos portátiles pueden detectar cambios cruciales en los signos vitales, las condiciones de las células cancerosas y las infecciones que realmente están sucediendo en el cuerpo. Anticipamos que estas tecnologías brindarán a los médicos un acceso directo considerablemente mejor a datos críticos sobre las razones de los cambios en los signos de vida o enfermedad debido a la presencia tecnológica en la fuente del problema. La biomedicina se puede utilizar para terapias con análisis predictivos e inteligencia artificial. Para llevar a cabo este estudio, se identificaron y estudiaron artículos relevantes sobre nanotecnología en el campo médico de Scopus, Google Scholar, ResearchGate y otras plataformas de investigación. El estudio analiza diferentes tipos de nanopartículas utilizadas en el campo médico. Este artículo analiza las aplicaciones de la nanotecnología en el campo médico. También se describen las clases, características y usos de la nanotecnología en el ámbito de la medicina. Los científicos, los gobiernos, las organizaciones de la sociedad civil y el público en general deberán colaborar entre distintos sectores para evaluar la importancia de la nanotecnología y orientar su avance en diversos campos. La investigación actual incluye varios usos posibles de la nanotecnología en el ámbito médico. Como resultado, el estudio proporciona un informe breve y bien organizado sobre la nanotecnología que resultará valioso para investigadores, ingenieros y científicos en futuros proyectos de investigación.
1. Introducción
La nanotecnología es un término utilizado para definir áreas de la ciencia y la ingeniería en las que los fenómenos que ocurren en dimensiones nanométricas se utilizan en el diseño, caracterización, fabricación y aplicaciones de materiales, estructuras, dispositivos y sistemas. El concepto de nanotecnología se introdujo por primera vez en 1959 cuando el físico Richard Feynman presentó una presentación sobre la fabricación de cosas a nivel atómico y molecular. La nanotecnología se considera ahora la tecnología más prometedora del siglo XXI y los investigadores la han estudiado como una técnica novedosa en la investigación médica. La nanotecnología marcará el comienzo de una nueva era de productividad y prosperidad, como lo demuestra el aumento de la financiación pública para la investigación y el desarrollo de la nanotecnología durante la última década. 1 , 2 La nanotecnología puede estimular el crecimiento económico y mejorar la capacidad y la calidad en los sectores industriales. Ha contribuido sustancialmente al bienestar de la sociedad y ha moldeado la naturaleza de la vida moderna. Tiene el potencial de alterar significativamente la dinámica social, las condiciones económicas y la vida humana.
La presencia y la entrada de cada molécula individual en el cerebro estructuran esencialmente una barrera de membrana altamente selectiva permeable para moléculas con coeficientes de partición altos. Recientemente se han utilizado nanopartículas en esta membrana como sistema transportador de medicamentos. En particular, las nanopartículas se inhalan y atraviesan las membranas cerebrales. Las terapias típicas y tradicionales para la trombosis vascular a menudo tienen ventajas relativamente limitadas debido a la corta vida media plasmática, muchos efectos adversos y la rápida eliminación del fármaco. Para mejorar la estabilidad e incluso la vida media del medicamento encapsulado, la inmovilización de una cantidad específica de un agente en un sistema de administración de fármacos podría superar esta restricción. La biocompatibilidad y la biodegradabilidad hacen que las nanopartículas poliméricas y los nanotransportadores liposomales se empleen a menudo. 8 , 9 , 10
La ciencia y la tecnología se han utilizado para el diagnóstico de enfermedades, el tratamiento y la prevención de traumatismos, el alivio del dolor y la conservación y mejora de la salud humana mediante instrumentos moleculares y la comprensión molecular del cuerpo humano. La mayoría de los usos comerciales actuales en medicina en nanotecnologías apuntan al suministro de medicamentos. Se pueden introducir nuevos modos de acción y los compuestos medicinales existentes son más específicos y biodisponibles. Las nanosondas , los sistemas nanoelectrónicos sensoriales integrados y las estructuras químicas multifuncionales para la administración de fármacos y la focalización de enfermedades son aplicaciones futuras en nanotecnología. 11 , 12 , 13
Ya se ha logrado un gran éxito en la mejora de la administración de medicamentos con nanotecnología.Algunos compuestos específicos pueden mejorar la orientación y la entrada de medicamentos en la célula y mejorar la obtención de imágenes, la focalización intracelular y la liberación controlada de genes terapéuticos. Por lo tanto, los médicos podrían detectar y mejorar su influencia sobre las células enfermas y los tumores para optimizar las dosis de la terapia. En combinación con otras formas de tratamiento personalizado, la nanometría se puede personalizar para centrarse en un paciente individual que solo tiene células enfermas, lo que minimiza los efectos adversos y el daño tisular . Los científicos ya han logrado algunos avances que promueven el desarrollo celular para tratar el daño de la médula espinal . Nanopartículas magnéticas y nanopartes sensibles a enzimas que se dirigen a los tumores cerebrales; muestras de nanopartículas inteligentes para la administración de productos farmacológicos intracelulares y la obtención de imágenes de expresión genética; puntos cuantitativos para detectar y cuantificar el cáncer cerebral humano. 14 , 15 , 16 En el área de la atención médica, la nanotecnología abre nuevos límites en la industria de las ciencias de la vida. La nanotecnología es muy prometedora en la manipulación de cosas a nivel atómico para cambiar muchas partes del tratamiento médico, como el diagnóstico, el control de enfermedades, el funcionamiento de equipos, la medicina regenerativa, el desarrollo de vacunas y la administración de medicamentos. También abre el camino a través de sofisticados instrumentos de investigación para desarrollar medicamentos que mejoren los tratamientos para diversas dolencias. La nanotecnología se puede utilizar para la medicación de células particulares en el cuerpo, reduciendo así los riesgos de fracaso y rechazo. 17 , 18 , 19
Hemos identificado cuatro objetivos de investigación principales de este documento como se detalla a continuación:
(1) identificar los tipos de nanotecnología y nanopartículas con sus usos en el campo médico;
(2) discutir las clases y la taxonomía de los materiales basados en la nanotecnología para la esfera médica;
(3) identificar y discutir las características asociadas y las características de la nanotecnología para el dominio médico; y
(4) identificar las aplicaciones contemporáneas y futuras de la nanotecnología para el campo médico.
2. Necesidad de la nanotecnología en el campo médico
Los descubrimientos en el campo de la nanotecnología y los nanofármacos son muy amplios y de amplio alcance. La nanomedicina ha experimentado modificaciones impresionantes que han llevado a los fármacos a un nuevo nivel con importantes resultados en el ámbito de la atención sanitaria. Es necesario estudiar las importantes capacidades de la nanotecnología en el ámbito de la atención sanitaria. En medicina, se están llevando a cabo investigaciones exhaustivas sobre las mejores prácticas y metodologías, incluidas la nefrología, la terapia genética para enfermedades cardiovasculares y la terapia contra el cáncer. Se ha producido un importante desarrollo en el tratamiento tradicional, y la calidad de las nanopartículas y la nanotecnología ha mejorado y ha mostrado resultados alentadores. 20 – 21 La terapia genética también ha sacado partido de los nanofármacos. Varias investigaciones se han centrado en las aplicaciones de vectores virales que se cree que son sistemas para la administración de medicamentos.22 , 23 , 24
Los nanobots que apuntan a células cancerosas específicas para tabletas inteligentes envían datos a los investigadores para garantizar que los pacientes reciban su tratamiento correctamente. La nanotecnología ofrece la posibilidad de realizar diagnósticos in vitro al sustituir los procedimientos existentes por alternativas más económicas y fáciles de utilizar. Las nanopartículas pueden funcionar como agentes de imagen molecular dentro de esos dispositivos e introducir alteraciones genéticas relacionadas con el cáncer y características funcionales de las células tumorales. Además, los recubrimientos basados en nanotecnología funcional incluyen con frecuencia los siguientes nanomateriales , según la función deseada: dióxido de titanio, dióxido de silicio , negro de carbono, óxido de hierro , óxido de zinc y plata. Los instrumentos y procedimientos mejoran las evaluaciones de caracterización fisicoquímica, la seguridad y la eficacia de los nanomateriales y las nanosuperficies integradas en la ingeniería de dispositivos médicos . Los científicos desempeñan un papel crucial en la creación de bienes que incluyen materiales novedosos , sensores y sistemas de almacenamiento de energía. 25 – 26
3. En el campo médico se utilizan distintos tipos de nanopartículas .
Las nanopartículas tienen una importante relación superficie-volumen debido a su tamaño a nanoescala, lo que les permite absorber grandes cantidades de medicamentos y moverse rápidamente por el torrente sanguíneo. Su mayor superficie les confiere capacidades distintivas, ya que aumenta sus cualidades mecánicas, magnéticas, ópticas y catalíticas, lo que permite su uso en más aplicaciones farmacéuticas. Las nanopartículas se clasifican en tres áreas según su composición química: orgánicas, inorgánicas y basadas en carbono. 27 , 28 , 29 La figura 1 muestra algunas clasificaciones primarias de las nanopartículas. Las proteínas, los carbohidratos, los lípidos y otras moléculas orgánicas se sintetizan en nanopartículas orgánicas con una dimensión específica, como un radio de menos de 100 nm.
Las nanopartículas inorgánicas no son tóxicas, son hidrófilas, biocompatibles y muy estables en comparación con los materiales orgánicos. Las nanopartículas inorgánicas incluyen metales elementales, óxidos metálicos y sales metálicas, entre otras cosas. Los fulerenos , los nanotubos de carbono , el grafeno y sus derivados son ejemplos de nanomateriales basados en carbono. Estos materiales han despertado la atención de varios campos, incluidas las aplicaciones biomédicas, debido a sus dimensiones estructurales inusuales y sus propiedades mecánicas, eléctricas, térmicas, ópticas y químicas excepcionales. Las nanopartículas generalmente conservan las propiedades químicas de sus materiales a granel, lo que puede ser beneficioso al seleccionar una nanopartícula para diversas aplicaciones. 30 ,31 ,32
Las nanopartículas reaccionan a la luz calentándose lo suficiente para destruir las células cancerosas. Los investigadores creen que las nanopartículas pueden ponerse directamente en circulación y convertirse en tumores cancerosos en el futuro. Las píldoras inteligentes son liberadores de medicamentos con sensores ingeribles que pueden manejarse de forma inalámbrica y ajustarse para controlar una dosis de medicamento en función de los datos recopilados en todo el cuerpo. La nanomedicina se enfrenta a obstáculos inherentes como toda tecnología innovadora y revolucionaria; principalmente, se ha utilizado ampliamente en aplicaciones clínicas. El impacto ambiental de la nanotecnología se acumula en los tejidos y órganos vivos y puede hacerse asequible a gran escala. Los nanobots son un avance significativo en la nanomedicina. 34 , 35 , 36 , 37
4. Clases y taxonomía de materiales basados en nanotecnología para el ámbito médico
La figura 2 explora las diversas clases y categorizaciones de diferentes materiales basados en nanotecnología que tienen aplicaciones y utilidades especiales en el campo de la medicina. Se han reportado varias clases en la literatura disponible, a saber: nanopartículas metálicas , dendrímeros , liposomas , polímeros biodegradables , nanomateriales basados en carbono, nanocompuestos de hidrogel y muchos otros también que respaldan y amplían la utilización y los servicios en el campo médico a través del concepto de nanotecnología. 38 – 39
Las nanofibras se han utilizado en apósitos para heridas , textiles quirúrgicos e implantes, tecnología de tejidos y componentes de órganos artificiales. Los científicos están creando vendajes inteligentes que se absorben en el tejido cuando la herida ha cicatrizado. En estos vendajes inteligentes, las nanofibras incrustadas pueden incluir coagulación, antibióticos e incluso sensores para detectar síntomas infecciosos. 40 ,41 ,42 La nanomedicina garantiza una vida más larga y ayudará a las personas que viven más tiempo y las apoyará de una manera positiva para la Tierra y requiere la eliminación de sus recursos naturales. Otro enfoque de la nanotecnología puede ser a través de nanomáquinas para prepararse para la colonización del espacio mediante la construcción de estructuras y la creación de ecosistemas para otros planetas. Los investigadores también están investigando formas de modificar la fisiología humana para adaptarse mejor a las condiciones atmosféricas de otros mundos.
En aplicaciones sanitarias, la nanomedicina utiliza la nanotecnología, como la terapia y el diagnóstico de diferentes enfermedades, utilizando nanopartículas, biosensores nanoelectrónicos y nanotecnología molecular. Proporciona la capacidad de evaluar el cuerpo de la persona, la medicación y el equipo médico a nivel nanométrico, lo que garantiza que la medicina sea mucho más precisa. El sector sanitario está utilizando esta tecnología para diagnósticos y equipos médicos. Los rápidos avances en nanotecnología significan que se están desarrollando nuevos diagnósticos y terapias con mejores tasas de éxito. Actualmente, la nanomedicina se utiliza para el desarrollo de medicamentos inteligentes y el cáncer. 43 , 44 , 45En los últimos años, esta tecnología se ha utilizado para producir nuevas nanopartículas y las industrias han cambiado significativamente. La aplicación médica de la nanotecnología implica el desarrollo de dispositivos biomecánicos microscópicos, como nanomáquinas y nanorobots. Los productos basados en la nanotecnología suelen ser costosos, lo que dificulta su producción generalizada. Estos productos ayudarán a difundir esta tecnología al ofrecer opciones de producción asequibles. Las nanopartículas pueden aumentar sensiblemente la glucosa y reaccionar con la liberación de insulina, eliminando la necesidad de la autoobservación y autocontrol de la insulina. Las nanopartículas implantadas en la circulación humana pueden identificar enfermedades de forma proactiva al detectar ciertas enzimas indicativas del crecimiento de tumores. 46 , 47 , 48 Si se aplica a la atención sanitaria, la nanotecnología puede suponer un avance sustancial en el diagnóstico, el tratamiento y la prevención de enfermedades. Los innovadores están cada vez más interesados en los posibles usos sanitarios de la nanotecnología, que puede conducir a la industria hacia una nueva era de crecimiento. El diagnóstico y la terapia dependen ahora de la experiencia clínica y de la interpretación de datos biométricos externos; se espera que el énfasis de la investigación futura se derive directamente de los datos de la nanotecnología en el lugar de la enfermedad. Al permitir que nuestros cuerpos utilicen mecánica artificial, esta tecnología ayuda a todos, desde dentro hacia fuera, a definir medicamentos proactivos, preventivos y personalizados. El uso de nanomateriales es uno de los ejemplos más mencionados. La manipulación de dispositivos y sistemas a escala nanométrica ofrece numerosas oportunidades para diagnosticar y tratar enfermedades y realizar pruebas más precisas. 49 , 50 , 51
Los nanomateriales se utilizan en la industria de la salud para el diagnóstico, la terapia, el control y la prevención de enfermedades. El desarrollo de medicamentos mejores y más seguros, actividades centradas en los tejidos y nanomedicamentos personalizados está impulsado por las nanopartículas. Esta tecnología, por ejemplo, se utiliza para la desinfección de superficies y equipos de protección personal durante la pandemia de la enfermedad por coronavirus de 2019. Las nanopartículas pueden transportar medicamentos al lugar exacto requerido, mejorando sustancialmente su eficacia y restringiendo la toxicidad para otros tejidos del cuerpo. 52 , 53 , 54 Para la administración de medicamentos al cerebro en el caso de enfermedades difíciles de tratar, también se pueden desarrollar nanopartículas para superar la barrera hematoencefálica.
5. Características y rasgos asociados de la nanotecnología para el ámbito médico
Las diversas características y funciones clásicas asociadas de la nanotecnología al ámbito médico incluyen (1) tratamiento de heridas ; (2) tratamientos antibacterianos; (3) minimización del daño a las células sanas; y (4) técnica de diagnóstico de nanomedicina. El uso de nanovesículas, nanopartículas, nanotubos de carbono , etc., ha hecho que las aplicaciones de los principios basados en la nanotecnología sean más efectivas y productivas para la medicina, donde la precisión y la inteligencia son esenciales en un ámbito más amplio. 55 – 56 Para los métodos médicos preventivos, las nanotecnologías son tan buenas como las reactivas. Los monitores portátiles pueden diseñarse para transmitir datos a los sistemas hospitalarios, simplificando el cuidado de los pacientes ancianos, que a menudo requieren atención en lugares remotos. De manera similar, los nanomateriales, considerados durante mucho tiempo como progenitores de las neoplasias malignas metastásicas, pueden utilizarse para controlar las células tumorales circulantes. La industria tecnológica utiliza átomos y moléculas individuales, en particular la nanociencia, con implicaciones futuristas para la ciencia, la ingeniería y la tecnología. Puede tener un impacto e influencia notables para desarrollar, caracterizar, desarrollar e implementar átomos y moléculas particulares. La medicina, la energía, la producción de alimentos, los productos químicos básicos, los cosméticos, la agricultura, el equipamiento, la biotecnología y los textiles, entre otros, están cambiando fundamentalmente. 57 , 58 , 59
5.1 . Tratamiento de heridas
Las células de una persona pueden crear tejidos y órganos a partir de un santo grial para la cirugía reconstructiva y de trasplante para pacientes que pueden haberlos perdido debido a una enfermedad o daño. La investigación en este tema, apoyada por el conocimiento de la topografía de los tejidos a escala nanométrica, intenta construir tejidos cuya función y estructura sean similares a las que se encuentran en la naturaleza del organismo. Los nanogeneradores, las nanopartículas de polímeros y una solución precisa podrían ayudar a curar mejor y más rápidamente las heridas de las personas. Las nanopartículas solo se pueden conectar con imágenes y ligandos diana a las células o tejidos. Esto permite a los cirujanos y radiólogos distinguir el tejido enfermo del sano de manera más efectiva, mejorar el tratamiento de la enfermedad y reducir el peligro de dañar el tejido sano. La nanotecnología ha afectado enormemente la velocidad y la especificidad de las evaluaciones de biomarcadores en los fluidos corporales. 60 , 61 , 62
La nanotecnología emplea las propiedades creadas en la escala nanométrica, que difieren de las del mismo material en una escala mayor en física, química o biología. Además, el tamaño nanométrico también incluye muchos de los mecanismos biológicos del cuerpo humano que permiten atravesar barreras naturales para acceder a nuevos sitios de administración e interactuar con el ADN o pequeñas proteínas en diferentes niveles, en la sangre o dentro de los tejidos o células del cuerpo. La nanociencia es más avanzada y ofrece posibilidades para medicamentos especializados y específicos con menos efectos adversos y más fáciles de usar. La materia de tamaño nanométrico con precisión nanométrica se controla y maneja mediante la nanotecnología. Estos pueden incluir átomos, moléculas o estructuras biológicas importantes. 63 – 64
5.2 . Tratamientos antibacterianos
La nanomedicina se ha extendido a varias disciplinas, incluida la administración de medicamentos, los instrumentos de diagnóstico e imagen, las plataformas de alto rendimiento para la detección, el desarrollo de vacunas, los antimicrobianos, los dispositivos portátiles, etc. 65 – 66 El uso de nanopartículas de oro y puntos cuánticos , el empleo de luz infrarroja y la limpieza mejorada de los instrumentos podrían usarse para tratamientos antibacterianos. La nanotecnología es cada vez más optimista sobre el hecho de proporcionar un progreso sustancial en la detección y el tratamiento de enfermedades tal como se aplica a la medicina. Se espera que los medicamentos proporcionen medicamentos, diagnóstico, tratamiento celular y fabricación de materiales biocompatibles. El uso de la nanotecnología en la terapéutica abarca la nanomedicina y el desarrollo de agentes a nanoescala para diversos tratamientos de enfermedades. La nanotecnología manipula un artículo para producir compuestos con características extraordinariamente diversas y únicas a nivel atómico y molecular.
5.3 . Minimizar el daño a las células sanas.
Los innovadores en nanotecnología médica están diseñando métodos para administrar medicamentos de manera más eficiente, como por ejemplo, apuntar directamente a las células cancerosas mediante terapia. Los resultados de los pacientes mejoran y se informa de un daño mínimo a las células sanas, lo que podría causar daño durante la quimioterapia con nanopartículas que localizan y destruyen las células cancerosas. Los médicos también pueden proporcionar un tratamiento térmico con mayor precisión mediante el uso de la nanotecnología junto con la quimioterapia. Los nanotubos vinculados a anticuerpos atraídos por tumores absorben la luz láser, lo que puede hacer que el tumor se incinere en dicha terapia. 67 – 68 El uso de materiales biobiológicos, no biológicos, biomiméticos o híbridos también está muy extendido en la nanomedicina.
5.4 . Técnica de diagnóstico en nanomedicina
Las aplicaciones de la nanotecnología para el diagnóstico, que incluyen el uso de nanotubos de carbono , la aplicación de nanotubos de oro y detecciones rápidas y económicas, hicieron posible la identificación de enfermedades en una etapa más temprana. Esta técnica utiliza instrumentos de tamaños submicrométricos para diagnosticar, prevenir y curar mejor las enfermedades y mejorar la calidad de vida general de los pacientes. El desarrollo de medicamentos regenerativos se acelera sustancialmente gracias a la nanotecnología. Los nuevos enfoques permiten la piel, los huesos, los cartílagos u otros tejidos protésicos en pacientes con insuficiencia orgánica o lesiones graves . El uso de la nanotecnología cambia la función celular de manera más efectiva para imitar los efectos de los tejidos y órganos naturales. 69 , 70 , 71
6. Principales áreas de aplicación de la nanotecnología en el ámbito médico
La nanotecnología acelera el proceso utilizando un dispositivo portátil compacto que toma muestras pequeñas y permite un procesamiento y análisis casi instantáneos. Las pruebas de diagnóstico in vitro seguirán aumentando el tamaño de las muestras y los biosensores. Las formulaciones de nanopartículas, cuando se utilizan para óxidos de hierro y polímeros especiales, aumentarán su capacidad de obtención de imágenes al utilizar dosis más bajas y más efectivas de los compuestos de diagnóstico, lo que permite la detección temprana de anomalías genéticas, tumores y toda la variedad de estados patológicos. La nanomedicina, como la biotecnología, ha sido motivo de preocupación en ciertas áreas, particularmente en lo que respecta a la seguridad y la privacidad. 72 , 73 , 74 , 75 Los inmunoensayos son aplicaciones apropiadas debido a la conectividad robusta entre anticuerpos y antígenos, lo que conduce a excelentes sensibilidades. Los sensores inmunológicos regenerativos son un nuevo desafío interesante que permite la repetitividad para la rigidez estadística y el monitoreo semicontinuo. La nanomedicina es un tema muy inmaduro en el cáncer, por lo que la clínica necesita determinar la posible influencia. 76 , 77 , 78 , 79 , 80 , 81 , 82 , 83 , 84 , 85
6.1 . Diagnóstico
En la última década, la imagenología se ha convertido en una herramienta poderosa para diagnosticar enfermedades. Los avances en resonancia magnética y
tomografía computarizada son impresionantes. Sin embargo, la nanotecnología ofrece instrumentos para diagnóstico in vitro e in vivo que son sensibles y muy precisos, mucho más allá de las capacidades de los equipos modernos. Como cualquier avance en el diagnóstico, el objetivo final es permitir a los médicos diagnosticar una enfermedad lo antes posible. Se prevé que la nanotecnología permita diagnósticos celulares y, posiblemente, diagnósticos subcelulares.
6.2 . Ingeniería de tejidos y tratamiento celular
La medicina regenerativa, especialmente la ingeniería de tejidos y el tratamiento celular, son otros campos potenciales de la nanomedicina. La nanotecnología proporciona un «andamiaje» estructural esencial para crear nuevas estructuras funcionales que se parecen a los tejidos naturales en los que se pueden introducir células vivas y estimular su proliferación. Los nuevos tejidos se benefician de la biocompatibilidad de las nanopartículas y las células con la fuente de muestra. El tejido resultante puede entonces ser regulado y los médicos pueden influir en los procesos de formación, desarrollo y reparación celular.
6.3 . Desarrollo de la terapia
Se prevé que el efecto más significativo de la nanomedicina en la administración y el tratamiento de medicamentos se logrará en la terapia. Las nanopartículas permiten a los médicos concentrar los medicamentos en la causa de la enfermedad, mejorando la eficiencia y disminuyendo los efectos adversos. También brindan nuevas oportunidades para regular las liberaciones terapéuticas. La nanomedicina ha obtenido enormes beneficios en la instrumentación y la síntesis farmacéutica con varios tipos de nanofármacos y aplicaciones de transporte y diagnóstico de fármacos. Se está desarrollando un campo de investigación para producir nanopartículas y tratamientos basados en la nanotecnología.
6.4 . Administración de fármacos
Los sistemas de administración de fármacos basados en la nanotecnología incluyen inicialmente nanopartículas que contienen uno o más fármacos terapéuticos que pueden unirse o dispersarse y adsorberse en matrices poliméricas . En los últimos años, ha habido un desarrollo significativo en la producción de nanofármacos utilizando imágenes, tratamientos y diagnósticos. Los sistemas de nanofármacos se centran principalmente en mejorar la biodisponibilidad de la administración a tejidos específicos, prolongar la vida media de los medicamentos inyectables y administrar medicamentos por vía oral. Los nanofármacos se administran en niveles más bajos, con mejoras notables en sus efectos farmacológicos y una reducción del peligro para la salud y de los efectos adversos.
6.5 . Detección de enfermedades
La nanomedicina es una aplicación fascinante para la prevención, detección, terapia y control de enfermedades, desde nanopartículas de bioingeniería que atacan y matan células y la implantación de tejidos biocompatibles hasta biosensores implantados de tamaño nanométrico. Sin embargo, si bien las aplicaciones básicas de la nanomedicina, como medicamentos personalizados e instrumentos médicos, ya se han utilizado en la medicina convencional para usos más ambiciosos, como dispositivos nanomédicos de múltiples partes, las propiedades únicas de las nanopartículas se pueden aprovechar a nivel molecular. Existe una mayor área de superficie para la adhesión química en esta pequeña escala, lo que facilita la manipulación de moléculas en partículas finas, ajustando el comportamiento de las partículas. Los nanomateriales también son lo suficientemente pequeños como para ingresar a las células vivas.
6.6 . Detección de oxígeno corporal .
Los nanosensores pueden detectar concentraciones de oxígeno y dióxido de carbono en el cuerpo y la presencia de materiales peligrosos. La detección de órganos digestivos malignos y sensibilidad a los alimentos permite que los programas de dieta y nutrición individuales formen parte de sus usos. El daño a las células sanas es una preocupación importante durante el tratamiento con quimioterapia y radiación frecuentes. Se emplean nuevos métodos nanomédicos para tratar el cáncer de piel, lo que permite un suministro adecuado a ubicaciones tumorales específicas y apuntar a células con efectos secundarios menos dañinos de la medicación y otras terapias teóricas. Una nueva forma de identificar células cancerosas en la circulación, llamada NanoFlares, se está utilizando con la nanomedicina. Las NanoFlares son partículas diseñadas para unirse a los objetivos genéticos de las células cancerosas y emitir luz cuando se identifica ese objetivo genético en particular.
6.7 . Asistencia sanitaria económica
La nanomedicina genera grandes esperanzas de una asistencia sanitaria mejor, eficiente y económica para millones de personas y puede ofrecer buenas respuestas a numerosas enfermedades. La nanotecnología influye en casi todas las áreas de la medicina actual, desde el diagnóstico hasta el seguimiento de enfermedades, pasando por la cirugía, la quimioterapia o la medicina regenerativa. Las ventajas que puede aportar la nanotecnología están beneficiando actualmente a muchos sectores de la atención médica. El diagnóstico a escala nanométrica es otro campo en alza de la nanomedicina. El objetivo es diagnosticar una enfermedad lo antes posible. Muchos pacientes con insuficiencia orgánica o lesiones graves esperan nuevos enfoques de la medicina regenerativa. La piel, el hueso y el cartílago artificiales están progresando, y algunos de ellos ya están en el mercado.
6.8 . Mejorar la eficacia de los medicamentos.
La administración de fármacos mediante materiales inteligentes y nanopartículas es un área de investigación prometedora que puede ayudar a las compañías farmacéuticas a mejorar la eficiencia de los medicamentos existentes y eliminar algunos efectos secundarios sistemáticos. Consiste en conjuntos de agentes de transporte, dispositivos de imagen y medicamentos que se crean para dirigirse a los tejidos afectados y monitorear el proceso simultáneamente. En otras palabras, las demandas funcionales específicas deben distinguirse en las características físico-químicas necesarias y conectarse con el comportamiento biológico.
6.9 . Manejo de la enfermedad
La nanotecnología proporciona una herramienta extra eficaz para prevenir y controlar enfermedades, ya que la resistencia bacteriana a los antibióticos está aumentando en todo el mundo. La eficiencia de las membranas bacterianas a escala nanométrica puede ser aún mayor con compuestos antimicrobianos, como la nanoplata. Estas características pueden minimizar la necesidad de antibióticos cuando se integran en materiales tradicionales, al tiempo que protegen al paciente de infecciones. La nanotecnología tiene el potencial de revolucionar el tratamiento de los pacientes. Esta tecnología en la I+D de las ciencias biológicas y en otras áreas de vanguardia de la atención sanitaria aún está lejos de volverse omnipresente. La situación económica en la que la nanotecnología se encuentra a la vanguardia del tratamiento sanitario puede volverse ahora demasiado difícil y peligrosa para justificar inversiones, dado el creciente costo médico y el gasto en I+D de las ciencias biológicas. El tratamiento con analgésicos orales normalmente se realizaría más fácilmente y haría que el paciente se sintiera lo suficientemente cómodo.
6.10 . Lucha contra el cáncer
En la lucha actual contra el cáncer, la nanotecnología se considera uno de los avances más prometedores en el suministro de medicamentos. Normalmente, no se trata de productos farmacéuticos, sino de nanopartículas que pueden transportar medicamentos estándar contra el cáncer a los tumores con menos efectos adversos y permitir la eliminación selectiva de células cancerosas en terapias no tradicionales. Si se permite la administración de nanopartículas para quimioterapia, se puede administrar más medicamento citotóxico en el lugar de destino y se reduce la toxicidad y la eficacia fuera del objetivo.
6.11 . Útil para enfermedades cardiovasculares
En el campo de la medicina, la nanomedicina utiliza conocimientos nanotecnológicos para prevenir y tratar enfermedades graves, como enfermedades cardiovasculares y cardíacas. Los materiales a escala nanométrica, como las nanopartículas biocompatibles y los nanobots médicos, han ayudado a los médicos a comprender los objetivos de acción de un ser vivo gracias a los recientes avances en nanotecnología.
6.12 . Nanobots
El avance más significativo de la nanomedicina son los nanobots, que pueden emplearse para reparar células dañadas y reemplazar componentes intracelulares completos. También pueden reproducirse para reparar un defecto genético o reemplazar una molécula de ADN para erradicar una enfermedad. Los nanobots en medicina pueden ofrecer perspectivas de salud rentables, como desbloquear arterias o reemplazar un órgano por completo. Aunque los nanotransportadores pueden proporcionar concentraciones de dosis exactas a regiones específicas, su pequeño tamaño conduce a un compromiso paradójico entre volumen y fabricación. El comportamiento coordinado y la comunicación a través de la inteligencia artificial permitirán a los nanobots cumplir con sus tareas de manera metódica y eficiente. Los nanobots podrían programarse individualmente, buscarse y circular en distintas direcciones. Un nanobot individual podría conectarse con amigos y compañeros de trabajo, cada uno con sus propias pautas, para pedirles que agruparan sus recubrimientos, cargas o tamaños para monitorear la existencia, el diagnóstico o la orientación de los tejidos enfermos de manera más eficiente.
6.13 . Mejor procedimiento preventivo
El objetivo fundamental de la nanomedicina es convertir la atención sanitaria en un procedimiento totalmente preventivo. Se puede solucionar antes de que llegue al nivel en que se necesite tratamiento mediante la detección temprana del malestar. La nanomedicina tiene como objetivo mejorar la calidad de vida humana mediante la eliminación de arrugas, exceso de grasa y celulitis, el fortalecimiento muscular y óseo, la recuperación del cabello y la rehabilitación de la visión. Las nanopartículas presentes en los productos de limpieza y en los equipos de protección personal se pueden utilizar para inhibir la transmisión. La nanomedicina se podría utilizar para regular el sistema inmunológico y mejorar las respuestas inmunitarias contra las infecciones.
6.14 . Radioterapia
En el campo de la radioterapia, la nanotecnología también puede mejorar. Las nanopartículas de radiación que atraen los tumores pueden concentrar la radiación para aumentar la eficacia del tratamiento y, al mismo tiempo, mantener el tejido sano. Las aplicaciones de la nanotecnología no se limitan al tratamiento del cáncer. Los nanosensores también pueden detectar ataques cardíacos y accidentes cerebrovasculares antes que el paciente. Las partículas de nanotecnología pueden controlar continuamente la sangre para buscar células endoteliales que existían antes de un ataque. Al restablecer el sistema inmunológico, las nanotecnologías también han prometido dejar de atacar al cuerpo del paciente.
La nanomedicina tiene el potencial de detectar y prevenir numerosas enfermedades, incluido el cáncer. En ensayos clínicos , la nanomedicina cuenta actualmente con cientos de artículos que abordan todos los principales trastornos cardiovasculares, neurológicos, musculoesqueléticos e inflamatorios. 86 , 87 , 88 , 89 Es útil para la obtención de imágenes médicas, diagnósticos y biomateriales, lo que permite aplicaciones tecnológicas en todo el sector de la atención sanitaria. Para que el siguiente nivel de medicamentos, terapias e inverosimilitudes novedosas esté disponible para médicos y pacientes, existe la necesidad de avances genuinos en la atención sanitaria, la nanomedicina como un instrumento vital para la medicina personalizada, dirigida y regenerativa. 90 , 91 , 92 Proporciona nuevas herramientas esenciales para abordar el principal problema que enfrentan las personas mayores y se considera fundamental para una atención sanitaria mejor y más económica. Es fundamental hacer que los medicamentos y tratamientos sean accesibles para todos. 93 , 94 , 95
7 . Discusión
La nanomedicina es un campo médico emergente que utiliza la experiencia nanotecnológica para prevenir y tratar enfermedades graves, como el cáncer, las enfermedades cardiovasculares y otras. Los últimos avances en nanotecnología han permitido a los médicos sensibilizar los objetivos de acción en un cuerpo vivo mediante el uso de componentes a escala nanométrica, incluida la biocompatibilidad de nanopartículas y nanobots. Los investigadores también están utilizando la nanomedicina para estimular la inmunoterapia . En los últimos años se han producido grandes avances en la nanomedicina que han ampliado el mercado de la nanomedicina. Las aplicaciones de la nanomedicina, como el diagnóstico mediante nanomáquinas, ofrecen la capacidad de controlar la química interna del órgano y permiten el acceso directo a las regiones enfermas. Los tratamientos nanomédicos han demostrado varias ventajas significativas, entre ellas, un mejor suministro de agua y una actividad biológica prolongada al proteger las cargas útiles contra entornos biológicos potencialmente destructivos. Las nanopartículas se pueden emplear para probar biomoléculas como biomarcadores y marcadores tumorales. Los productos nanomédicos van desde la quimioterapia hasta los agentes biológicos, pasando por la inmunoterapia y más. La nanotecnología también puede ser utilizada por moléculas que identifican enfermedades para mejorar el diagnóstico selectivo. El uso más prometedor de la nanomedicina en la quimioterapia se ha producido en aquellos casos en los que las capacidades únicas y las características complejas de estos instrumentos de administración de última generación podrían mejorar significativamente la eficiencia y, al mismo tiempo, reducir el potencial.En el diverso campo de la nanotecnología, casi todos los aspectos de la industria, desde los medicamentos hasta las máquinas, están experimentando enormes avances. Su uso extensivo significa que su relación beneficio-riesgo se ha convertido en tema de discusión global. La nanotecnología tiene graves efectos sociales y económicos y poca conciencia pública de sus amenazas. Las industrias y las empresas farmacéuticas se entregan a esta tecnología por los impactos inmediatos y a largo plazo de los productos basados en nanotecnología.
La nanorrobótica se puede utilizar para monitorear enfermedades y farmacocinética y mejorar la eficiencia de la atención médica y la administración de medicamentos en la terapia del cáncer. La nanorrobótica también se utiliza para mantener y ensamblar sistemas avanzados. El uso extensivo de la nanorrobótica también está impulsando el aumento de los ingresos del mercado en el sector médico.
8 . Alcance futuro
En el futuro, la nanomedicina desempeñará un papel crucial en la medicina personalizada, desde la predicción hasta el seguimiento. Los materiales a escala nanométrica son la base de sensores y biomarcadores cada vez más sensibles, que pueden utilizarse para identificar más enfermedades en una fase preliminar de forma simultánea y precisa. La nanomedicina permite un mapeo altamente preciso de la enfermedad con una mayor focalización y sensibilidad química. Después de diagnosticar una afección, la nanomedicina puede emplearse de manera más eficiente para atacar las células, al tiempo que se reducen los efectos secundarios y el daño a las células sanas. Ya se están utilizando varios productos, incluida la doxorrubicina nanoencapsulada mencionada anteriormente . En esencia, los desafíos futuros incluyen avances en la carga y liberación de medicamentos y el mayor desarrollo del potencial para diagnosticar y tratar las nanopartículas metálicas .Como toda tecnología avanzada, la nanomedicina debe contrarrestar su atractivo potencial frente a los peligros del futuro. Como ocurre con cualquier dispositivo y tratamiento médico, la nanomedicina debe controlarse rigurosamente y evaluarse a fondo antes de tratar a los pacientes con todo su potencial, se deben realizar evaluaciones de toxicidad y estudios clínicos en varias etapas. En el futuro, la nanotecnología puede detectar problemas sobre el terreno en lugar de depender de una combinación de datos procedentes de sensores externos, conocimientos médicos y algoritmos de diagnóstico probabilísticos. El uso de la nanotecnología por parte de los atletas también podría ser una aplicación adicional para evaluar qué músculos tienen una circulación excelente y desarrollan menos ácido láctico, lo que permitiría a los atletas reaccionar ante sus músculos menos efectivos modificando la frecuencia y el entrenamiento. Estos pueden ajustar su eficiencia y maximizar su potencial muscular menos efectivo.
9. Limitaciones
Los problemas de reproducibilidad y control de calidad de los nanomateriales, el establecimiento de escalabilidad y mayores tasas de producción, y la gestión de subproductos no deseados de la nanoingeniería son barreras científicas y tecnológicas importantes. El precio sigue siendo muy alto, mientras que las nanopartículas siguen siendo desconocidas en cuanto a sus consecuencias para la salud y el medio ambiente. Por lo tanto, continúan los obstáculos estructurales para la implementación; los inversores siguen siendo cautelosos y las inversiones nanoterapéuticas son relativamente reticentes para las industrias farmacéuticas. Aunque la nanotecnología tiene muchas nuevas aplicaciones potenciales, su uso en las ciencias biológicas está limitado por ciertos obstáculos que deben eliminarse con mayor frecuencia antes de su uso. La aplicación de la nanotecnología in vivo todavía plantea preocupaciones sobre su influencia a corto y largo plazo en el cuerpo. Debido al pequeño número de partículas en los tratamientos, estas partículas pueden eludir completamente el sistema inmunológico, sortear obstáculos naturales y acumularse en tejidos específicos, lo que ocasionalmente puede dar lugar a una masa que el cuerpo no puede percibir fácilmente.
10. Conclusión
La revolución de la atención sanitaria está impulsada por la nanotecnología, que hace hincapié en la gestión preventiva de la salud de la población. La nanotecnología ayuda a resolver el problema de la administración de tratamientos específicos, reduce el peligro de efectos secundarios y maximiza la eficacia terapéutica. Esta tecnología es adecuada para identificar, tratar y realizar terapias genéticas contra el cáncer. La nanomedicina es el uso más prometedor de la nanorrobótica .Sus aplicaciones abarcan varios campos, como la creación de vacunas, la administración de medicamentos, equipos portátiles, equipos de diagnóstico y obtención de imágenes y productos antimicrobianos. Se prevé que el desarrollo de medicamentos más eficaces, dispositivos mejorados y la detección temprana de diversas enfermedades conduzcan a la nanomedicina. La combinación de medicamentos estándar contra el cáncer con tecnologías a nanoescala puede atravesar intactos y circular dentro del cerebro.Esta tecnología ofrece enormes mercados potenciales y beneficios, clases completas de medicamentos actuales. La nanomedicina se produce mediante una mezcla crítica de manganeso y citrato utilizando técnicas nanotecnológicas. Es posible desarrollar mecanismos personalizados para la administración de medicamentos, nuevos métodos de diagnóstico y dispositivos médicos a nanoescala.