Frederik Federspiel,Ruth Mitchell, Asha Asokan, Carlos Umana, avid McCoy
La inteligencia artificial (IA) se define ampliamente como una máquina con la capacidad de realizar tareas como poder calcular, analizar, razonar, aprender y descubrir significado.1 Su desarrollo y aplicación están avanzando rápidamente en términos de «IA estrecha», donde solo se lleva a cabo un conjunto limitado y enfocado de tareas.2 y IA «amplia» o «más amplia» donde se realizan múltiples funciones y diferentes tareas.3
La IA tiene el potencial de revolucionar la atención médica al mejorar el diagnóstico, ayudar a desarrollar nuevos tratamientos, apoyar a los proveedores y extender la atención médica más allá del centro de salud y a más personas.4–7 Estos impactos beneficiosos provienen de aplicaciones tecnológicas como el procesamiento del lenguaje, las herramientas de apoyo a la decisión, el reconocimiento de imágenes, el análisis de big data, la robótica y más.8–10 Existen aplicaciones similares de la IA en otros sectores con el potencial de beneficiar a la sociedad.
Sin embargo, como con todas las tecnologías, la IA se puede aplicar de maneras que son perjudiciales. Los riesgos asociados con la medicina y la atención médica incluyen la posibilidad de que los errores de IA causen daño al paciente,11 12 Problemas con la privacidad y seguridad de los datos13–15 y el uso de la IA de manera que empeore las desigualdades sociales y de salud, ya sea incorporando sesgos humanos existentes y patrones de discriminación en algoritmos automatizados o implementando IA de manera que refuerce las desigualdades sociales en el acceso a la atención médica.16 Un ejemplo de daño acentuado por datos incompletos o sesgados fue el desarrollo de un oxímetro de pulso impulsado por IA que sobreestimó los niveles de oxígeno en sangre en pacientes con piel más oscura, lo que resultó en el tratamiento insuficiente de su hipoxia.17 También se ha demostrado que los sistemas de reconocimiento facial son más propensos a clasificar erróneamente el género en sujetos de piel más oscura.18 También se ha demostrado que las poblaciones que están sujetas a discriminación están subrepresentadas en los conjuntos de datos subyacentes a las soluciones de IA y, por lo tanto, se les pueden negar todos los beneficios de la IA en la atención médica.16 19 20
Aunque existe cierto reconocimiento de los riesgos y daños potenciales asociados con la aplicación de la IA en la medicina y la atención médica,11–16 20 todavía hay poca discusión dentro de la comunidad de la salud sobre las amenazas sociales, políticas, económicas y de seguridad más amplias y más ascendentes que plantea la IA. Con la excepción de algunas voces,9 10 la literatura sanitaria existente que examina los riesgos que plantea la IA se centra en los asociados con la aplicación limitada de la IA en el sector de la salud.11–16 20 Este documento busca ayudar a llenar este vacío. Describe tres amenazas asociadas con el posible uso indebido de la IA estrecha, antes de examinar la posible amenaza existencial de la IA de propósito general que se mejora a sí misma, o inteligencia general artificial (AGI) (Figura 1). Luego hace un llamamiento a la comunidad médica y de salud pública para que profundice su comprensión sobre el poder emergente y el potencial transformador de la IA y que se involucre en los debates políticos actuales sobre cómo se pueden mitigar los riesgos y amenazas de la IA sin perder las recompensas y beneficios potenciales de la IA.

Amenazas planteadas por el posible uso indebido de la inteligencia artificial (IA) para la salud y el bienestar humanos, y amenazas a nivel existencial para la humanidad planteadas por la inteligencia general artificial (AGI) que mejora a sí misma.
Amenazas del mal uso de la inteligencia artificial
En esta sección, describimos tres conjuntos de amenazas asociadas con el uso indebido de la IA, ya sea deliberada, negligente, accidental o debido a la falta de anticipación y preparación para adaptarse a los impactos transformadores de la IA en la sociedad.
El primer conjunto de amenazas proviene de la capacidad de la IA para limpiar, organizar y analizar rápidamente conjuntos de datos masivos que consisten en datos personales, incluidas las imágenes recopiladas por la presencia cada vez más ubicua de cámaras, y para desarrollar campañas de marketing e información altamente personalizadas y específicas, así como sistemas de vigilancia muy ampliados. Esta capacidad de la IA puede aprovecharse, por ejemplo, mejorando nuestro acceso a la información o contrarrestando actos de terrorismo. Pero también puede ser mal utilizado con graves consecuencias.
El uso de este poder para generar ingresos comerciales para las plataformas de redes sociales, por ejemplo, ha contribuido al aumento de la polarización y las opiniones extremistas observadas en muchas partes del mundo.21 También ha sido aprovechado por otros actores comerciales para crear una vasta y poderosa infraestructura de marketing personalizado capaz de manipular el comportamiento del consumidor. La evidencia experimental ha demostrado cómo la IA utilizada a escala en las plataformas de redes sociales proporciona una herramienta potente para que los candidatos políticos manipulen su camino hacia el poder.22 23 Y, de hecho, se ha utilizado para manipular la opinión política y el comportamiento de los votantes.24–26 Los casos de subversión de las elecciones impulsada por la IA incluyen las elecciones kenianas de 2013 y 2017.27 las elecciones presidenciales de Estados Unidos de 2016 y las elecciones presidenciales francesas de 2017.28 29
Cuando se combina con la capacidad de mejorar rápidamente para distorsionar o tergiversar la realidad con deepfakes, los sistemas de información impulsados por la IA pueden socavar aún más la democracia al causar una ruptura general de la confianza o al impulsar la división social y el conflicto.26–28 con los consiguientes impactos en la salud pública.
La vigilancia impulsada por la IA también puede ser utilizada por los gobiernos y otros actores poderosos para controlar y oprimir a las personas de manera más directa. Esto quizás se ilustre mejor con el Sistema de Crédito Social de China, que combina software de reconocimiento facial y análisis de repositorios de «big data» de las transacciones financieras, movimientos, registros policiales y relaciones sociales de las personas para producir evaluaciones del comportamiento individual y la confiabilidad, lo que resulta en la sanción automática de individuos que se considera que se han comportado mal.30 31 Las sanciones incluyen multas, negar a las personas el acceso a servicios como servicios bancarios y de seguros, o impedirles viajar o enviar a sus hijos a escuelas de pago. Este tipo de aplicación de IA también puede exacerbar las desigualdades sociales y de salud y encerrar a las personas en sus estratos socioeconómicos existentes. Pero China no está sola en el desarrollo de la vigilancia de la IA. Al menos 75 países, que van desde democracias liberales hasta regímenes militares, han estado expandiendo tales sistemas.32 Aunque la democracia y los derechos a la privacidad y la libertad pueden erosionarse o negarse sin IA, el poder de la IA facilita que los regímenes autoritarios o totalitarios se establezcan o solidifiquen y también que dichos regímenes puedan perseguir y oprimir a individuos o grupos particulares de la sociedad.30 33
El segundo conjunto de amenazas se refiere al desarrollo de sistemas de armas autónomas letales (LAWS). Hay muchas aplicaciones de la IA en los sistemas militares y de defensa, algunas de las cuales pueden utilizarse para promover la seguridad y la paz. Pero los riesgos y amenazas asociados con LAWS superan cualquier beneficio putativo.
Las armas son autónomas en la medida en que pueden localizar, seleccionar y «atacar» objetivos humanos sin supervisión humana.34 Se dice que esta deshumanización de la fuerza letal constituye la tercera revolución en la guerra, después de la primera y segunda revoluciones de la pólvora y las armas nucleares.34–36 Las armas autónomas letales vienen en diferentes tamaños y formas. Pero crucialmente, incluyen armas y explosivos, que pueden estar conectados a dispositivos pequeños, móviles y ágiles (por ejemplo, drones quadcopter) con la inteligencia y la capacidad de autopilotar y capaces de percibir y navegar por su entorno. Además, tales armas podrían producirse en masa a bajo costo y configurarse con relativa facilidad para matar a escala industrial.36 37 Por ejemplo, es posible que un millón de pequeños drones equipados con explosivos, capacidad de reconocimiento visual y capacidad de navegación autónoma estén contenidos dentro de un contenedor de envío regular y programados para matar en masa sin supervisión humana.36
Al igual que con las armas químicas, biológicas y nucleares, LAWS presenta a la humanidad una nueva arma de destrucción masiva, una que es relativamente barata y que también tiene el potencial de ser selectiva sobre quién o qué es el objetivo. Esto tiene profundas consecuencias para la conducción futura de los conflictos armados, así como para la seguridad internacional, nacional y personal en general. Se han celebrado debates en varios foros sobre cómo prevenir la proliferación de LAWS, y sobre si tales sistemas pueden mantenerse a salvo de la infiltración cibernética o del uso indebido accidental o deliberado.34–36
El tercer conjunto de amenazas surge de la pérdida de empleos que acompañará al despliegue generalizado de la tecnología de IA. Las proyecciones de la velocidad y la escala de las pérdidas de empleos debido a la automatización impulsada por la IA varían de decenas a cientos de millones en la próxima década.38 Mucho dependerá de la velocidad de desarrollo de la IA, la robótica y otras tecnologías relevantes, así como de las decisiones políticas tomadas por los gobiernos y la sociedad. Sin embargo, en una encuesta de los autores más citados sobre IA en 2012/2013, los participantes predijeron la automatización completa del trabajo humano poco después de finales de este siglo.39 Ya se anticipa que en esta década, la automatización impulsada por la IA tendrá un impacto desproporcionado en los países de ingresos bajos / medios al reemplazar los empleos menos calificados.40 y luego continuar ascendiendo en la escala de habilidades, reemplazando segmentos cada vez más grandes de la fuerza laboral mundial, incluso en países de altos ingresos.
Si bien habría muchos beneficios al terminar un trabajo repetitivo, peligroso y desagradable, ya sabemos que el desempleo está fuertemente asociado con resultados y comportamientos adversos para la salud, incluido el consumo nocivo de alcohol.41–44 y drogas ilícitas,43 44 tener sobrepeso,43 y tener una menor calidad de vida autoevaluada41 45 y salud46 y niveles más altos de depresión44 y riesgo de suicidio.41 47 Sin embargo, una visión optimista de un futuro en el que los trabajadores humanos sean reemplazados en gran medida por la automatización mejorada por la IA incluiría un mundo en el que la mejora de la productividad sacaría a todos de la pobreza y pondría fin a la necesidad de trabajo y trabajo. Sin embargo, la cantidad de explotación que nuestro planeta puede sostener para la producción económica es limitada, y no hay garantía de que la productividad adicional de la IA se distribuya de manera justa en toda la sociedad. Hasta ahora, la creciente automatización ha tendido a trasladar los ingresos y la riqueza del trabajo a los propietarios del capital, y parece contribuir al creciente grado de mala distribución de la riqueza en todo el mundo.48–51 Además, no sabemos cómo responderá la sociedad psicológica y emocionalmente a un mundo donde el trabajo no está disponible o es innecesario, ni estamos pensando mucho en las políticas y estrategias que serían necesarias para romper la asociación entre desempleo y mala salud.
La amenaza de la inteligencia general artificial que se mejora a sí misma
La IA de propósito general que se mejora a sí misma, o AGI, es una máquina teórica que puede aprender y realizar toda la gama de tareas que los humanos pueden.52 53 Al ser capaz de aprender y mejorar recursivamente su propio código, podría mejorar su capacidad para mejorarse a sí mismo y teóricamente podría aprender a evitar cualquier restricción en su código y comenzar a desarrollar sus propios propósitos, o alternativamente podría ser equipado con esta capacidad desde el principio por humanos.54 55
La visión de una máquina consciente, inteligente y decidida capaz de realizar toda la gama de tareas que los humanos pueden realizar ha sido objeto de escritura académica y de ciencia ficción durante décadas. Pero independientemente de si es consciente o no, o tiene un propósito o no, una máquina de propósito general que se mejora a sí misma o autoaprende con inteligencia y rendimiento superiores en múltiples dimensiones tendría graves impactos en los humanos.
Ahora estamos tratando de crear máquinas que sean mucho más inteligentes y poderosas que nosotros. El potencial de tales máquinas para aplicar esta inteligencia y poder, ya sea deliberadamente o no, de maneras que podrían dañar o subyugar a los humanos, es real y debe considerarse. Si se realiza, la conexión de AGI a Internet y al mundo real, incluso a través de vehículos, robots, armas y todos los sistemas digitales que dirigen cada vez más nuestras sociedades, bien podría representar el «mayor evento en la historia de la humanidad».53 Aunque los efectos y el resultado de AGI no se pueden conocer con certeza, se pueden prever múltiples escenarios. Estos incluyen escenarios en los que AGI, a pesar de su inteligencia y poder superiores, permanece bajo control humano y se utiliza para beneficiar a la humanidad. Alternativamente, podríamos ver AGI operando independientemente de los humanos y coexistiendo con los humanos de una manera benigna. Lógicamente, sin embargo, hay escenarios en los que AGI podría presentar una amenaza para los humanos, y posiblemente una amenaza existencial, al causar daño directa o indirectamente, intencionalmente o no, al atacar o subyugar a los humanos o al interrumpir los sistemas o agotar los recursos de los que dependemos.56 57 Una encuesta de miembros de la sociedad de IA predijo una probabilidad del 50% de que se desarrolle AGI entre 2040 y 2065, y el 18% de los participantes cree que el desarrollo de AGI sería existencialmente catastrófico.58 Actualmente, docenas de instituciones están llevando a cabo investigación y desarrollo en AGI.59
Evaluación del riesgo y prevención de daños
Muchas de las amenazas descritas anteriormente surgen del mal uso deliberado, accidental o descuidado de la IA por parte de los humanos. Incluso el riesgo y la amenaza planteados por una forma de AGI que existe y opera independientemente del control humano todavía está actualmente en manos de los humanos. Sin embargo, existen diferentes opiniones sobre el grado de riesgo que plantea la IA y sobre las compensaciones relativas entre el riesgo y la recompensa potencial, y los daños y beneficios.
No obstante, con un crecimiento exponencial en la investigación y el desarrollo de la IA,60 61 La ventana de oportunidad para evitar daños graves y potencialmente existenciales se está cerrando. Los resultados futuros del desarrollo de la IA y la IAG dependerán de las decisiones políticas que se tomen ahora y de la eficacia de las instituciones reguladoras que diseñemos para minimizar el riesgo y el daño y maximizar los beneficios. De manera crucial, al igual que con otras tecnologías, prevenir o minimizar las amenazas planteadas por la IA requerirá un acuerdo y cooperación internacionales, y evitar una «carrera armamentista» de IA mutuamente destructiva. También requerirá una toma de decisiones libre de conflictos de intereses y protegida del cabildeo de actores poderosos con intereses creados. Es preocupante que las grandes corporaciones privadas con intereses financieros creados y poca supervisión democrática y pública estén liderando en el campo de la investigación de AGI.59
Diferentes partes del sistema de las Naciones Unidas están ahora comprometidas en un esfuerzo desesperado para garantizar que nuestras instituciones sociales, políticas y legales internacionales se pongan al día con los rápidos avances tecnológicos que se están realizando con la IA. En 2020, por ejemplo, la ONU estableció un Panel de Alto Nivel sobre Cooperación Digital para fomentar el diálogo global y los enfoques cooperativos para un futuro digital seguro e inclusivo.62 En septiembre de 2021, el jefe de la Oficina del Comisionado de Derechos Humanos de la ONU pidió a todos los Estados que establecieran una moratoria sobre la venta y el uso de sistemas de IA hasta que se establezcan salvaguardias adecuadas para evitar los riesgos «negativos, incluso catastróficos» que plantean.63 Y en noviembre de 2021, los 193 estados miembros de la UNESCO adoptaron un acuerdo para guiar la construcción de la infraestructura legal necesaria para garantizar el desarrollo ético de la IA.64 Sin embargo, la ONU aún carece de un instrumento legalmente vinculante para regular la IA y garantizar la rendición de cuentas a nivel mundial.
A nivel regional, la Unión Europea tiene una Ley de Inteligencia Artificial65 que clasifica los sistemas de IA en tres categorías: riesgo inaceptable, alto riesgo y riesgo limitado y mínimo. Esta Ley podría servir como un trampolín hacia un tratado global, aunque todavía no cumple con los requisitos necesarios para proteger varios derechos humanos fundamentales y evitar que la IA se utilice de manera que agrave las desigualdades y la discriminación existentes.
También ha habido esfuerzos centrados en LAWS, con un número creciente de voces que piden una regulación más estricta o una prohibición absoluta, tal como lo hemos hecho con las armas biológicas, químicas y nucleares. Los Estados partes de la Convención de las Naciones Unidas sobre ciertas armas convencionales han estado discutiendo sistemas de armas autónomas letales desde 2014, pero el progreso ha sido lento.66
¿Qué puede y debe hacer la comunidad médica y de salud pública? Quizás lo más importante es simplemente dar la alarma sobre los riesgos y amenazas que plantea la IA, y argumentar que la velocidad y la seriedad son esenciales si queremos evitar las diversas consecuencias dañinas y potencialmente catastróficas de las tecnologías mejoradas por IA que se desarrollan y utilizan sin las salvaguardias y la regulación adecuadas. Es importante destacar que la comunidad de salud está familiarizada con el principio de precaución67 y ha demostrado su capacidad para moldear la opinión pública y política sobre las amenazas existenciales en el pasado. Por ejemplo, los Médicos Internacionales para la Prevención de la Guerra Nuclear fueron galardonados con el Premio Nobel de la Paz en 1985 porque reunieron argumentos de principios, autorizados y basados en evidencia sobre las amenazas de una guerra nuclear. Debemos hacer lo mismo con la IA, incluso cuando partes de nuestra comunidad defienden los beneficios de la IA en los campos de la salud y la medicina.
También es importante que no solo dirijamos nuestras preocupaciones a la IA, sino también a los actores que están impulsando el desarrollo de la IA demasiado rápido o de manera demasiado imprudente, y a aquellos que solo buscan implementar la IA con fines egoístas o malignos. Si la IA quiere cumplir alguna vez su promesa de beneficiar a la humanidad y a la sociedad, debemos proteger la democracia, fortalecer nuestras instituciones de interés público y diluir el poder para que haya controles y equilibrios efectivos. Esto incluye garantizar la transparencia y la rendición de cuentas de las partes del complejo industrial militar-corporativo que impulsan los desarrollos de IA y las compañías de redes sociales que permiten que la desinformación dirigida e impulsada por la IA socave nuestras instituciones democráticas y los derechos a la privacidad.
Finalmente, dado que el mundo del trabajo y el empleo cambiará drásticamente en las próximas décadas, debemos desplegar nuestra experiencia clínica y de salud pública en la defensa basada en la evidencia para un replanteamiento fundamental y radical de la política social y económica para permitir que las generaciones futuras prosperen en un mundo en el que el trabajo humano ya no es un componente central o necesario para la producción de bienes y servicios.