Imagen ilustrativa, Tara Winstead. Pexels

Como residente de cuarto año de oftalmología en la Facultad de Medicina de la Universidad Emory, Riley Lyons es responsable del triaje (la clasificación rápida de pacientes en base a la atención que necesitan). Cuando llega alguien con un dolor en los ojos, Lyons debe evaluar inmediatamente la urgencia.

Y a menudo se encuentra con que los pacientes ya han “visitado” al «doctor Google». En Internet, dijo Lyons, es probable que vean que «podrían tener muchas cosas terribles en base a sus síntomas».

Por eso, cuando dos colegas oftalmólogos en Emory se acercaron a Lyons y le propusieron evaluar la precisión del chatbot de inteligencia artificial (IA) ChatGPT para diagnosticar dolencias relacionadas con la vista, no dejó escapar la oportunidad.

En junio, Lyons y sus colegas publicaron en medRxiv, un editor en línea de documentos de preimpresión sobre ciencias de la salud, que ChatGPT podía compararse a los médicos humanos que revisaban los mismos síntomas, y su rendimiento era mucho mejor que el del comprobador de síntomas del popular sitio web de salud WebMD.

Y, a pesar del conocido problema de «alucinación» que aqueja a ChatGPT —su hábito de realizar ocasionalmente afirmaciones totalmente falsas—, el estudio de Emory señalaba que la versión más reciente de ChatGPT no realizaba ninguna afirmación «extremadamente inexacta» cuando se le presentó un conjunto estándar de quejas oculares.

La relativa eficacia de ChatGPT, que debutó en noviembre de 2022, fue una sorpresa para Lyons y los otros coautores. El motor de inteligencia artificial «es sin duda una mejora con respecto a poner algo en la barra de búsqueda de Google y ver qué se encuentra», afirmó el coautor Nieraj Jain, profesor del Centro Oftalmológico Emory especializado en cirugía y enfermedades de la retina.

Pero los resultados ponen de relieve un reto al que se enfrenta el sector de salud a la hora de evaluar las promesas y los peligros de la IA generativa, el tipo de inteligencia artificial que utiliza ChatGPT: la precisión de la información médica proporcionada por un chatbot puede suponer una mejora con respecto a Google, pero aún quedan muchos interrogantes. Especialmente cómo integrar en los sistemas de salud esta nueva tecnología con las mismas normas de seguridad que se aplican para los nuevos fármacos o dispositivos médicos.

La sintaxis fluida, el tono de autoridad y la destreza de la IA generativa han atraído a todos los sectores de la sociedad, y algunos comparan su impacto futuro con el de la propia Internet. En salud, las empresas trabajan febrilmente para implantar la IA generativa en ámbitos como la radiología y los historiales médicos.

Sin embargo, en lo que respecta a los chatbots para consumidores, sigue habiendo cautela, a pesar de que la tecnología ya está ampliamente disponible, y es mejor que muchas alternativas.

Muchos médicos creen que las herramientas médicas basadas en IA deberían someterse a un proceso de aprobación similar al de la Administración de Drogas y Alimentos (FDA) para los fármacos, pero para eso aún faltan años. No está claro cómo se aplicaría ese régimen a la IA de uso general como ChatGPT.

«No hay duda de que tenemos problemas de acceso a la atención de salud, y ya sea una buena idea o no desplegar ChatGPT para cubrir los agujeros o llenar las lagunas en el acceso, va a suceder y ya está sucediendo», dijo Jain. «Las personas ya han descubierto su utilidad. Así que tenemos que entender las posibles ventajas y los inconvenientes».

El estudio de Emory no es el único que ratifica la relativa precisión de la nueva generación de chatbots de IA. Un informe publicado en Nature a principios de julio por un grupo dirigido por informáticos de Google afirmaba que las respuestas generadas por Med-PaLM, un chatbot de IA que la empresa construyó específicamente para uso médico, «se comparan favorablemente con las respuestas de los médicos».

La IA también puede tener mejores modales. Otro estudio, publicado en abril por investigadores de la Universidad de California-San Diego (UCSD) y otras instituciones, señalaba incluso que los profesionales de salud calificaban las respuestas de ChatGPT como más empáticas que las de los médicos humanos.

De hecho, varias empresas se plantean cómo podrían utilizarse los chatbots para terapias de salud mental, y algunos inversores apuestan por que las personas sanas también podrían disfrutar chateando e incluso estrechando lazos con un «amigo» de IA. La empresa detrás de Replika, una de las más avanzadas de este género, comercializa su chatbot como «El compañero de IA que se preocupa. Siempre aquí para escuchar y hablar. Siempre a tu lado».

«Necesitamos que los médicos empiecen a darse cuenta de que estas nuevas herramientas han llegado para quedarse y ofrecen nuevas capacidades tanto a médicos como a pacientes», afirmó James Benoit, consultor en IA. Cuando era becario posdoctoral de enfermería en la Universidad de Alberta, en Canadá, publicó un estudio en febrero en el que informaba que ChatGPT superaba significativamente a los comprobadores de síntomas en línea al evaluar un conjunto de escenarios médicos. «Son lo bastante precisos como para empezar a merecer cierta consideración», añadió.

Aun así, incluso los investigadores que han demostrado la relativa fiabilidad de ChatGPT se muestran cautos a la hora de recomendar a los pacientes que confíen plenamente en el estado actual de la IA. Para muchos profesionales de la medicina, los chatbots de IA pueden traer problemas. Citan una serie de cuestiones relacionadas con la privacidad, la seguridad, la parcialidad, la responsabilidad, la transparencia y la ausencia actual de regulaciones.

La propuesta de que se debería adoptar la IA porque representa una mejora marginal con respecto al doctor Google es poco convincente, según estos críticos.

«Resulta un poco decepcionante que ese sea el nivel, ¿no es cierto?”, señaló Mason Marks, profesor y doctor especializado en derecho de salud de la Universidad Estatal de Florida. Recientemente escribió un artículo de opinión sobre chatbots de IA y privacidad en el Journal of the American Medical Association. «No sé hasta qué punto es útil decir: ‘Bueno, pongamos esta IA conversacional como un remiendo para compensar estos problemas sistémicos más profundos'», declaró a KFF Health News.

El mayor peligro, en su opinión, es la probabilidad de que los incentivos del mercado den lugar a interfases de IA diseñadas para dirigir a los pacientes hacia determinados medicamentos o servicios médicos. «Las empresas podrían querer imponer un producto concreto sobre otro», sugirió Marks. «El potencial de explotación de las personas y la comercialización de los datos no tendría precedentes».

OpenAI, la empresa que desarrolló ChatGPT, también pidió cautela.

«Los modelos de OpenAI no están afinados para proporcionar información médica», dijo un vocero de la compañía. «Nunca se deberían utilizar nuestros modelos para proporcionar servicios de diagnóstico o tratamiento de afecciones médicas graves».

John Ayers, epidemiólogo computacional que fue el autor principal del estudio de la UCSD, dijo que, al igual que con otras intervenciones médicas, la atención debe centrarse en los resultados para los pacientes.

«Si los reguladores dijeran que si quieres proporcionar servicios a los pacientes utilizando un chatbot, tienes que demostrar que los chatbots mejoran los resultados de los pacientes, entonces los ensayos controlados aleatorios se registrarían mañana para obtener una gran cantidad de resultados», explicó Ayers a quien le gustaría ver una actitud de urgencia por parte de los reguladores.

«Cien millones de personas tienen ChatGPT en su teléfono», añadió Ayers, «y están haciendo preguntas ahora mismo. La gente va a usar chatbots con o sin nosotros».

Por ahora, no parece que se vaya a someter a la IA a pruebas rigurosas de seguridad y eficacia. En mayo, Robert Califf, comisionado de la FDA, describió «la regulación de los grandes modelos lingüísticos como crítico para nuestro futuro», pero más allá de recomendar que los reguladores fueran «ágiles» en su enfoque, ofreció pocos detalles.

Mientras tanto, la carrera continúa.

En julio, The Wall Street Journal informó que la Clínica Mayo se asociaba con Google para integrar el chatbot Med-PaLM 2 en su sistema. En junio, WebMD anunció que se asociaba con una startup de Pasadena, California, HIA Technologies Inc, para ofrecer «asistentes de salud digitales» interactivos. Y la actual integración de la IA tanto en Bing de Microsoft como en Google Search sugiere que el doctor Google ya va camino de ser sustituido por el doctor Chatbot.

Esta historia fue producida por KFF Health News, una redacción nacional enfocada en el tratamiento en profundidad de temas de salud, que es uno de los principales programas de KFF, la fuente independiente de investigación de políticas de salud, encuestas y periodismo.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí