Cuando Judith Miller se hizo un análisis de sangre rutinario en julio, recibió una alerta en su teléfono ese mismo día indicando que sus resultados ya estaban disponibles en línea.
Así que, cuando su doctor le escribió al día siguiente para decirle que en general todo estaba bien, Miller le preguntó sobre el nivel elevado de dióxido de carbono y la brecha aniónica baja que aparecían en el informe.
Mientras esta residente de Milwaukee, de 76 años, esperaba la respuesta, hizo lo que cada vez más pacientes hacen cuando no logran comunicarse con su médico: ingresó sus resultados en Claude y le pidió al asistente de inteligencia artificial (IA) que los evaluara.
“Claude me ayudó a entender claramente las anomalías”, dijo Miller. El modelo de IA no reportó nada alarmante, así que no se sintió ansiosa mientras esperaba noticias de su doctor, contó.
Hoy en día, los pacientes tienen un acceso sin precedentes a sus expedientes médicos, usualmente a través de portales como MyChart, debido a que la ley federal exige que las organizaciones de salud liberen de inmediato la información médica electrónica, como las notas de visitas médicas y los resultados de pruebas.
Un estudio publicado en 2023 encontró que el 96% de los pacientes encuestados quieren acceso inmediato a sus resultados, aunque su proveedor aún no los haya revisado.
Y muchos pacientes están utilizando modelos de lenguaje a gran escala (LLM, en inglés), como ChatGPT de OpenAI, Claude de Anthropic y Gemini de Google, para interpretar sus datos médicos. Sin embargo, esta ayuda conlleva ciertos riesgos.
Médicos y defensores de pacientes advierten que los chatbots de IA pueden dar respuestas equivocadas y que podría no respetarse la privacidad de la información médica.
Pero la mayoría de los adultos muestra precaución ante el uso de la IA en temas de salud. El 56% de las personas que usan o interactúan con esta tecnología no confía en que la información proporcionada por los chatbots de IA sea precisa, según una encuesta realizada en 2024 por KFF.
“Los LLM son teóricamente muy poderosos y pueden dar excelentes consejos, pero también pueden dar recomendaciones terribles dependiendo de cómo se les formule la pregunta”, dijo Adam Rodman, médico internista del Centro Médico Beth Israel Deaconess en Massachusetts y presidente de un grupo que analiza y toma decisiones sobre la inteligencia artificial generativa en la Facultad de Medicina de Harvard.
Justin Honce, neuroradiólogo de UCHealth en Colorado, dijo que para los pacientes sin formación médica es muy difícil saber si los chatbots de IA están cometiendo errores.
“De lo que se trata es de tener precaución al usar los LLM. Con los modelos más recientes, estos riesgos se han ido reduciendo, pero aún no se han resuelto del todo”, afirmó Honce.
Rodman ha notado un aumento en el uso de IA entre sus pacientes en los últimos seis meses. En un caso, un paciente tomó una captura de pantalla de sus resultados de laboratorio en MyChart y los subió a ChatGPT para preparar preguntas antes de su cita. Rodman dijo que le parece positivo que los pacientes le muestren cómo usan la IA: eso abre una oportunidad para el diálogo.
Aproximadamente 1 de cada 7 adultos mayores de 50 años usa IA para obtener información de salud, según una encuesta reciente de la Universidad de Michigan. Entre los adultos menores de 30 años, 1 de cada 4 lo hace, según el sondeo de KFF.
Usar internet para defender el derecho a una mejor atención médica no es algo nuevo.
Tradicionalmente, los pacientes han utilizado sitios web como WebMD, PubMed o Google para buscar investigaciones recientes, y han recurrido a otras personas en redes sociales como Facebook o Reddit. Pero la capacidad de los chatbots de IA para generar recomendaciones personalizadas y ofrecer una segunda opinión en un instante sí es novedosa.
Liz Salmi, directora de comunicaciones e iniciativas para pacientes en OpenNotes —un laboratorio académico de Beth Israel Deaconess que promueve la transparencia en la atención de salud— se preguntaba qué tan buena era la IA para interpretar información, especialmente desde el punto de vista del paciente.
En un estudio de prueba de concepto publicado este año, Salmi y sus colegas analizaron la precisión de las respuestas de ChatGPT, Claude y Gemini a preguntas de pacientes sobre un resumen clínico. Los tres modelos de IA tuvieron un buen desempeño, pero la manera en que los pacientes formulaban las preguntas influía, explicó Salmi.
Por ejemplo, decirle al chatbot que actuara como un médico y hacer una pregunta a la vez mejoraba la precisión de las respuestas.
La privacidad es otra preocupación, dijo Salmi, por lo que es fundamental eliminar datos personales como el nombre o el número de Seguro Social antes de usar estas herramientas. La información se envía directamente a las empresas tecnológicas que desarrollaron los modelos de IA, indicó Rodman, quien agregó que no conoce ninguna que cumpla con la ley federal de privacidad ni que tenga en cuenta la seguridad del paciente.
Sam Altman, CEO de OpenAI, advirtió en un podcast en agosto sobre los riesgos de ingresar información personal en ChatGPT.
“Muchas personas que recién empiezan a usar estos modelos no saben lo que son las alucinaciones”, explicó Salmi, refiriéndose a respuestas que parecen lógicas pero que en realidad son incorrectas. Por ejemplo, Whisper —una herramienta de transcripción con IA desarrollada por OpenAI y utilizada en hospitales— llegó a incluir un tratamiento médico ficticio en una transcripción, según reportó la agencia Associated Press.
Usar IA generativa requiere un nuevo tipo de alfabetización digital en salud, que implica hacer preguntas de cierta manera, verificar las respuestas con otros modelos de IA, consultar al médico y proteger la privacidad en línea, dijeron Salmi y Dave deBronkart, sobreviviente de cáncer y defensor de pacientes, quien escribe un blog sobre el uso de IA por parte de pacientes.
Y los pacientes no son los únicos que usan IA para explicar resultados de las pruebas. Stanford Health Care ha lanzado un asistente de IA que ayuda a los médicos a redactar interpretaciones de pruebas clínicas y resultados de laboratorio para enviárselas a los pacientes. Investigadores en Colorado evaluaron la precisión de resúmenes generados por ChatGPT a partir de 30 informes de radiología, y también analizaron la satisfacción de cuatro pacientes con esos resúmenes. De 118 respuestas válidas, 108 indicaron que los resúmenes ayudaron a aclarar detalles del informe original.
Pero ChatGPT a veces exageró o minimizó ciertos hallazgos. Y una pequeña pero significativa cantidad de respuestas indicó que los pacientes quedaron más confundidos después de leer los resúmenes, comentó Honce, quien participó en el estudio preliminar.
Mientras tanto, después de cuatro semanas y un par de mensajes de seguimiento en MyChart, la doctora de Miller ordenó repetir su análisis de sangre y solicitó una prueba adicional que ella misma había sugerido. Los resultados salieron normales. Miller se sintió aliviada y dijo que gracias a sus consultas con la IA estaba mejor informada.
“En ese sentido, es una herramienta muy importante”, expresó. “Me ayuda a organizar mis preguntas, investigar y equilibrar un poco más las cosas”.
KFF Health News is a national newsroom that produces in-depth journalism about health issues and is one of the core operating programs at KFF—an independent source of health policy research, polling, and journalism. Learn more about KFF.
USE OUR CONTENT
This story can be republished for free (details).