PUBLICADO: mayo 9, 2025 | 11:54 am

Chatbots médicos bajo escrutinio: estudio revela limitaciones en la precisión del asesoramiento de IA

Chatbots médicos bajo escrutinio: estudio revela limitaciones en la precisión del asesoramiento de IA

Escucha esta noticia:

Cargando audio...

La creciente accesibilidad de los modelos de lenguaje de gran escala (LLM), como ChatGPT, Llama 3 o Command R+, ha fomentado su uso como primera línea de consulta médica por parte de miles de personas y están siendo conocidos como Chatbots médicos. Sin embargo, un estudio publicado recientemente en el servidor de preimpresión arXiv ha puesto en duda su fiabilidad en contextos clínicos reales, comparando sus respuestas con las de otras fuentes tradicionales de información médica.

El experimento, llevado a cabo por equipos de investigación interdisciplinarios en inteligencia artificial y medicina, involucró a 1.298 voluntarios que fueron asignados aleatoriamente a utilizar un chatbot de IA o sus métodos habituales de consulta, como motores de búsqueda o su propio criterio, frente a un conjunto de situaciones clínicas simuladas.

Comunicación incompleta y errores en el diagnóstico

Uno de los hallazgos más consistentes del estudio fue la dificultad de los chatbots para manejar casos clínicos cuando la información proporcionada por los usuarios era incompleta, un escenario común en consultas reales. Según los autores, las interacciones estuvieron marcadas por «numerosos fallos en la comunicación bidireccional», lo que afectó la calidad y exactitud del diagnóstico sugerido.

Además, al comparar las opciones diagnósticas y terapéuticas ofrecidas por los LLM con las obtenidas mediante recursos en línea o la intuición del paciente, los investigadores encontraron que los chatbots médicos no ofrecían un desempeño consistentemente superior. En algunos casos, incluso mostraron un rendimiento inferior, generando recomendaciones inadecuadas o disminuyendo la probabilidad de que los voluntarios reconocieran la gravedad de sus síntomas.

“Los voluntarios a menudo omitían información clave, lo que impedía que los modelos de IA entendieran adecuadamente el cuadro clínico, comprometiendo la precisión de la respuesta”, señalaron los autores del estudio.

Bw700-p5-pc-sktop-banner-de-bienvenida-cs-mex-01

Riesgo de subestimación de síntomas y confianza infundada en los chatbots médicos

Una de las principales preocupaciones identificadas fue que el uso de chatbots podría conducir a una subestimación de la severidad de ciertas patologías, lo que representa un riesgo directo para la salud de los usuarios. Según el análisis, este efecto se observó en varios escenarios, donde el chatbot no logró alertar sobre signos clínicos críticos ni recomendar atención médica inmediata.

Este fenómeno plantea interrogantes sobre la confianza infundada que los pacientes podrían depositar en estas herramientas, especialmente en entornos donde el acceso a profesionales de salud está limitado o postergado. Aunque los LLM tienen potencial para complementar la educación en salud, los autores del estudio concluyen que no deben reemplazar la consulta con un profesional médico calificado.

Reflexión sobre la función asistencial de la IA en salud

Los resultados del estudio destacan la importancia de comprender los límites actuales de la inteligencia artificial en el ámbito médico. Aunque los LLM han demostrado capacidad para aprobar exámenes médicos con puntuaciones sobresalientes, su desempeño frente a usuarios reales y en situaciones no estructuradas continúa siendo inconsistente.

La investigación sugiere que estas tecnologías podrían desempeñar un rol complementario si se diseñan con mejores mecanismos de interacción clínica, reconocimiento de incertidumbre diagnóstica y generación de alertas adecuadas para escenarios críticos. No obstante, el acompañamiento de profesionales en salud sigue siendo indispensable, tanto para la correcta interpretación de síntomas como para la toma de decisiones terapéuticas.

Publicado por:

Temas relacionados:

RELACIONADAS

Otras noticias para ti

¡Suscríbete y recibe contenido exclusivo!