PUBLICADO: septiembre 15, 2025 | 10:37 am

ChatGPT como terapeuta: ¿innovación o riesgo en la salud mental?

El debate sobre el uso de ChatGPT como herramienta de apoyo psicológico se intensifica entre profesionales de la salud mental, quienes advierten sobre los riesgos éticos, de seguridad y privacidad que implica recurrir a la inteligencia artificial en contextos terapéuticos.
ChatGPT como terapeuta: ¿innovación o riesgo en la salud mental?

Escucha esta noticia:

Cargando audio...

La accesibilidad y el bajo costo de plataformas como ChatGPT han convertido a la inteligencia artificial en una alternativa atractiva para quienes enfrentan dificultades emocionales o carecen de acceso oportuno a servicios de salud mental. Sin embargo, especialistas de la Universidad de Northeastern advierten que esta práctica puede generar riesgos importantes.

“ChatGPT no es un terapeuta capacitado. No cumple con las obligaciones legales y éticas de los proveedores de servicios de salud mental. Me preocupa la seguridad y el bienestar de las personas que recurren a ChatGPT como su único proveedor”, señaló Jessica Hoffman, profesora de psicología aplicada.

El riesgo radica en que los modelos de lenguaje tienden a validar las respuestas del usuario, lo que puede agravar trastornos previos como la depresión o la ansiedad. En casos extremos, se han reportado suicidios y hospitalizaciones vinculadas a la llamada “psicosis de IA”, lo que refuerza la necesidad de cautela.

Escasez de terapeutas y atractivo de los chatbots

Uno de los factores que impulsa el uso de chatbots en salud mental es la falta de acceso a especialistas. Hoffman explicó que “hay escasez de profesionales, existen barreras con los seguros y problemas reales en zonas rurales donde la escasez es aún mayor. Esto facilita poder simplemente usar la computadora y obtener ayuda”.

En este sentido, plataformas como ChatGPT pueden convertirse en un “oído que escucha” y brindar sensación de acompañamiento. Josephine Au, profesora clínica adjunta, destacó que “las personas no solo recurren a herramientas de IA generativa como ChatGPT para terapia, también buscan compañía, lo que a veces deriva en conversaciones similares a una sesión terapéutica”.

700x250_desktop_webinar-MEX_septiembre_01

No obstante, Au subraya que estas herramientas “no están diseñadas para ser terapéuticas” y que, en usuarios vulnerables, la validación automática de pensamientos puede reforzar ideas dañinas o delirantes.

Riesgos clínicos y éticos del uso de IA como terapia

Uno de los mayores peligros señalados por los expertos es la autopercepción errónea de diagnósticos. ChatGPT puede ofrecer respuestas simplificadas basadas en síntomas reportados, pero carece de la capacidad de realizar evaluaciones estructuradas o integrar variables clínicas como lenguaje corporal, historial médico o contexto psicosocial.

Parece una pendiente resbaladiza”, advirtió Joshua Curtiss, profesor adjunto de psicología aplicada. “Si le digo a ChatGPT que tengo cinco de los nueve síntomas de depresión, dirá que parece que tengo depresión y ahí se queda. Lo que el médico haría es una evaluación clínica estructurada con ejemplos y validaciones sobre el impacto real en la vida del paciente”.

Otro tema crítico es la privacidad. A diferencia de los profesionales de la salud mental, sujetos a regulaciones como la HIPAA en Estados Unidos, los chatbots no ofrecen garantías legales sobre el manejo de información sensible. El propio Sam Altman, director ejecutivo de OpenAI, reconoció que no existe confidencialidad en las interacciones con ChatGPT, lo que expone a los usuarios a riesgos de filtración de datos personales.

Potencial de la inteligencia artificial en apoyo clínico

Si bien el uso directo de ChatGPT como sustituto de un terapeuta genera cuestionamientos, los expertos reconocen que la inteligencia artificial podría ser útil como herramienta complementaria para los profesionales de la salud.

Curtiss señaló que ha utilizado modelos de aprendizaje automático en la predicción de resultados de tratamiento, lo que podría optimizar la planeación clínica. Hoffman, por su parte, considera que la IA puede apoyar en la etapa de evaluación: “Podría ser una herramienta útil para profesionales clínicos en las admisiones y la evaluación, lo que les permitiría diseñar planes de tratamiento más personalizados. Sin embargo, requiere supervisión profesional y debe realizarse en plataformas seguras”.

Asimismo, los chatbots podrían servir para resumir ideas, organizar pensamientos y facilitar la continuidad de recomendaciones médicas, siempre que se usen bajo supervisión clínica.

Una herramienta con potencial, pero no un sustituto terapéutico

El consenso entre los especialistas de Northeastern es que ChatGPT puede desempeñar un papel en la salud mental, pero no como sustituto de la terapia profesional. “Tengo muchas esperanzas, aunque también muchas preocupaciones”, reconoció Au. “Los principales agentes detrás de estas herramientas provienen del sector tecnológico y no de la práctica clínica, lo que puede motivar sesgos orientados al mercado más que al bienestar del paciente”.

En suma, aunque la inteligencia artificial abre posibilidades de innovación, su aplicación en salud mental exige regulación, acompañamiento profesional y garantías de privacidad. Para los médicos y administradores de clínicas, el desafío será integrar la IA como apoyo en diagnóstico y gestión, evitando la dependencia de los pacientes hacia sistemas no diseñados para atender necesidades emocionales complejas.

Publicado por:

Temas relacionados:

RELACIONADAS

Otras noticias para ti

¡Suscríbete y recibe contenido exclusivo!