El suicidio sigue siendo una de las principales causas de muerte prevenible en el mundo, especialmente entre adolescentes y adultos jóvenes. Uno de los desafíos más críticos en su prevención es la variabilidad y fugacidad de los pensamientos suicidas, que muchas veces no coinciden con los momentos en que una persona acude a consulta médica o psicológica. Esta disociación temporal dificulta la detección mediante herramientas clínicas convencionales como las listas de verificación o los cuestionarios únicos.
En este contexto, emergen nuevas tecnologías como la evaluación ecológica momentánea (EMA), una metodología que recopila datos en tiempo real sobre el estado emocional, conductual y contextual de la persona, mediante dispositivos móviles o sensores pasivos. A diferencia de los enfoques tradicionales, EMA permite capturar la experiencia del usuario en su entorno habitual, lo que incrementa la validez ecológica de los datos.
Intervenciones adaptativas al posible suicidio: apoyo en tiempo real y centrado en la persona
Uno de los usos más prometedores de la EMA es su integración con intervenciones digitales adaptativas. Estas herramientas permiten entregar respuestas personalizadas a través del dispositivo móvil, justo cuando la persona muestra señales de crisis. Por ejemplo, si se detectan patrones de malestar emocional, el sistema puede sugerir al usuario que ejecute su plan de seguridad personal, diseñado previamente con su terapeuta.
Los planes de seguridad son intervenciones estructuradas y basadas en evidencia que reducen el riesgo suicida. Sin embargo, su efectividad depende del acceso inmediato, lo que hace que la integración con la tecnología aumente su aplicabilidad en momentos críticos.
A pesar del potencial, surgen preguntas clave:
- ¿Qué datos deben activar una alerta?
- ¿Cuál es el umbral de riesgo?
- ¿Cómo personalizar el tipo de ayuda según el contexto?
Aquí es donde entra la inteligencia artificial como herramienta de análisis predictivo.
Modelos predictivos basados en IA: mayor precisión que los métodos tradicionales
El aprendizaje automático (machine learning) ya se está utilizando para predecir riesgos suicidas, tanto a nivel individual como poblacional. Al analizar grandes volúmenes de datos —provenientes de sensores, registros clínicos o autoevaluaciones—, estos modelos pueden detectar variaciones sutiles en pensamientos, comportamientos y emociones.
Estudios recientes indican que la Inteligencia Artificial supera en precisión a los métodos clínicos tradicionales, como las puntuaciones simples de riesgo. De hecho, algunas directrices internacionales en salud mental ya recomiendan dejar de usar escalas únicas como criterio para definir la atención, en favor de modelos más flexibles, dinámicos y centrados en la persona.
No obstante, la precisión de un modelo no es sinónimo de confiabilidad clínica. Muchos algoritmos no reportan tasas de error relevantes, como falsos positivos (personas identificadas en riesgo sin estarlo) o falsos negativos (riesgos no detectados). Esta limitación compromete su aplicabilidad clínica si no se acompaña de criterios éticos y de evaluación rigurosos.
Integrando la tecnología en la práctica profesional
Para que estas tecnologías sean útiles en entornos clínicos, es crucial que los profesionales de la salud comprendan cómo funcionan los modelos de IA y confíen en ellos. En este sentido, se está avanzando en el desarrollo de IA explicable (XAI): sistemas que, además de ofrecer predicciones, explican los factores que contribuyen a esas predicciones.
Este enfoque permite que los clínicos interpreten los resultados de la IA como un insumo más dentro de su razonamiento clínico, al igual que lo hacen con las escalas de depresión, los historiales clínicos o las entrevistas motivacionales.
Privacidad, diversidad de datos y equidad
A pesar de los avances, persisten obstáculos importantes. El primero es la privacidad y protección de los datos personales, especialmente cuando se trata de plataformas digitales o redes sociales. La implementación de estos modelos requiere un marco ético sólido que garantice la confidencialidad, consentimiento informado y uso responsable de la información.
El segundo desafío es la representatividad de los datos de entrenamiento. Muchos modelos se basan en muestras clínicas de países de altos ingresos, lo que limita su aplicabilidad en contextos diversos. Sin una mayor diversidad en los datos, los modelos podrían reproducir sesgos estructurales y ser menos precisos en poblaciones vulnerables o subrepresentadas.
Resultados preliminares y horizonte de aplicación
Revisiones sistemáticas recientes demuestran que la combinación de IA con EMA puede predecir pensamientos suicidas en personas dadas de alta de servicios clínicos, un grupo especialmente vulnerable al riesgo posthospitalización. Sin embargo, se necesita más investigación en entornos ambulatorios, comunitarios y escolares, donde el riesgo puede pasar desapercibido durante mucho más tiempo.
Por otra parte, la IA ya se está utilizando para analizar grandes bases de datos de sistemas de salud, con el objetivo de predecir qué pacientes podrían beneficiarse de intervenciones más intensivas, o cuáles podrían experimentar recaídas. Estas aplicaciones podrían mejorar la eficiencia y personalización del sistema de salud mental, si se integran de forma ética y sustentada.