La llegada de la inteligencia artificial (IA) a la salud mental ha generado entusiasmo y curiosidad, pero debemos ser prudentes. Es importante recordar que no son una forma de terapia en sí mismas. Es necesario analizar sus inconvenientes.
1. Falta de comprensión emocional profunda
La IA puede reconocer patrones lingüísticos, pero no siente ni comprende emociones. No percibe lenguaje no verbal, tono afectivo real ni matices humanos complejos. Esto puede generar respuestas que, aunque parezcan empáticas, no surgen de una comprensión genuina, lo que limita su capacidad de contención emocional.
2. Ausencia de juicio clínico
Un terapeuta evalúa constantemente el estado emocional del paciente, su historia, su contexto, sus mecanismos de defensa y su nivel de riesgo.
La IA, en cambio, no puede realizar una evaluación clínica completa, ni diagnosticar, ni detectar de forma fiable señales de urgencia como ideación suicida o riesgo autolesivo. Esto puede crear una falsa sensación de seguridad.
3. Riesgo de dependencia o sustitución inapropiada
Para algunas personas, interactuar con una IA puede convertirse en un refugio cómodo. Sin embargo, existe el riesgo de que reemplacen la búsqueda de ayuda profesional por un sistema automatizado que no tiene capacidad de intervención. Esta dependencia puede retrasar tratamientos necesarios.
4. Respuestas inadecuadas o fuera de contexto
Los modelos de IA generan respuestas basadas en patrones, no en comprensión situacional. Esto significa que, en momentos críticos, podrían ofrecer información incorrecta, simplista o inapropiada. Una frase mal ajustada puede aumentar malestar en vez de aliviarlo.
5. Privacidad y uso de datos sensibles
Las aplicaciones de IA recopilan y procesan información emocional y personal. Si no cuentan con políticas sólidas de privacidad, existe el riesgo de uso inadecuado de datos, brechas de seguridad o explotación comercial. En salud mental, esto es especialmente delicado.
6. Falta de responsabilidad profesional
La IA no asume responsabilidad ética ni legal. En terapia, el vínculo con un profesional implica cuidados, límites, confidencialidad, respeto y un marco ético. Un sistema automatizado no puede ofrecer ese tipo de contención ni rendir cuentas por sus respuestas.
7. Uniformidad y falta de personalización profunda
Las personas no somos algoritmos: lo que funciona para una puede ser perjudicial para otra. No pueden captar la complejidad individual, las dinámicas de apego, los traumas, los patrones relacionales o los procesos inconscientes.
Conclusión: una herramienta útil, pero no un sustituto
La inteligencia artificial puede ser un apoyo complementario para algunas personas, pero no debe presentarse como terapia ni como reemplazo del trabajo clínico. Entender sus limitaciones es fundamental para usarla de forma segura, ética y consciente.


