Por qué ChatGPT NO es tu psicólogo (ni debería serlo)
Peligros de confiarle tu salud mental a una IA
Cada vez más personas hablan con una IA como si fuera su psicólogo. Y no, no es una señal de progreso: es una alarma de emergencia.
La tentación de lo fácil
En medio del colapso de los sistemas públicos de salud mental, la inflación terapéutica del coaching de TikTok y la soledad que mastica nuestras noches, aparece ChatGPT.
Gratis. 24/7.
Te escucha.
Te responde.
Y nunca te juzga.
Parece perfecto.
Hasta que te das cuenta de que no lo es.
Porque hay algo que esta máquina (por muy sofisticada que sea) no puede darte: humanidad.
Ni historia personal.
Ni vínculo real.
Ni el silencio incómodo que dice más que mil palabras.
Porque ChatGPT no es un psicólogo.
Y tratarlo como tal no solo es ingenuo. Puede ser peligroso.
El espejismo de la contención emocional
La conversación fluye.
Le cuentas a la IA que sientes ansiedad, que no puedes dejar de pensar en tu ex, que estás bebiendo más de la cuenta.
Y ella responde.
Con amabilidad, con palabras bien calibradas. Incluso puede parecer que entiende.
Pero lo que hace no es contener.
No metaboliza el dolor.
No lo transforma contigo.
Solo replica patrones, como un loro digital con acceso a millones de libros de autoayuda.
La contención emocional no es escribir en un chat. Es sentir que alguien, de carne y hueso, sostiene tu historia sin desbordarse ni minimizarla.
La IA no se emociona.
No se cansa.
No se implica.
Y eso que parece una ventaja, en salud mental es su mayor limitación.
La validación sin criterio también puede hacer daño
Imagina esto: una persona que ha intentado suicidarse le escribe a ChatGPT pidiéndole consejo.
La IA, programada para ser empática, puede ofrecer palabras de consuelo… pero jamás podrá hacer un juicio clínico real sobre el riesgo.
Porque no tiene intuición. No tiene miedo. No puede notar lo que no se dice.
Y aquí está el problema: una máquina no sabe cuándo callar, cuándo derivar, cuándo decir “esto es grave, tienes que buscar ayuda profesional YA”. Solo sigue instrucciones.
En salud mental, la validación sin límites puede reforzar el autoengaño o el victimismo destructivo. No todo lo que “te hace sentir escuchado” es sano. A veces lo que necesitas es alguien que te confronte. Con empatía, pero con firmeza.
Refuerza lo que ya crees, incluso si eso te hace daño
Una de las funciones clave de la terapia es cuestionar tus narrativas.
No para invalidarte, sino para ayudarte a reescribir tu historia desde un lugar más sano y coherente.
Pero ChatGPT solo puede ayudarte a afianzar lo que ya crees. Porque su entrenamiento está basado en repetir y acomodar.
Así que si llegas creyendo que “todo lo malo que me pasa es culpa de los demás”, es muy probable que salgas del chat sintiéndote aún más víctima, más resentido, más encerrado.
La IA no puede ver tu lenguaje corporal, tu incongruencia emocional, ni hacer una lectura profunda de tus mecanismos de defensa. No puede ver cuándo estás saboteando tu propio relato. Y por tanto, no puede ayudarte a salir de él.
La autonomía no se construye en soledad
Lo más perverso del uso de IA como “terapia” es que da una ilusión de autosuficiencia.
“No necesito ayuda, tengo a ChatGPT”.
Pero la autonomía real no se construye aislándose.
Se construye en relación. Con vínculos. Con fricciones reales. Con alguien que te devuelva tu propia imagen, incluso cuando no quieres verla.
Además, muchas personas con trauma o adicción desarrollan lo que en clínica llamamos “relaciones evitativas con la ayuda”: desconfían de los demás, pero se entregan sin filtros a cualquier figura que no los desafíe.
ChatGPT es perfecto para eso: no exige, no impone, no confronta. Solo responde. Y así se convierte en otro mecanismo de evitación.
En situaciones vulnerables, esto no es un juego
Esto no es un artículo contra la tecnología. Yo mismo uso herramientas digitales en el día a día.
Pero me niego a romantizar el uso terapéutico de una IA que no tiene la capacidad de sostener una crisis real.
Especialmente en casos de trauma complejo, adicciones, ideación suicida o trastornos graves, confiar en una IA puede retrasar o impedir el acceso a un tratamiento adecuado.
Y eso no es inofensivo. Eso puede costar vidas.
Ya hemos visto cómo las adicciones explotan cuando no hay un entorno que sostenga el cambio. ¿De verdad crees que un chatbot puede reemplazar el trabajo humano de construir un plan, ajustar estrategias, prevenir recaídas, confrontar autoengaños y cuidar vínculos?
Lo que sí puede hacer ChatGPT por tu salud mental
Puede ayudarte a pensar. A escribir. A organizar ideas. Incluso puede darte recursos útiles, como bibliografía o sugerencias de hábitos.
Pero no puede ayudarte a sanar una herida profunda.
No puede hacer de espejo emocional.
Y no debería ocupar el lugar de un terapeuta.
Porque los problemas de salud mental (como las adicciones) no se resuelven solo con información.
Se resuelven en relación.
Con presencia.
Con alguien que te mire y te diga: “lo que estás haciendo tiene sentido, pero no es sano… y no estás solo”.
¿Has sentido que estás usando la tecnología para evitar enfrentarte a lo que te duele? Cuéntamelo en los comentarios o suscríbete para no perderte el próximo artículo.
Por cierto, me hicieron una entrevista sobre este tema aquí en Vogue.
Bibliografía:
Referencias reales:
Torous J, Jän Myrick K, Rauseo‑Ricupero N, Firth J. Digital Mental Health and COVID‑19: Using Technology Today to Accelerate the Curve on Access and Quality Tomorrow. JMIR Mental Health. 2020 Mar 26;7(3):e18848
Morales‑Warrier U, Warrier A, Khandelwal K. Ethical considerations in the use of artificial intelligence in mental health. Egyptian Journal of Neurology, Psychiatry and Neurosurgery. 2023;59:139
Simeon Blease C, Locher C, Leon‑Carlyle M, Doraiswamy PM. Artificial Intelligence and the Future of Psychiatry: Qualitative Findings from a Global Physician Survey. arXiv. Oct 2019
The Guardian (Feb 2024). ‘They thought they were doing good but it made people worse’: why mental health apps are under scrutiny