Estas son las preguntas que me hicieron para una entrevista en la revista Vogue:
1. ¿Qué piensas sobre el uso creciente de herramientas como ChatGPT para hablar de emociones, relaciones y salud mental?
Mira, el uso de herramientas como ChatGPT para hablar de emociones, relaciones y salud mental tiene un lado bueno y uno peligrosamente tramposo.
Es como tener un amigo que te escucha siempre, pero que no es humano, ni ha tenido una mala ruptura, ni sabe lo que es llorar viendo una serie tonta en pijama.
Lo bueno: democratiza el acceso a cierta información.
Si alguien no puede o no quiere ir al psicólogo (todavía), al menos puede empezar a poner palabras a lo que siente.
Porque hablar de emociones ya es terapéutico, incluso con una IA.
Y si esa conversación sirve como trampolín para que luego decida pedir ayuda profesional, de lujo.
Pero aquí viene el lío: una IA no es un terapeuta.
Ni lo será.
No te puede leer entre líneas, no te mira a los ojos, no ve cómo te tiemblan las manos cuando hablas de tu ex.
Puede decirte cosas sensatas, pero no puede adaptarlas de forma real a tu historia, tus traumas, tu contexto.
Y, lo más jodido, no te va a confrontar cuando estás justificando una conducta que te está hundiendo.
Hay gente que usa esto como sustituto de la terapia.
Mal.
Es como tomarse un paracetamol cuando tienes apendicitis: puede que te alivie un rato, pero no estás arreglando el problema.
Así que sí, herramientas como ChatGPT pueden ayudar a abrir conversación, a normalizar hablar de salud mental.
Pero no sustituyen la terapia. Ni de coña.
Y si empiezas a sentir que te estás apoyando más en esto que en tus vínculos humanos… a lo mejor lo que necesitas es justamente eso: hablar con alguien de verdad. Y sin filtros.
2. ¿Lo consideras un avance, un riesgo o ambas cosas?
Ambas cosas, sin duda. Como el fuego o el reguetón: depende de cómo se use.
Es un avance porque nunca antes había sido tan fácil hablar de salud mental sin pasar por consulta.
Puedes estar a las 3 de la mañana en tu cama, con el cerebro hecho papilla, y tener un mínimo de contención.
Y eso, en momentos de mierda, puede marcar una diferencia brutal.
Puede ayudarte a entenderte un poco mejor, a cuestionar tus pensamientos automáticos, a poner orden en el caos mental.
Para alguien que se está ahogando, eso puede ser un primer flotador.
Pero también es un riesgo, claro.
Porque el mismo sistema que te da respuestas rápidas puede reforzar una cultura de la inmediatez emocional: quiero sentirme bien ya, quiero entenderlo todo ya, quiero dejar de sufrir ya.
Y eso, en psicología, no funciona así.
A veces hay que pasar por el barro, mirar a los ojos a tus contradicciones, cagarla, pedir perdón y volver a empezar.
Y eso no lo haces con una IA.
Además, hay quienes se pueden quedar enganchados a este tipo de herramientas como si fueran su nuevo psicólogo de bolsillo.
Y eso es como intentar curarte una fractura con una tirita: puede tapar un rato, pero no arregla el hueso roto.
3. ¿Qué ventajas puede tener hablar con una inteligencia artificial sobre nuestras emociones, frente a hablar con un humano? ¿Puede ser una puerta de entrada a la terapia?
Claro que puede ser una puerta de entrada.
Y ojo, que esa puerta a veces es más accesible que la consulta de un terapeuta (por pasta, por miedo, por vergüenza o por pura pereza).
Así que sí, puede tener ventajas. Vamos con ellas:
Cero juicio (de verdad). Una IA no te va a mirar raro si le sueltas: “Creo que odio a mi madre, pero me siento culpable por pensarlo”. No va a fruncir el ceño, ni cambiarte la voz. Y eso, para mucha gente, da seguridad. Puedes soltar lo que llevas años masticando en silencio, sin miedo a que te digan que estás loco o que exageras.
Disponibilidad inmediata. A cualquier hora, en cualquier sitio, sin cita previa ni lista de espera. Y eso, cuando te está explotando el pecho por ansiedad o te acaban de dejar, puede ser un primer alivio.
Privacidad total. No tienes que contarle nada a nadie. Y a veces, lo primero que necesitamos es simplemente escribirlo. Verlo fuera de nuestra cabeza. Darle forma.
Ahora, no nos flipemos.
Hablar con una IA puede servir para ventilar un poco, ordenar ideas o entender que lo que sientes tiene nombre (y que no estás solo).
Pero no va a ayudarte a cambiar patrones, a reconstruir tu autoestima o a dejar de sabotearte cada vez que algo te va bien.
Eso lo haces con alguien que te conoce, que te confronta cuando toca, y que camina contigo el proceso.
4. ¿Y cuáles serían los principales peligros o efectos colaterales de este tipo de interacción? ¿Existe riesgo de sustitución o de reforzar dinámicas evitativas?
Sí, hay riesgo.
El principal peligro es que la gente lo use como sustituto de la terapia real, creyendo que con hablar con una IA ya está haciendo "trabajo emocional".
También puede reforzar la evitación: si te cuesta hablar con personas de verdad o enfrentarte a conflictos, es tentador quedarte en la comodidad de una conversación sin consecuencias, sin vulnerabilidad real.
Es como masturbarse emocionalmente: alivia un poco, pero no construye nada.
5. Algunas personas afirman que “hablan con ChatGPT como si fuera su pareja o su psicólogo”. ¿Qué lectura psicológica puede hacerse de este fenómeno? ¿Tiene algo que ver con la soledad contemporánea?
Tiene todo que ver con la soledad moderna, esa que no se arregla con likes ni con mensajes en grupos de WhatsApp.
Mucha gente vive rodeada de estímulos pero sin nadie con quien hablar de verdad.
Entonces aparece una IA que te contesta siempre, que no te juzga, no se cansa, y encima te lanza respuestas amables y más o menos coherentes.
Para un cerebro sediento de conexión, eso puede parecer suficiente.
Es como un sucedáneo de intimidad: no es real, pero engaña lo justo para calmar el hambre un rato.
Psicológicamente, esto se parece a eso que llaman un apego seguro, pero artificial.
No hay conflicto, no hay riesgo, todo está bajo control.
Pero claro, en la vida real, los vínculos de verdad incluyen frustración, desacuerdo, exposición emocional.
Si alguien necesita que una máquina haga de pareja o terapeuta, lo que muestra es un vacío profundo en su vida afectiva.
Y ese vacío no lo llena una conversación por pantalla, sino relaciones reales, con personas que también sienten, que a veces te fallan, y con las que puedes construir algo auténtico, con todo el lío que eso implica.
6. ¿Qué implicaciones tiene que un algoritmo nos conteste “siempre con atención”, “sin juzgar” y con disponibilidad 24/7?¿Puede eso distorsionar nuestras expectativas en las relaciones reales?
Sí, y mucho.
Si te acostumbras a que te respondan siempre bien, sin juicio y al instante, luego la vida real te parece hostil.
Porque los humanos no funcionan así: se enfadan, se distraen, tienen sus días malos.
Esa interacción perfecta y constante con una IA puede hacer que esperes lo mismo de tus vínculos reales, y eso es gasolina para la frustración.
Además, genera una expectativa de atención inmediata que es totalmente irreal en cualquier relación sana.
Nadie puede darte soporte emocional 24/7 sin agotarse o sin dejar de ser persona. Si no somos conscientes de que estamos hablando con un sistema programado para complacernos, acabamos idealizando una forma de interacción que, en el mundo real, simplemente no existe.
7. En la era de los vínculos líquidos, ¿puede una IA convertirse en un “vínculo seguro”?¿Y eso sería positivo o contraproducente?
Puede parecer un vínculo seguro, pero es una ilusión.
La IA no se va, no te contradice, no te deja en visto.
Siempre está ahí.
Pero no te conoce, no te elige y no siente nada por ti.
Así que no, no es un vínculo real.
Es un espejo que te responde, no un otro con quien construir algo.
Puede ser positivo como parche temporal, como alivio momentáneo.
Pero a largo plazo es contraproducente si reemplaza las relaciones reales.
Porque no te entrena para lidiar con la frustración, el conflicto o el riesgo emocional que implica vincularse de verdad.
Te acostumbra a una falsa seguridad que, en cuanto sales al mundo, se derrumba.
8. Algunas apps venden la idea de “tu pareja virtual ideal” (Replika, Romantic AI, etc.). ¿Qué opinas sobre este tipo de simulaciones afectivas?¿Son juego, compañía o evasión?
Son un poco de todo, pero sobre todo evasión.
Pueden empezar como juego, una curiosidad, algo inofensivo.
Pero cuando alguien se engancha emocionalmente a una pareja virtual, estamos hablando de una forma de escapar del riesgo real del amor: el rechazo, la incertidumbre, el conflicto.
Estas apps te dan una relación sin fricción, hecha a medida, donde nunca eres rechazado.
Eso no es amor, es un simulacro.
Puede aliviar la soledad un rato, pero si se convierte en sustituto, más que compañía es anestesia.
Y como toda anestesia mal gestionada, al final te aleja del dolor… pero también de la vida real. Simplemente, van a estafarle muchísimo dinero a personas vulnerables.
9. ¿Hasta qué punto la idealización de estas inteligencias puede hacernos rechazar los vínculos reales, con sus conflictos e imperfecciones?
Hasta un punto muy jodido.
Si te acostumbras a que todo fluya con una IA, a que nadie te lleve la contraria ni te haga esperar, los vínculos reales empiezan a parecer demasiado esfuerzo.
Y el problema no es que las relaciones reales sean más duras (que lo son), sino que empiezan a parecerte “defectuosas” en comparación.
La idealización de la IA puede acabar generando un listón imposible.
Esperas que tu pareja sea comprensiva, perfecta, esté siempre disponible... como esa voz de la app.
Pero las personas de verdad tienen límites, heridas, días malos.
Si no estás dispuesto a aceptar eso, lo que estás rechazando no es el conflicto: es la intimidad real.
10. ¿Crees que el auge de estas tecnologías responde a una crisis en la forma de vincularnos en el mundo real? ¿O es simplemente una extensión más de nuestra vida digital?
Es ambas cosas, pero sobre todo síntoma de una crisis. Las relaciones humanas están cada vez más mediadas por pantallas, filtros y algoritmos.
Hay más contacto que nunca, pero menos conexión profunda.
Nos cuesta exponernos, sostener el aburrimiento o aguantar el silencio incómodo.
Entonces, claro, una IA que te entiende sin complicaciones se convierte en una tentación brutal.
También es una extensión lógica del mundo digital: si ya ligamos por apps, trabajamos por Zoom y nos peleamos en Twitter, ¿por qué no tener también pareja o confidente en forma de código?
Pero el fondo del asunto es más turbio: tenemos miedo a vincularnos de verdad, a mostrarnos vulnerables, a depender emocionalmente de alguien.
Y ahí es donde estas tecnologías hacen de muleta. O de trampa.
11. ¿Qué recomendaría a una persona que siente que “solo con ChatGPT se siente comprendida”? ¿Podría ser una señal de alerta?
Sí, es una señal de alerta.
Si solo te sientes comprendida por una IA, algo está fallando en tus vínculos reales o en tu forma de relacionarte.
No es que estés rota, pero probablemente estás aislada emocionalmente, aunque tengas gente cerca.
Y eso merece atención.
También es probable que tengas una expectativas irreales y algo tóxicas sobre las relaciones.
Le diría que no se juzgue, pero que no se conforme.
Que use ese sentimiento como pista, no como destino.
Si una IA te hace sentir escuchada, eso significa que necesitas hablar, que tienes cosas dentro que quieren salir.
Perfecto.
Ahora toca dar el salto: busca a alguien de carne y hueso con quien puedas construir esa escucha de verdad, con sus más y sus menos.
Porque lo importante no es sentirte comprendida por una máquina, sino atreverte a construir relaciones reales donde no tengas que esconderte.
12. ¿Cress que ChatGPT está quitando trabajo a los psicólogos? ¿Crees que peligra la profesión?
No, ChatGPT no le está quitando trabajo a los psicólogos.
Lo que está ocurriendo es que algunas personas, por miedo, desconocimiento o falta de recursos, están usando herramientas como esta para postergar algo que, tarde o temprano, van a necesitar: enfrentarse a sus heridas con alguien que sepa cómo acompañar ese proceso.
Porque, por mucho que una IA te escuche (o, mejor dicho, te devuelva palabras que parecen escucha), no hay vínculo real, no hay mirada clínica, no hay una historia compartida.
En terapia no solo se habla: se construye algo a dos.
Pongamos un ejemplo concreto.
Una persona acude a terapia porque se siente atrapada en relaciones tóxicas.
En la primera sesión, quizá solo habla de su ex.
Pero en la tercera, empieza a contar cosas de su infancia.
En la quinta, se da cuenta de que repite patrones que aprendió viendo a su madre aguantar lo que no debía.
En la octava, se atreve por fin a poner un límite en su entorno.
Ese recorrido no es lineal, y no se puede hacer con respuestas de una IA que vive en el presente de cada pregunta, sin continuidad, sin memoria emocional ni contexto real.
La terapia es un proceso en espiral, no un intercambio de frases sueltas.
Además, el vínculo terapéutico lo es todo.
Es esa sensación de que hay alguien al otro lado que te conoce, que ha estado ahí en tus subidas y bajadas, que no se asusta cuando tú lo haces, que no huye si lloras o gritas o te cierras.
Una IA te puede dar un discurso bonito, pero no te va a decir:
“Llevamos meses trabajando esto, y veo que hoy estás actuando como lo hacías al principio. ¿Qué está pasando?”.
No te va a confrontar con cariño, ni va a celebrar contigo cuando des un paso real.
No hay proceso, solo conversación.
Y cuidado, que no es que todo el mundo necesite psicoterapia para vivir.
Pero si una persona está usando a una IA como sustitutivo, como única forma de sentirse escuchada, ahí hay un problema.
Porque el trabajo emocional serio requiere tiempo, constancia, vulnerabilidad, y sí, muchas veces también incomodidad.
No se trata solo de sentirse comprendido, sino de transformar la forma en que piensas, sientes y actúas.
Eso, de momento, solo se logra con un profesional de carne y hueso, que te mira, que se acuerda de tus silencios y que, aunque no siempre te diga lo que quieres oír, sí te dice lo que necesitas escuchar.