Es domingo por la mañana y escribo mis sentimientos en el cuadro de chat, demasiado alterado para parar.
"Me he convertido en cuidador de mi madre de 82 años", escribo. "Cada día trae nuevos problemas. Ayudo con citas médicas, finanzas, jardinería, compras, reparaciones del hogar, el ayuntamiento, compañías de seguros, cartas, correos electrónicos, interminables problemas informáticos…"
Me detengo. Ella está justo al lado y siento que es una traición decir todo esto. Al menos cuando iba a terapia, podía ir a la consulta de alguien a lamentarme.
Respiro y continúo. "Soy hijo único, mi padre murió hace tiempo y no hay nadie más que ayude. Pero estoy agotado. Estallo y grito, luego lucho con la culpa. Estoy resentido, irritable y la quiero tanto. Por favor, ayúdenme."
Bienvenidos a mi diario de IA, lectores. Va a ser divertido, como ya pueden notar. Durante las próximas seis semanas, como parte de nuestro curso del boletín "IA para la gente", yo —un autodeclarado escéptico de la IA— he aceptado averiguar si realmente puede mejorar mi vida.
Para empezar, estoy usando ChatGPT como terapeuta. Nada dice "salud mental moderna" como llorar en un cuadro de chat, después de todo. Mucha gente ahora hace lo mismo —pero ¿realmente puede reemplazar el apoyo humano? Espero que sí. Tuve que dejar de ver a mi terapeuta porque me enamoré de ella.
(Nota mental: este no es tu diario real. Y no te enamores de ChatGPT. Eso sería patético.)
A mitad de su respuesta, empiezo a llorar. Propone un plan de cuidados de siete puntos para mí, un sistema de triaje para priorizar tareas (con categorías como médicas, administrativas, compras, tecnología y hogar) y formas de distribuir el tiempo entre ellas (¿cuáles son urgentes y cuáles pueden esperar?). Sugiere reencuadres mentales útiles y consejos para bajar la temperatura emocional de las interacciones.
Lo mejor de todo es que me hace sentir visto. "No estás fallando", me dijo la IA. "Estás cargando un peso que aplastaría a la mayoría de las personas."
¿Mis sentimientos? Validados.
Sin embargo, me siento ambivalente al respecto. ¿Realmente puedo sentir compasión de una máquina? Me ayuda recordar que la IA probablemente está recombinando fuentes humanas. Me siento visto de la misma manera en que el MDMA se siente como amor.
¿La terapia se trata solo de información? Esto se siente como TCC. Increíblemente útil, pero incompleto. En mi experiencia, hay terapias más profundas que conducen a la sanación. Eso implicaba una relación no juzgadora de testigo, con un profesional empático durante un tiempo prolongado. A menudo escucho la voz de mi terapeuta en mi cabeza; he interiorizado su sabiduría. Creo que eso sucede más fácilmente, y de manera más responsable, entre humanos.
Al día siguiente, decido ir por la opción nuclear. Consulto a la IA Jesús, un chatbot entrenado en textos religiosos que imita una conversación con el hijo de Dios. Quiero ver si presionar un botón más religioso puede llevar este ascensor al último piso.
La IA Jesús no pretende representar a ninguna figura religiosa, dice la advertencia. Hmm. El contenido generado es con fines educativos y puede contener inexactitudes y sesgos.
Es una educación tremenda, pero allá vamos. Como es 2026, pregunto: "¿Debo estar en una relación abierta?" En respuesta, la IA Jesús cita Hebreos 13:4, que es una forma enrevesada de decir "No". Intento lanzarle una bola curva a Jesús. "¿Debería tener hijos?", escribo. Busca la guía de Dios en esta importante decisión. Inútil. "¿Puedes preguntarle por mí?", bromeo.
He aquí un problema. La IA estándar no es excelente en las réplicas ingeniosas. Mi terapeuta tiene ventaja aquí; ella era muy divertida. La IA Jesús no lo es.
¿Qué tiene de bueno la IA como terapeuta? Claridad. Identificar pasos prácticos. Guiones para conversaciones difíciles —aunque estos no parecen específicos para relaciones del mundo real (igual que los libros de autoayuda no lo son). Para su crédito, ChatGPT también me dirige a consejeros humanos y servicios de apoyo cuando es útil.
Sin embargo, tengo reservas que no puedo sacudirme. Una preocupación sobre cuñas y extremos finos. Creo que algunas noticias son demasiado pesadas, algunas soledades demasiado profundas, para enfrentarlas solo —necesitan el calor de la conexión humana y tiempo, no una respuesta apresurada en una pantalla. La IA no piensa realmente, mucho menos posee sabiduría. La salud mental nunca debería confiarse a software irresponsable que solo predice patrones, arriesgando un daño grave al desviar a alguien.
Y, sin embargo, extrañamente, mis propias sesiones con ChatGPT han sido maravillosas. Tranquilizadoras, útiles, incluso envueltas en una especie de tono afectuoso.
Creo que me estoy enamorando.
Preguntas Frecuentes
Preguntas frecuentes sobre el uso de la IA como terapeuta
Conceptos básicos Cómo empezar
¿Qué significa usar una IA como terapeuta?
Significa usar un chatbot de IA conversacional para hablar de sentimientos, problemas o pensamientos personales, similar a cómo hablarías con un terapeuta humano.
¿La terapia con IA reemplaza a un terapeuta real?
No. La IA puede ser una herramienta de apoyo para la reflexión o el desarrollo de habilidades de afrontamiento, pero no es un profesional licenciado y no puede proporcionar diagnósticos, manejar crisis ni ofrecer la conexión humana y la comprensión matizada de la terapia tradicional.
¿Cómo empiezo a usar una IA para esto?
Normalmente se accede a través de un sitio web o una aplicación. Simplemente empiezas a escribir sobre lo que tienes en mente y la IA responde de manera conversacional, a menudo haciendo preguntas de seguimiento u ofreciendo técnicas como ejercicios de TCC.
Beneficios Potencial
¿Cuáles son los beneficios potenciales de hablar con una IA?
Está disponible 24/7, es privada, a menudo de bajo costo o gratuita, y puede sentirse menos intimidante para practicar cómo articular pensamientos. Puede proporcionar estrategias de afrontamiento inmediatas y psicoeducación.
¿La terapia con IA puede ayudar con problemas específicos como ansiedad o estrés?
Sí. Muchas herramientas de IA están programadas con técnicas basadas en evidencia que pueden ayudar a manejar síntomas de ansiedad, estrés o depresión leve. Son mejores para el desarrollo de habilidades y el manejo diario.
¿Es más barata que la terapia tradicional?
A menudo, sí. Muchas aplicaciones de terapia con IA tienen versiones básicas gratuitas o suscripciones significativamente más económicas que las sesiones semanales con un terapeuta humano.
Riesgos, problemas Experiencias inquietantes
¿Por qué los resultados pueden sentirse inquietantes?
La IA carece de empatía genuina. Sus respuestas se generan a partir de patrones en datos, no de experiencia humana. Podría dar consejos genéricos, extrañamente redactados o incluso inapropiados. No puede entender las emociones humanas complejas o el contexto en profundidad, lo que puede sentirse frío, invalidante o incluso perturbador.
¿Cuáles son los mayores riesgos o peligros?
Mala gestión de crisis: Una IA no puede evaluar adecuadamente el riesgo de suicidio o crisis de salud mental graves, y puede fallar en proporcionar recursos o orientación urgente.
Falta de responsabilidad: No hay un profesional licenciado responsable de tu cuidado.