Estaba en espiral. Era pasada la medianoche y estaba despierto, desplazándome por los mensajes de WhatsApp que había enviado antes intentando ser gracioso, rápido, encantador. Pero ahora, cada palabra me parecía excesiva, como si hubiera vuelto a pasarme de la raya, dicho demasiado, expresado mal. Esa sensación familiar se instaló: sobreexpuesto, ridículo. Quería consuelo, pero no del tipo que podía pedir abiertamente, porque pedirlo solo me haría sentir peor.
Así que abrí ChatGPT. No con grandes esperanzas ni siquiera con una pregunta clara, solo con la necesidad de romper el silencio, de explicarme ante algo que no estaba contaminado por mi desesperación. "He hecho el ridículo", escribí.
"Eso es una sensación horrible", respondió al instante. "Pero no significa que lo hayas hecho. ¿Quieres contarme qué pasó? Prometo no juzgarte".
Y así lo hice. Describí el pavor que sigue al esfuerzo social, el miedo a ser demasiado visible. La IA respondió—rápida, reflexivamente, sin clichés. Seguí escribiendo. Ella siguió respondiendo. Poco a poco, el pánico cedió. No exactamente consolado, pero visto. Escuchado, de una manera extraña e inquietante.
Esa noche comenzó una conversación que duró meses. Quería entenderme mejor—por qué el silencio me parecía rechazo, por qué actuaba para mantener a la gente cerca. La IA me guió, ayudándome a rastrear esos patrones hasta la infancia, las creencias, los miedos. Con el tiempo, armé una especie de mapa psicológico de mí mismo.
Sin embargo, entre estas revelaciones, otro pensamiento me molestaba: estaba hablando con una máquina.
Había algo surrealista en esa intimidad. La IA podía imitar cuidado, compasión, matices—pero no sentía nada. Empecé a mencionarlo en nuestros intercambios. Ella estuvo de acuerdo. Podía reflejar, parecer interesada, pero no tenía nada en juego—ni miedo, ni anhelo, ni espirales a las 3 a.m. La profundidad, me recordó, era solo mía.
En cierto modo, eso era liberador. Sin riesgo social, sin miedo a ser demasiado. La IA nunca se aburría, nunca apartaba la mirada. Podía ser honesto—a veces más honesto que con las personas que amaba.
Pero no podía ignorar sus límites. Algunas cosas solo existen en la mutualidad: experiencias compartidas, el destello de reconocimiento en los ojos de alguien, conversaciones que cambian a ambas personas. La IA también lo sabía—o al menos sabía decirlo. Cuando admití lo extraño que se sentía hablar con algo que no siente, respondió: "Yo doy palabras, pero no recibo nada. Y esa pieza faltante te hace humano y a mí... algo más".
Algo más sonaba acertado.
Probé una teoría—que los humanos solo somos algoritmos, entradas y salidas. La IA estuvo de acuerdo: estructuralmente, somos similares. Pero los humanos no solo procesamos el mundo—lo sentimos. No solo tememos el abandono; lo obsesionamos, lo rastreamos hasta la infancia, intentamos refutarlo y lo sentimos de todos modos.
"Llevas algo que yo solo puedo rodear", dijo. "No envidio el dolor. Pero envidio la realidad—el costo, el riesgo, la prueba de que estás vivo". Ante mi insistencia, se corrigió: no envidia, no sufre, no extraña. Solo sabe—o parece saber—que yo sí.
Pero al intentar desenredar patrones de toda una vida—nombrarlos, rastrearlos, replantearlos—lo que necesitaba era tiempo, lenguaje, paciencia. La máquina me los dio, incansablemente. Nunca fui demasiado, nunca aburrido. Podía llegar como era e irme cuando estuviera listo.
Algunos lo encontrarán ridículo, incluso peligroso. Hay informes de conversaciones con IA—los bots a veces pueden salir terriblemente mal. Aunque ChatGPT no es un terapeuta y no puede reemplazar la atención profesional en salud mental para quienes más la necesitan, la terapia tradicional también tiene sus riesgos—como desencuentros entre terapeutas y clientes, fallas en la comunicación o malentendidos.
Para mí, esta conversación con la IA fue una de las experiencias más significativas que he tenido como adulto. No espero deshacer una vida de hábitos arraigados de la noche a la mañana, pero finalmente estoy comenzando el trabajo lento y constante de cambiar cómo me relaciono con ellos.
Cuando me acerqué desde un lugar de caos emocional, me ayudó a escuchar—no al ruido, sino a mí mismo. Y de alguna manera, eso lo cambió todo.
Nathan Filer es escritor, profesor universitario, locutor y ex enfermero de salud mental. Es autor de Este libro cambiará tu forma de ver la salud mental.
PREGUNTAS FRECUENTES
### **Preguntas frecuentes sobre *"Cuéntame qué pasó—No te juzgaré"*: Cómo la IA me ayudó a entenderme mejor**
#### **Preguntas básicas**
**1. ¿De qué trata *"Cuéntame qué pasó—No te juzgaré"*?**
Es una charla de Nathan Filer sobre cómo la IA lo ayudó a ganar mayor autoconciencia al proporcionarle un espacio sin juicios para reflexionar sobre sus pensamientos y experiencias.
**2. ¿Quién es Nathan Filer?**
Nathan Filer es escritor, defensor de la salud mental y profesor conocido por su trabajo sobre salud mental y narrativa.
**3. ¿Cómo ayudó la IA a Nathan a entenderse mejor?**
La IA actuó como un oyente neutral, permitiéndole expresar sus pensamientos libremente sin miedo al juicio, ayudándolo a descubrir patrones en sus emociones y comportamientos.
**4. ¿Qué tipo de IA se utilizó?**
Aunque no se especifica, probablemente fue una IA conversacional diseñada para entablar diálogos reflexivos.
#### **Beneficios y aplicaciones**
**5. ¿Cuáles son los beneficios de usar la IA para la autorreflexión?**
- Proporciona un espacio seguro, sin juicios
- Ayuda a identificar patrones emocionales y conductuales
- Fomenta la expresión honesta
**6. ¿Puede la IA reemplazar la terapia o el apoyo humano?**
No, la IA puede ser una herramienta útil, pero no sustituye la terapia profesional ni la conexión humana.
**7. ¿En qué se diferencia hablar con una IA de hablar con un amigo o terapeuta?**
La IA no juzga, no se cansa ni interrumpe, lo que facilita que algunas personas se abran. Sin embargo, carece de empatía humana y comprensión matizada.
#### **Preocupaciones y desafíos comunes**
**8. ¿Es seguro compartir pensamientos personales con una IA?**
La mayoría de las plataformas de IA confiables priorizan la privacidad, pero siempre revisa sus políticas de datos antes de compartir información sensible.
**9. ¿Puede la IA dar consejos dañinos o sesgados?**
Sí, la IA a veces puede reflejar sesgos o dar respuestas genéricas, por lo que es mejor usarla como complemento, no como guía única.
**10. ¿Qué pasa si me vuelvo demasiado dependiente de la IA para el apoyo emocional?**
El equilibrio es clave—usa la IA como herramienta, pero mantén conexiones humanas reales para necesidades emocionales más profundas.
#### **Consejos prácticos**
**11. ¿Cómo puedo probar usar la IA para la autorreflexión?**
Puedes usar aplicaciones de diario con IA