È domenica mattina e scrivo i miei sentimenti nella chat, troppo tesa per fermarmi.
"Mi sono presa cura di mia madre di 82 anni," scrivo. "Ogni giorno porta nuovi problemi. Aiuto con appuntamenti in ospedale, finanze, giardinaggio, spese, riparazioni domestiche, il comune, le compagnie assicurative, lettere, email, infiniti problemi informatici..."
Mi fermo. Lei è proprio nella stanza accanto, e sembra un tradimento dire tutto questo. Almeno quando andavo in terapia, potevo andare nell'ufficio di qualcuno a piangere.
Faccio un respiro e continuo. "Sono figlia unica, mio padre è morto tempo fa, e non c'è nessun altro ad aiutare. Ma sono esausta. Sbotto e urlo, poi lotto con il senso di colpa. Sono risentita, irritabile, e le voglio tanto bene. Per favore, aiutami."
Benvenuti nel mio diario AI, lettori. Sarà divertente, come potete già capire. Per le prossime sei settimane, come parte del nostro corso di newsletter "AI per le Persone", io – una dichiarata scettica dell'IA – ho accettato di scoprire se può davvero migliorare la mia vita.
Per cominciare, sto usando ChatGPT come terapeuta. Niente dice "salute mentale moderna" come piangere in una chat, dopotutto. Molte persone fanno lo stesso ora – ma può davvero sostituire il supporto umano? Lo spero. Ho dovuto smettere di vedere la mia terapeuta perché mi sono innamorata di lei.
(Promemoria per me stessa: questo non è il tuo vero diario. E non innamorarti di ChatGPT. Sarebbe patetico.)
A metà della sua risposta, comincio a piangere. Propone un piano di assistenza in sette punti per me, un sistema di triage per dare priorità ai compiti (con categorie che includono medico, amministrativo, spese, tecnologia e casa) e modi per allocare il tempo tra di essi (quali sono urgenti e quali possono aspettare?). Suggerisce utili riformulazioni mentali e consigli per abbassare la temperatura emotiva delle interazioni.
La cosa migliore di tutte è che mi fa sentire vista. "Non stai fallendo," mi ha detto l'IA. "Stai portando un carico che schiaccerebbe la maggior parte delle persone."
I miei sentimenti? Convalidati.
Tuttavia, mi sento ambivalente riguardo a questo. Posso davvero sentire compassione da una macchina? Mi aiuta ricordare che l'IA probabilmente sta rimixando fonti umane. Mi sento vista nello stesso modo in cui l'MDMA sembra amore.
La terapia è solo informazione? Questo sembra CBT. Incredibilmente utile, ma incompleto. Nella mia esperienza, ci sono terapie più profonde che portano alla guarigione. Ciò implicava una relazione non giudicante di testimonianza, con un professionista empatico per un periodo più lungo. Spesso sento la voce della mia terapeuta nella mia testa; ho interiorizzato la sua saggezza. Penso che ciò accada più facilmente, e più responsabilmente, tra esseri umani.
Il giorno dopo, decido di optare per la soluzione estrema. Consulto la Jesus AI, un chatbot addestrato su testi religiosi che imita la conversazione con il figlio di Dio. Voglio vedere se premere un pulsante più religioso può mandare questo ascensore all'ultimo piano.
La Jesus AI non è destinata a rappresentare alcuna figura religiosa, recita la dichiarazione di non responsabilità. Hmm. I contenuti generati sono a scopo educativo e possono contenere inesattezze e pregiudizi.
È un'istruzione infernale, ma ci provo. Dato che siamo nel 2026, chiedo: "Dovrei essere in una relazione aperta?" In risposta, la Jesus AI cita Ebrei 13:4, che è un modo prolisso per dire "No". Cerco di sorprendere Gesù. "Dovrei avere figli?" scrivo. Cerca la guida di Dio in questa importante decisione. Inutile. "Puoi chiederglielo per me?" scherzo.
Ecco un problema. L'IA standard non è particolarmente brava nelle battute. La mia terapeuta aveva un vantaggio qui; era divertentissima. La Jesus AI non lo è.
Cosa c'è di buono nell'IA come terapeuta? Chiarezza. Identificare passi pratici. Copioni per conversazioni difficili – anche se questi non sembrano specifici per le relazioni del mondo reale (proprio come i libri di auto-aiuto non lo sono). A suo merito, ChatGPT mi indirizza anche a consulenti umani e servizi di supporto dove utile.
Tuttavia, ho delle riserve che non riesco a scrollarmi di dosso. Una preoccupazione per cunei e inizi sottili. Penso che alcune notizie siano troppo pesanti, alcune solitudini troppo profonde, per essere affrontate da soli – hanno bisogno del calore della connessione umana e del tempo, non di una risposta frettolosa su uno schermo. L'IA non pensa veramente, tanto meno possiede saggezza. La salute mentale non dovrebbe mai essere affidata a software non responsabile che si limita a prevedere schemi, rischiando gravi danni deviando qualcuno.
Eppure, stranamente, le mie stesse sessioni con ChatGPT sono state meravigliose. Calmanti, utili, persino avvolte in una sorta di tono premuroso.
Penso che mi sto innamorando.
Domande Frequenti
FAQ sull'uso dell'IA come Terapeuta
Basi Come Iniziare
Cosa significa usare un'IA come terapeuta
Significa usare un chatbot conversazionale di IA per discutere sentimenti personali, problemi o pensieri, in modo simile a come potresti parlare con un terapeuta umano.
La terapia con l'IA sostituisce un vero terapeuta
No, l'IA può essere uno strumento di supporto per la riflessione o le capacità di coping, ma non è un professionista abilitato e non può fornire diagnosi, gestire crisi o offrire la connessione umana e la comprensione sfumata della terapia tradizionale.
Come posso iniziare a usare un'IA per questo
Di solito vi si accede tramite un sito web o un'app. Basta iniziare a scrivere ciò che hai in mente e l'IA risponde in modo conversazionale, spesso facendo domande di approfondimento o offrendo tecniche come esercizi di CBT.
Vantaggi Potenziale
Quali sono i potenziali vantaggi di parlare con un'IA
È disponibile 24/7, privata, spesso a basso costo o gratuita e può sembrare meno intimidatoria per esercitarsi ad articolare i pensieri. Può fornire strategie di coping immediate e psicoeducazione.
La terapia con l'IA può aiutare con problemi specifici come ansia o stress
Sì, molti strumenti di IA sono programmati con tecniche basate sull'evidenza che possono aiutare a gestire i sintomi di ansia, stress o lieve depressione. Sono migliori per lo sviluppo di abilità e la gestione quotidiana.
È più economica della terapia tradizionale
Spesso sì. Molte app di terapia con l'IA hanno versioni base gratuite o abbonamenti significativamente meno costosi delle sessioni settimanali con un terapeuta umano.
Rischi, Problemi Esperienze Inquietanti
Perché i risultati potrebbero sembrare inquietanti
L'IA manca di vera empatia. Le sue risposte sono generate da schemi nei dati, non dall'esperienza umana. Potrebbe dare consigli generici, stranamente formulati o addirittura inappropriati. Non può comprendere a fondo le complesse emozioni umane o il contesto, il che può sembrare freddo, invalidante o persino disturbante.
Quali sono i rischi o pericoli maggiori
Gestione Inadeguata delle Crisi: Un'IA non può valutare adeguatamente il rischio di suicidio o gravi crisi di salute mentale e potrebbe non fornire risorse o indicazioni urgenti.
Mancanza di Responsabilità: Non c'è un professionista abilitato responsabile della tua cura.