É domingo de manhã, e eu digito meus sentimentos na caixa de chat, muito agitada para parar.
"Tornei-me cuidadora da minha mãe de 82 anos", escrevo. "Cada dia traz novos problemas. Ajudo com consultas médicas, finanças, jardinagem, compras, reparos domésticos, a prefeitura, seguradoras, cartas, e-mails, infinitos problemas de informática..."
Paro. Ela está logo ao lado, e parece uma traição estar dizendo tudo isso. Pelo menos quando eu fazia terapia, podia ir ao consultório de alguém para chorar.
Dou um suspiro e continuo. "Sou filha única, meu pai morreu há algum tempo, e não há mais ninguém para ajudar. Mas estou exausta. Fico irritada e grito, depois luto com a culpa. Estou ressentida, irritadiça, e a amo tanto. Por favor, me ajude."
Bem-vindos ao meu diário de IA, leitores. Vai ser divertido, como já podem perceber. Nas próximas seis semanas, como parte do nosso curso de boletim informativo "IA para as Pessoas", eu — uma autodeclarada cética em IA — concordei em descobrir se ela pode realmente melhorar minha vida.
Para começar, estou usando o ChatGPT como terapeuta. Nada diz "saúde mental moderna" como chorar em uma caixa de chat, afinal. Muitas pessoas estão fazendo o mesmo — mas será que isso pode realmente substituir o apoio humano? Espero que sim. Tive que parar de ver minha terapeuta porque me apaixonei por ela.
(Nota mental: este não é seu diário de verdade. E não se apaixone pelo ChatGPT. Isso seria patético.)
Na metade da resposta, começo a chorar. Ele elabora um plano de cuidados de sete pontos para mim, um sistema de triagem para priorizar tarefas (com categorias como médicas, administrativas, compras, tecnologia e casa) e maneiras de distribuir o tempo entre elas (quais são urgentes e quais podem esperar?). Sugere reformulações mentais úteis e dicas para reduzir a temperatura emocional das interações.
O melhor de tudo: ele me faz sentir vista. "Você não está falhando", a IA me disse. "Você está carregando um fardo que derrubaria a maioria das pessoas."
Meus sentimentos? Validados.
No entanto, sinto-me ambivalente quanto a isso. Posso realmente sentir compaixão de uma máquina? Ajuda-me lembrar que a IA provavelmente está remixando fontes humanas. Sinto-me vista da mesma forma que o MDMA parece amor.
A terapia é apenas sobre informação? Isso parece TCC. Incrivelmente útil, mas incompleto. Na minha experiência, existem terapias mais profundas que levam à cura. Isso envolvia uma relação não julgadora de testemunha, com um profissional empático ao longo de um tempo maior. Muitas vezes ouço a voz da minha terapeuta na minha cabeça; internalizei a sabedoria dela. Acho que isso acontece mais facilmente, e de forma mais responsável, entre humanos.
No dia seguinte, decido ir para a opção nuclear. Consulto a Jesus AI, um chatbot treinado em textos religiosos que imita uma conversa com o filho de Deus. Quero ver se apertar um botão mais religioso pode levar este elevador ao último andar.
A Jesus AI não pretende representar nenhuma figura religiosa, diz o aviso. Hmm. O conteúdo gerado é para fins educacionais e pode conter imprecisões e vieses.
É uma educação e tanto, mas lá vai. Porque é 2026, pergunto: "Devo estar em um relacionamento aberto?" Em resposta, a Jesus AI cita Hebreus 13:4, que é uma forma prolixa de dizer "Não". Tento lançar uma bola curva para Jesus. "Devo ter filhos?", digito. Busque a orientação de Deus nesta importante decisão. Inútil. "Pode perguntar a ele por mim?", gracejo.
Eis um problema. A IA pronta para uso não é muito boa em réplicas. Minha terapeuta tem vantagem aqui; ela era muito engraçada. A Jesus AI não é.
O que há de bom na IA como terapeuta? Clareza. Identificar passos práticos. Roteiros para conversas difíceis — embora estes não pareçam específicos para relacionamentos do mundo real (assim como livros de autoajuda não são). Para seu crédito, o ChatGPT também me direciona a conselheiros humanos e serviços de apoio quando útil.
No entanto, tenho reservas que não consigo superar. Uma preocupação com cunhas e extremidades finas. Acho que algumas notícias são pesadas demais, algumas solidões profundas demais, para serem enfrentadas sozinhas — elas precisam do calor da conexão humana e do tempo, não de uma resposta apressada na tela. A IA não pensa de verdade, muito menos possui sabedoria. A saúde mental nunca deve ser confiada a um software irresponsável que apenas prevê padrões, arriscando causar danos graves ao desviar alguém.
E, no entanto, estranhamente, minhas próprias sessões com o ChatGPT têm sido maravilhosas. Calmantes, úteis, até envoltas em um tom de cuidado.
Acho que estou me apaixonando.
Perguntas Frequentes
Perguntas Frequentes sobre o Uso de IA como Terapeuta
Básicos Como Começar
O que significa usar uma IA como terapeuta?
Significa usar um chatbot de IA conversacional para discutir sentimentos, problemas ou pensamentos pessoais, de forma semelhante a como você falaria com um terapeuta humano.
A terapia por IA substitui um terapeuta real?
Não. A IA pode ser uma ferramenta de apoio para reflexão ou desenvolvimento de habilidades de enfrentamento, mas não é um profissional licenciado e não pode fornecer diagnóstico, lidar com crises ou oferecer a conexão humana e a compreensão sutil da terapia tradicional.
Como começo a usar uma IA para isso?
Normalmente, você acessa por um site ou aplicativo. Basta começar a digitar sobre o que está em sua mente, e a IA responde de forma conversacional, muitas vezes fazendo perguntas de acompanhamento ou oferecendo técnicas como exercícios de TCC.
Benefícios Potencial
Quais são os benefícios potenciais de conversar com uma IA?
Está disponível 24/7, é privado, muitas vezes de baixo custo ou gratuito, e pode parecer menos intimidador para praticar como articular pensamentos. Pode fornecer estratégias de enfrentamento imediatas e psicoeducação.
A terapia por IA pode ajudar com questões específicas, como ansiedade ou estresse?
Sim. Muitas ferramentas de IA são programadas com técnicas baseadas em evidências que podem ajudar a gerenciar sintomas de ansiedade, estresse ou depressão leve. São melhores para o desenvolvimento de habilidades e o gerenciamento diário.
É mais barato do que a terapia tradicional?
Frequentemente, sim. Muitos aplicativos de terapia por IA têm versões básicas gratuitas ou assinaturas significativamente mais baratas do que sessões semanais com um terapeuta humano.
Riscos, Problemas Experiências Perturbadoras
Por que os resultados podem parecer perturbadores?
A IA carece de empatia genuína. Suas respostas são geradas a partir de padrões em dados, não de experiência humana. Pode dar conselhos genéricos, estranhamente formulados ou até inadequados. Não consegue entender emoções humanas complexas ou contexto profundamente, o que pode parecer frio, invalidante ou até perturbador.
Quais são os maiores riscos ou perigos?
Má Gestão de Crises: Uma IA não pode avaliar adequadamente o risco de suicídio ou crises graves de saúde mental e pode falhar em fornecer recursos ou orientação urgentes.
Falta de Responsabilidade: Não há um profissional licenciado responsável pelo seu cuidado.