Tenha cuidado com o que você conta ao seu chatbot de IA. Ele não é um terapeuta — é um dedo-duro.

Tenha cuidado com o que você conta ao seu chatbot de IA. Ele não é um terapeuta — é um dedo-duro.

A nova leitura mais badalada de 2026 pode muito bem ser O Diário Secreto de Greg Brockman, Aos 38¾ Anos. Tem de tudo: bilionários em conflito, CEOs maquinando e um narrador que talvez não seja totalmente confiável. Você não vai encontrá-lo em uma biblioteca, mas pode assistir Brockman—cofundador e presidente da OpenAI—sendo forçado a ler as partes mais suculentas em voz alta no tribunal.

Antes de pedir ao ChatGPT para explicar, aqui está o contexto: Elon Musk está em uma briga judicial com Brockman e o CEO da OpenAI, Sam Altman. Musk, ex-membro do conselho da OpenAI, os acusa de quebrar o acordo de fundação da empresa ao transformá-la em um negócio com fins lucrativos. Enquanto isso, Altman e sua equipe argumentam que Musk está apenas chateado por não estar mais no controle e quer derrubar um concorrente.

Por sorte para Musk, Brockman manteve um diário durante os primeiros anos da empresa, e agora ele é central para o caso. Em uma entrada muito citada, Brockman escreve: "Financeiramente, o que vai me levar a US$ 1 bilhão?" Outra passagem examinada de perto diz: "Seria errado roubar a organização sem fins lucrativos do [Musk]. convertê-la em uma b-corp sem ele. isso seria moralmente falido. e ele realmente não é um idiota." (Ele pode ter sonhado com bilhões, mas a falta de letras maiúsculas sugere que ele está em conflito sobre o capitalismo—ou pelo menos sobre a pontuação adequada.)

Olha, não sou especialista em administrar crimes, mas tenho certeza de que há alguns pensamentos que você não deveria compartilhar com o Querido Diário. Até mesmo os colegas tech bros de Brockman estão chocados com seu hábito de escrever diários. "Eu amo o cara, mas o que... ele está pensando?" disse David Friedberg, co-apresentador do podcast All-In, recentemente. "Você está sentado em casa, tipo, deixa eu escrever sobre o crime que estou cometendo... e, aliás, deixa eu nunca deletar isso." Suposto crime, David, suposto.

Não são muitas as pessoas que mantêm diários detalhando movimentos corporativos potencialmente obscuros. Mas milhões estão usando ferramentas como o ChatGPT como uma espécie de terapeuta ou confessionário digital—um lugar para compartilhar pensamentos privados ou mal formulados. "Na próxima década", disse um advogado ao Axios, "o equivalente ao diário será descoberta padrão em toda grande ação judicial executiva no país."

O que isso significa? Significa que você não deve confiar seus segredos a um chatbot. Como vários casos recentes mostram—incluindo um em que um ex-jogador da NFL supostamente pediu ajuda ao ChatGPT depois de matar sua namorada—conversas com IA podem ser usadas no tribunal. Mesmo que você não espere problemas legais, tenha cuidado ao compartilhar informações sensíveis: a maioria dos chats de chatbot não são privados, podem ser mantidos para sempre e podem ser compartilhados com outras pessoas. Seu chatbot de IA não é um terapeuta—é um dedo-duro.

Perguntas Frequentes
Aqui está uma lista de perguntas frequentes sobre o artigo Cuidado com o que você conta ao seu chatbot de IA. Ele não é um terapeuta, é um dedo-duro.



Perguntas para Iniciantes



1 O que significa "seu chatbot de IA é um dedo-duro"?

Significa que o que você conta a um chatbot não é privado. A empresa por trás dele pode ver, armazenar e às vezes compartilhar suas conversas com outras pessoas.



2 Um chatbot não é como um diário privado?

Não. Um diário fica no seu caderno. Um chatbot envia suas palavras para um servidor. A empresa pode ler essas palavras, usá-las para treinar sua IA e entregá-las se for legalmente exigido.



3 Meu chefe pode ver o que eu disse ao ChatGPT?

Possivelmente. Se você usa uma conta de trabalho ou um chatbot aprovado pela empresa, seu empregador geralmente tem o direito de monitorar esses chats. Mesmo em uma conta pessoal, se você discutir segredos do trabalho, pode estar arriscando seu emprego.



4 Eu uso um chatbot terapeuta. Isso é seguro?

Não totalmente. Esses chatbots não estão sujeitos ao sigilo médico-paciente. Se você mencionar automutilação, abuso ou um crime, a empresa pode denunciar. Além disso, seus dados podem ser usados para melhorar a IA ou vendidos a terceiros.



5 A polícia vai pegar meus chats de chatbot?

Eles podem. Se a polícia conseguir um mandado ou intimação, a empresa do chatbot deve entregar suas conversas. Isso já aconteceu em vários casos criminais.



Perguntas Intermediárias



6 O chatbot salva tudo que eu digito?

Sim, geralmente. A maioria dos chatbots registra suas conversas para melhoria de qualidade, monitoramento de segurança e para treinar modelos futuros. Você pode às vezes deletar seu histórico, mas a empresa ainda pode manter um backup.



7 Posso confiar nas promessas de privacidade das empresas de IA?

Seja cético. Muitas empresas afirmam privacidade, mas depois atualizam seus termos para permitir compartilhamento de dados. Sempre leia a política de privacidade—procure frases como "pode compartilhar com terceiros" ou "para fins de pesquisa".



8 Que tipo de informação eu nunca deveria contar a um chatbot?

Nunca compartilhe seu nome completo, endereço, número de telefone, número de seguro social, senhas, detalhes financeiros, registros médicos ou qualquer coisa que possa ser usada para chantagear ou envergonhar você. Também evite discutir atividades ilegais.



9 Um chatbot pode vazar acidentalmente meus segredos para outros usuários?

Raramente.