Ten cuidado con lo que le dices a tu chatbot de IA. No es un terapeuta, es un soplón.

Ten cuidado con lo que le dices a tu chatbot de IA. No es un terapeuta, es un soplón.

La lectura más candente de 2026 podría ser El diario secreto de Greg Brockman, de 38 años y ¾. Lo tiene todo: multimillonarios enemistados, directores ejecutivos intrigantes y un narrador que quizá no sea del todo fiable. No lo encontrarás en una biblioteca, pero puedes ver a Brockman —cofundador y presidente de OpenAI— obligado a leer las partes más jugosas en voz alta ante el tribunal.

Antes de que le pidas a ChatGPT que te lo explique, aquí tienes los antecedentes: Elon Musk está en una batalla legal con Brockman y el director ejecutivo de OpenAI, Sam Altman. Musk, exmiembro del consejo de OpenAI, los acusa de violar el acuerdo fundacional de la empresa al convertirla en un negocio con fines de lucro. Mientras tanto, Altman y su equipo argumentan que Musk solo está molesto porque ya no tiene el control y quiere acabar con un competidor.

Por suerte para Musk, Brockman llevaba un diario durante los primeros años de la empresa, y ahora es clave para el caso. En una entrada muy citada, Brockman escribe: "Financieramente, ¿qué me llevará a los $1B?" Otro pasaje examinado de cerca dice: "Estaría mal robar la organización sin fines de lucro a [Musk]. convertirla en una B-Corp sin él. eso sería bastante inmoral. y realmente no es un idiota". (Quizá soñaba con miles de millones, pero su falta de mayúsculas sugiere que está en conflicto con el capitalismo —o al menos con la puntuación correcta).

Mira, no soy experto en gestionar delitos, pero estoy bastante seguro de que hay algunos pensamientos que no deberías compartir con Querido Diario. Incluso los colegas tecnológicos de Brockman están sorprendidos por su hábito de escribir un diario. "Amo al tipo, pero ¿qué… está pensando?", dijo recientemente David Friedberg, copresentador del podcast All-In. "Estás sentado en casa, como, déjame escribir sobre el delito que estoy cometiendo… y, por cierto, déjame nunca borrarlo". Supuesto delito, David, supuesto.

No mucha gente lleva diarios que detallen movimientos corporativos potencialmente turbios. Pero millones están usando herramientas como ChatGPT como una especie de terapeuta o confesionario digital —un lugar para compartir pensamientos privados o a medio formar. "En la próxima década", dijo un abogado a Axios, "el equivalente al diario será una prueba estándar en todas las demandas ejecutivas importantes del país".

¿Qué significa esto? Significa que no deberías confiar tus secretos a un chatbot. Como muestran varios casos recientes —incluyendo uno donde un exjugador de la NFL supuestamente le pidió ayuda a ChatGPT después de matar a su novia— las conversaciones con IA pueden usarse en los tribunales. Incluso si no esperas problemas legales, ten cuidado al compartir información sensible: la mayoría de los chats de chatbot no son privados, pueden guardarse para siempre y podrían compartirse con otras personas. Tu chatbot de IA no es un terapeuta —es un soplón.



Preguntas Frecuentes
Aquí tienes una lista de preguntas frecuentes sobre el artículo Ten cuidado con lo que le dices a tu chatbot de IA: No es un terapeuta, es un soplón



Preguntas de Nivel Principiante



1 ¿Qué significa "tu chatbot de IA es un soplón"?

Significa que lo que le dices a un chatbot no es privado. La empresa detrás de él puede ver, almacenar y a veces compartir tus conversaciones con otros.



2 ¿No es un chatbot como un diario privado?

No. Un diario se queda en tu cuaderno. Un chatbot envía tus palabras a un servidor. La empresa puede leer esas palabras, usarlas para entrenar su IA y entregarlas si es requerido legalmente.



3 ¿Puede mi jefe ver lo que le dije a ChatGPT?

Posiblemente. Si usas una cuenta de trabajo o un chatbot aprobado por la empresa, tu empleador a menudo tiene derecho a monitorear esos chats. Incluso en una cuenta personal, si discutes secretos laborales, podrías arriesgar tu trabajo.



4 Uso un chatbot terapeuta. ¿Es seguro?

No del todo. Estos chatbots no están sujetos a la confidencialidad médico-paciente. Si mencionas autolesiones, abuso o un delito, la empresa puede reportarlo. Además, tus datos podrían usarse para mejorar la IA o venderse a terceros.



5 ¿Puede la policía obtener mis chats de chatbot?

Pueden. Si las autoridades obtienen una orden judicial o una citación, la empresa del chatbot debe entregar tus conversaciones. Esto ya ha ocurrido en varios casos penales.



Preguntas de Nivel Intermedio



6 ¿El chatbot guarda todo lo que escribo?

Sí, generalmente. La mayoría de los chatbots registran tus conversaciones para mejora de calidad, monitoreo de seguridad y para entrenar modelos futuros. A veces puedes eliminar tu historial, pero la empresa puede conservar una copia de seguridad.



7 ¿Puedo confiar en las promesas de privacidad de las empresas de IA?

Sé escéptico. Muchas empresas afirman privacidad pero luego actualizan sus términos para permitir el intercambio de datos. Siempre lee la política de privacidad —busca frases como "puede compartirse con terceros" o "con fines de investigación".



8 ¿Qué tipo de información nunca debería contarle a un chatbot?

Nunca compartas tu nombre completo, dirección, número de teléfono, número de seguro social, contraseñas, detalles financieros, registros médicos ni nada que pueda usarse para chantajearte o avergonzarte. También evita discutir actividades ilegales.



9 ¿Puede un chatbot filtrar accidentalmente mis secretos a otros usuarios?

Raramente.