Minha foto foi usada em imagens de abuso infantil. Agora, a IA está forçando outras pessoas a reviverem meu pesadelo.

Minha foto foi usada em imagens de abuso infantil. Agora, a IA está forçando outras pessoas a reviverem meu pesadelo.

Quando eu era menina, nada era mais assustador do que um estranho. No final dos anos 1980 e início dos 1990, nossos pais, programas especiais de TV e professores nos alertavam que estranhos queriam nos machucar. O "Perigo do Estranho" estava em todo lugar. Era uma lição bem-intencionada, mas o risco foi exagerado: a maioria dos abusos infantis é cometida por pessoas que a criança conhece. O abuso por estranhos é muito mais raro.

Mais raro, mas não impossível. Eu sei porque fui explorada sexualmente por estranhos.

Dos cinco aos 13 anos, fui atriz mirim. Embora tenhamos ouvido muitas histórias de horror recentemente sobre abusos nos bastidores, eu sempre me senti segura nos sets de filmagem. Os sets eram espaços regulados onde as pessoas se concentravam no trabalho. Eu tinha pais solidários e estava cercada por diretores, atores e professores que entendiam e cuidavam das crianças.

A única maneira pela qual o show business me colocou em perigo foi me expondo ao olhar público. Qualquer crueldade e exploração que enfrentei veio do público.

"Hollywood te joga na piscina", eu sempre digo, "mas é o público que segura sua cabeça debaixo d'água."

Antes mesmo de eu começar o ensino médio, minha imagem já havia sido usada em material de abuso sexual infantil. Eu aparecia em sites de fetiche e era editada em pornografia. Homens adultos me enviavam cartas assustadoras. Eu não era uma garota bonita — minha fase desajeitada durou dos 10 aos 25 anos — e atuava quase exclusivamente em filmes familiares. Mas eu era uma figura pública, então eu estava acessível. É isso que os predadores buscam: acesso. E nada me tornou mais acessível do que a internet.

Não importava que aquelas imagens "não fossem eu" ou que os sites fossem "tecnicamente" legais. Foi uma experiência dolorosa e violadora — um pesadelo vivo que eu esperava que nenhuma outra criança tivesse que suportar. Como adulta, eu me preocupava com as crianças que vieram depois de mim. Coisas semelhantes estavam acontecendo com as estrelas da Disney, o elenco de **Stranger Things** ou pré-adolescentes fazendo danças no TikTok e aparecendo em vlogs familiares? Eu não tinha certeza se queria saber.

Quando a IA generativa ganhou força há alguns anos, eu temi o pior. Eu tinha ouvido falar sobre "deepfakes" e sabia que a tecnologia estava se tornando exponencialmente mais realista.

Então aconteceu — ou pelo menos, o mundo percebeu. A IA generativa já foi usada muitas vezes para criar imagens sexualizadas de mulheres adultas sem seu consentimento. Aconteceu com amigas minhas. Mas recentemente, foi relatado que a ferramenta de IA Grok, do X, foi usada abertamente para gerar imagens sem roupa de uma atriz menor de idade. Semanas antes, uma menina de 13 anos foi expulsa da escola por agredir um colega que supostamente criou pornografia deepfake dela — quase na mesma idade em que eu estava quando criaram imagens sexualizadas falsas minhas.

Em julho de 2024, a Internet Watch Foundation encontrou mais de 3.500 imagens de abuso sexual infantil geradas por IA em um fórum da dark web. Quantos milhares mais foram criados desde então?

A IA generativa reinventou o Perigo do Estranho. E desta vez, o medo é justificado. Agora é infinitamente mais fácil para qualquer criança cujo rosto esteja online ser explorada sexualmente. Milhões de crianças podem ser forçadas a viver meu pesadelo.

Para deter essa crise de deepfakes, precisamos examinar como a IA é treinada.

A IA generativa "aprende" através de um processo repetido de "olhar, fazer, comparar, atualizar, repetir", diz Patrick LaVictoire, matemático e ex-pesquisador de segurança de IA. Ela cria modelos baseados em informações memorizadas, mas como não pode memorizar tudo, busca padrões e baseia suas respostas neles. "Uma conexão que é..." LaVictoire explica que comportamentos úteis da IA são reforçados, enquanto os inúteis ou prejudiciais são podados. O que a IA generativa pode produzir depende inteiramente de seus dados de treinamento. Um estudo de 2023 da Stanford revelou que um conjunto de dados de treinamento popular continha mais de 1.000 instâncias de material de abuso sexual infantil (CSAM). Embora esses links tenham sido removidos desde então, pesquisadores alertam para outro perigo: a IA poderia gerar CSAM combinando imagens inocentes de crianças com pornografia adulta, se ambos os tipos estiverem presentes nos dados.

Empresas como Google e OpenAI dizem ter salvaguardas, como a curadoria cuidadosa dos dados de treinamento. No entanto, é importante notar que imagens de muitas artistas adultas e trabalhadoras sexuais foram coletadas para IA sem seu consentimento.

LaVictoire aponta que a IA generativa em si não consegue distinguir entre solicitações inofensivas, como "faça uma imagem de um samurai Jedi", e prejudiciais, como "despir esta celebridade". Para lidar com isso, outra camada de IA, semelhante a um filtro de spam, pode bloquear tais consultas. A xAI, empresa por trás do Grok, parece ter sido negligente com esse filtro.

A situação pode piorar. Meta e outras propuseram tornar os futuros modelos de IA de código aberto, o que significa que qualquer pessoa poderia acessar, baixar e modificar o código. Embora o software de código aberto normalmente promova criatividade e colaboração, essa liberdade pode ser desastrosa para a segurança infantil. Uma plataforma de IA baixada e de código aberto poderia ser ajustada com imagens explícitas ou ilegais para criar CSAM ilimitado ou "pornografia de vingança", sem nenhuma salvaguarda.

A Meta parece ter recuado de tornar suas plataformas de IA mais recentes totalmente de código aberto. Talvez Mark Zuckerberg tenha considerado o legado potencial, afastando-se de um caminho que poderia compará-lo mais a um "Oppenheimer do CSAM" do que a um imperador romano.

Alguns países estão agindo. A China exige que o conteúdo gerado por IA seja rotulado. A Dinamarca está redigindo legislação para dar aos indivíduos direitos autorais sobre sua imagem e voz, com multas para plataformas que não cumprirem. Na Europa e no Reino Unido, proteções também podem vir de regulamentações como o GDPR.

A perspectiva nos Estados Unidos parece mais sombria. Reivindicações de direitos autorais frequentemente falham porque os acordos de uso geralmente concedem às plataformas amplos direitos sobre o conteúdo carregado. Com ordens executivas se opondo à regulamentação de IA e empresas como a xAI fazendo parceria com o exército, o governo dos EUA parece priorizar os lucros da IA em vez da segurança pública.

O advogado de Nova York Akiva Cohen observa leis recentes que criminalizam algumas manipulações digitais, mas diz que elas são frequentemente muito restritivas. Por exemplo, criar um deepfake que mostre alguém nu ou em ato sexual pode ser criminal, mas usar IA para colocar uma mulher — ou mesmo uma menor de idade — em um biquíni provavelmente não seria.

"Muito disso fica conscientemente bem no lado 'horrível, mas legal' da linha", diz Cohen. Embora tais atos possam não ser crimes contra o estado, Cohen argumenta que eles podem ser responsabilidades civis, violando os direitos de uma pessoa e exigindo reparação. Ele sugere que isso se enquadra em delitos como "falsa luz" ou "invasão de privacidade". Uma forma de ilícito envolve fazer alegações ofensivas sobre uma pessoa, retratando-a sob uma falsa luz — essencialmente mostrando alguém fazendo algo que nunca fez.

"A maneira de realmente desencorajar esse tipo de comportamento é responsabilizando as empresas que o possibilitam", diz Cohen.

Há precedente legal para isso: a Lei Raise de Nova York e o Projeto de Lei 53 do Senado da Califórnia afirmam que as empresas de IA podem ser responsabilizadas por danos que causam além de um certo ponto. Enquanto isso, o X anunciou que bloqueará sua ferramenta de IA Grok de gerar imagens sexualizadas de pessoas reais em sua plataforma — embora essa mudança de política não pareça se aplicar ao aplicativo independente Grok.

Josh Saviano, ex-advogado em Nova York e ex-ator mirim, acredita que é necessária uma ação mais imediata junto com a legislação.

"Esforços de lobby e os tribunais acabarão lidando com isso", diz Saviano. "Mas até lá, há duas opções: abster-se completamente, removendo toda sua pegada digital da internet, ou encontrar uma solução tecnológica."

Proteger os jovens é especialmente importante para Saviano, que conhece pessoas afetadas por deepfakes e, por sua própria experiência como ator mirim, entende como é perder o controle da própria história. Ele e sua equipe estão desenvolvendo uma ferramenta para detectar e alertar as pessoas quando suas imagens ou trabalhos criativos estão sendo coletados online. Seu lema, ele diz, é: "Protejam os bebês."

Seja como for, acredito que a defesa contra essa ameaça exigirá um esforço público significativo.

Enquanto alguns estão se apegando a seus chatbots de IA, a maioria das pessoas ainda vê as empresas de tecnologia como pouco mais que utilitários. Podemos preferir um aplicativo a outro por razões pessoais ou políticas, mas a forte fidelidade à marca é rara. As empresas de tecnologia — especialmente plataformas de mídia social como Meta e X — devem lembrar que são um meio para um fim. Se alguém como eu, que estava no Twitter todos os dias por mais de uma década, pode deixá-lo, qualquer um pode.

Mas boicotes por si só não são suficientes. Devemos exigir que as empresas que permitem a criação de material de abuso sexual infantil sejam responsabilizadas. Precisamos pressionar por legislação e salvaguardas tecnológicas. Também temos que examinar nosso próprio comportamento: ninguém quer pensar que compartilhar fotos de seu filho pode levar ao uso dessas imagens em material abusivo. No entanto, é um risco real — um risco que os pais devem proteger para crianças pequenas e educar crianças mais velhas.

Se nosso foco passado no "Perigo do Estranho" nos ensinou algo, é que a maioria das pessoas quer evitar o perigo e o assédio às crianças. Agora é hora de provar isso.

Mara Wilson é escritora e atriz baseada em Los Angeles.

**Perguntas Frequentes**

Claro. Aqui está uma lista de FAQs sobre a questão profundamente preocupante do uso indevido de fotos pessoais em conteúdo abusivo e a nova ameaça representada por imagens geradas por IA.

**Entendendo o Problema Central**

**P: O que significa quando alguém diz que sua foto foi usada em material de abuso infantil?**
R: Significa que uma foto pessoal não sexual dela foi tirada sem consentimento e alterada digitalmente ou colocada em imagens ou vídeos sexualmente abusivos. Esta é uma forma grave de abuso sexual baseado em imagem.

**P: Como a IA está piorando esse problema?**
R: Ferramentas de IA agora podem gerar imagens e vídeos falsos altamente realistas. Os perpetradores podem usar uma única foto inocente para criar novo conteúdo abusivo fabricado, tornando a vitimização interminável e impossibilitando a remoção completa da foto original da circulação.

**P: Ouvi o termo "deepfake". É isso?**
R: Sim, neste contexto. Um deepfake usa IA para sobrepor o rosto de uma pessoa no corpo de outra em um vídeo ou imagem. Quando isso é feito para criar conteúdo abusivo, é uma forma de falsificação digital e um crime grave.

**Para Vítimas e Quem se Preocupa em se Tornar uma Vítima**

**P: O que devo fazer se descobrir que minha foto foi usada indevidamente dessa forma?**
R: 1. Não delete as evidências. Tire capturas de tela com URLs. 2. Denuncie imediatamente à plataforma onde encontrou. 3. Registre um boletim de ocorrência com a polícia. 4. Entre em contato com uma organização de apoio como a Cyber Civil Rights Initiative ou a RAINN para obter ajuda.

**P: Posso remover essas falsificações geradas por IA da internet?**
R: É desafiador, mas possível. Você deve denunciar cada instância à plataforma de hospedagem. Muitas grandes plataformas têm políticas contra imagens íntimas não consensuais. Também existem serviços como o Take It Down que podem ajudar a impedir o compartilhamento de imagens conhecidas.

**P: Como posso proteger minhas fotos de serem usadas indevidamente por IA?**
R: Embora nenhum método seja infalível, você pode ser muito seletivo sobre o que compartilha publicamente online, usar configurações de privacidade rigorosas, evitar postar fotos de alta resolução e considerar o uso de marcas d'água digitais. Tenha cuidado com aplicativos que usam