Da bambina, niente era più spaventoso di uno sconosciuto. Alla fine degli anni '80 e all'inizio degli anni '90, i nostri genitori, i programmi televisivi speciali e gli insegnanti ci avvertivano tutti che gli sconosciuti volevano farci del male. Il pericolo degli sconosciuti era ovunque. Era una lezione data con buone intenzioni, ma il rischio era esagerato: la maggior parte degli abusi sui minori è commessa da persone che il bambino conosce. Gli abusi da parte di estranei sono molto più rari.
Più rari, ma non impossibili. Lo so perché sono stata sfruttata sessualmente da estranei.
Dall'età di cinque a tredici anni, sono stata un'attrice bambina. Sebbene di recente abbiamo sentito molte storie horror sugli abusi dietro le quinte, io mi sono sempre sentita al sicuro sul set. I set cinematografici erano spazi regolamentati dove le persone si concentravano sul lavoro. Avevo genitori di supporto ed ero circondata da registi, attori e insegnanti che comprendevano e si prendevano cura dei bambini.
L'unico modo in cui lo show business mi ha messa in pericolo è stato esponendomi al pubblico. Qualsiasi crudeltà e sfruttamento che ho affrontato proveniva dal pubblico.
"Hollywood ti butta in piscina", dico sempre, "ma è il pubblico che ti tiene la testa sott'acqua".
Ancora prima di iniziare le superiori, la mia immagine era stata utilizzata in materiale di abuso sessuale infantile. Sono apparsa su siti web feticisti e sono stata photoshoppata in pornografia. Uomini adulti mi hanno inviato lettere inquietanti. Non ero una bambina bellissima - la mia fase goffa è durata dai 10 ai 25 anni circa - e ho recitato quasi esclusivamente in film per famiglie. Ma ero una figura pubblica, quindi ero accessibile. Questo è ciò che cercano i predatori: accesso. E niente mi ha resa più accessibile di internet.
Non importava che quelle immagini "non fossi io" o che i siti fossero "tecnicamente" legali. È stata un'esperienza dolorosa e violante - un incubo a occhi aperti che speravo nessun altro bambino avrebbe mai dovuto sopportare. Da adulta, mi preoccupavo per i bambini che sono venuti dopo di me. Cose simili stavano accadendo alle star della Disney, al cast di Stranger Things, o ai preadolescenti che creano balli su TikTok e appaiono in vlog familiari? Non ero sicura di volerlo sapere.
Quando l'IA generativa ha preso piede alcuni anni fa, ho temuto il peggio. Avevo sentito parlare di "deepfake" e sapevo che la tecnologia stava diventando esponenzialmente più realistica.
Poi è successo - o almeno, il mondo se n'è accorto. L'IA generativa è già stata utilizzata molte volte per creare immagini sessualizzate di donne adulte senza il loro consenso. È successo ad amiche mie. Ma di recente, è stato riferito che lo strumento di IA Grok di X era stato utilizzato apertamente per generare immagini spogliate di un'attrice minorenne. Settimane prima, una ragazza di 13 anni era stata espulsa da scuola per aver colpito una compagna di classe che avrebbe creato pornografia deepfake su di lei - più o meno alla stessa età in cui le persone creavano false immagini sessualizzate di me.
Nel luglio 2024, l'Internet Watch Foundation ha trovato oltre 3.500 immagini di abuso sessuale infantile generate da IA su un forum del dark web. Quante altre migliaia ne sono state create da allora?
L'IA generativa ha reinventato il pericolo degli sconosciuti. E questa volta, la paura è giustificata. Ora è infinitamente più facile per qualsiasi bambino il cui volto è online essere sfruttato sessualmente. Milioni di bambini potrebbero essere costretti a vivere il mio incubo.
Per fermare questa crisi dei deepfake, dobbiamo esaminare come viene addestrata l'IA.
L'IA generativa "impara" attraverso un processo ripetuto di "guarda, crea, confronta, aggiorna, ripeti", dice Patrick LaVictoire, matematico ed ex ricercatore sulla sicurezza dell'IA. Crea modelli basandosi su informazioni memorizzate, ma poiché non può memorizzare tutto, cerca modelli e basa le sue risposte su quelli. "Una connessione che è..." LaVictoire spiega che i comportamenti utili dell'IA vengono rafforzati, mentre quelli inutili o dannosi vengono eliminati. Ciò che l'IA generativa può produrre dipende interamente dai suoi dati di addestramento. Uno studio della Stanford del 2023 ha rivelato che un popolare dataset di addestramento conteneva oltre 1.000 istanze di materiale di abuso sessuale infantile (CSAM). Sebbene quei collegamenti siano stati rimossi in seguito, i ricercatori avvertono di un altro pericolo: l'IA potrebbe generare CSAM combinando immagini innocenti di bambini con pornografia adulta se entrambi i tipi sono presenti nei dati.
Aziende come Google e OpenAI affermano di avere garanzie, come la cura attenta dei dati di addestramento. Tuttavia, è importante notare che le immagini di molti artisti adulti e sex worker sono state raccolte per l'IA senza il loro consenso.
LaVictoire sottolinea che l'IA generativa stessa non può distinguere tra richieste innocue, come "crea un'immagine di un samurai Jedi", e richieste dannose, come "spoglia questa celebrità". Per affrontare questo problema, un altro strato di IA, simile a un filtro antispam, può bloccare tali query. xAI, l'azienda dietro Grok, sembra essere stata permissiva con questo filtro.
La situazione potrebbe peggiorare. Meta e altri hanno proposto di rendere open source i futuri modelli di IA, il che significa che chiunque potrebbe accedere, scaricare e modificare il codice. Sebbene il software open source tipicamente favorisca creatività e collaborazione, questa libertà potrebbe essere disastrosa per la sicurezza dei bambini. Una piattaforma di IA scaricata e open source potrebbe essere perfezionata con immagini esplicite o illegali per creare CSAM illimitato o "pornografia di vendetta", senza alcuna garanzia in atto.
Meta sembra essersi ritirata dal rendere completamente open source le sue piattaforme di IA più recenti. Forse Mark Zuckerberg ha considerato la potenziale eredità, allontanandosi da un percorso che potrebbe avvicinarlo più a un "Oppenheimer del CSAM" che a un imperatore romano.
Alcuni paesi stanno agendo. La Cina richiede che i contenuti generati da IA siano etichettati. La Danimarca sta redigendo una legislazione per dare agli individui il copyright sulla propria immagine e voce, con multe per le piattaforme non conformi. In Europa e nel Regno Unito, le protezioni potrebbero arrivare anche da regolamenti come il GDPR.
La prospettiva negli Stati Uniti sembra più fosca. Le rivendicazioni di copyright spesso falliscono perché gli accordi utente tipicamente concedono alle piattaforme ampi diritti sui contenuti caricati. Con ordini esecutivi che si oppongono alla regolamentazione dell'IA e aziende come xAI che collaborano con i militari, il governo degli Stati Uniti sembra dare priorità ai profitti dell'IA rispetto alla sicurezza pubblica.
L'avvocato di New York Akiva Cohen nota le recenti leggi che criminalizzano alcune manipolazioni digitali, ma dice che sono spesso eccessivamente restrittive. Ad esempio, creare un deepfake che mostra qualcuno nudo o in un atto sessuale potrebbe essere criminale, ma usare l'IA per mettere una donna - o anche una minorenne - in bikini probabilmente non lo sarebbe.
"Molto di questo rimane consapevolmente proprio sul lato 'orribile, ma legale' della linea", dice Cohen. Sebbene tali atti possano non essere reati contro lo stato, Cohen sostiene che potrebbero essere responsabilità civili, violando i diritti di una persona e richiedendo un risarcimento. Suggerisce che rientra in illeciti come "falsa luce" o "invasione della privacy". Una forma di illecito comporta fare affermazioni offensive su una persona, ritraendola in una falsa luce - essenzialmente mostrando qualcuno che fa qualcosa che non ha mai realmente fatto.
"Il modo per scoraggiare veramente questo tipo di comportamento è ritenere responsabili le aziende che lo consentono", dice Cohen.
C'è un precedente legale per questo: il Raise Act di New York e il Senate Bill 53 della California affermano che le aziende di IA possono essere ritenute responsabili per i danni che causano oltre un certo punto. Nel frattempo, X ha annunciato che bloccherà il suo strumento di IA Grok dal generare immagini sessualizzate di persone reali sulla sua piattaforma - sebbene questo cambiamento di politica non sembri applicarsi all'app autonoma Grok.
Josh Saviano, ex avvocato a New York ed ex attore bambino, ritiene che siano necessarie azioni più immediate insieme alla legislazione.
"Le attività di lobbying e i tribunali alla fine affronteranno questo problema", dice Saviano. "Ma fino ad allora, ci sono due opzioni: astenersi completamente rimuovendo tutta la propria impronta digitale da internet, o trovare una soluzione tecnologica."
Proteggere i giovani è particolarmente importante per Saviano, che conosce persone colpite da deepfake e, per la sua esperienza di attore bambino, sa cosa significhi perdere il controllo della propria storia. Lui e il suo team stanno sviluppando uno strumento per rilevare e avvisare le persone quando le loro immagini o opere creative vengono raccolte online. Il loro motto, dice, è: "Proteggere i bambini."
Comunque accada, credo che difendersi da questa minaccia richiederà uno sforzo pubblico significativo.
Mentre alcuni si stanno affezionando ai loro chatbot di IA, la maggior parte delle persone vede ancora le aziende tecnologiche poco più che come servizi. Potremmo preferire un'app rispetto a un'altra per ragioni personali o politiche, ma una forte fedeltà al marchio è rara. Le aziende tecnologiche - specialmente le piattaforme di social media come Meta e X - dovrebbero ricordare che sono un mezzo per un fine. Se qualcuno come me, che è stato su Twitter ogni giorno per oltre un decennio, può lasciarlo, chiunque può.
Ma i boicottaggi da soli non bastano. Dobbiamo chiedere che le aziende che consentono la creazione di materiale di abuso sessuale infantile siano ritenute responsabili. Dobbiamo spingere per una legislazione e garanzie tecnologiche. Dobbiamo anche esaminare il nostro comportamento: nessuno vuole pensare che condividere foto del proprio bambino possa portare all'uso di quelle immagini in materiale abusivo. Eppure è un rischio reale - un rischio che i genitori devono prevenire per i bambini piccoli e di cui devono educare i bambini più grandi.
Se la nostra passata attenzione al "pericolo degli sconosciuti" ci ha insegnato qualcosa, è che la maggior parte delle persone vuole prevenire il pericolo e le molestie ai bambini. Ora è il momento di dimostrarlo.
Mara Wilson è una scrittrice e attrice con sede a Los Angeles.
**Domande Frequenti**
Ecco un elenco di FAQ sul problema profondamente preoccupante delle foto personali utilizzate in modo improprio in contenuti abusivi e la nuova minaccia posta dalle immagini generate dall'IA.
**Comprendere il Problema Fondamentale**
**D: Cosa significa quando qualcuno dice che la sua foto è stata usata in materiale di abuso infantile?**
R: Significa che una foto personale e non sessuale di loro è stata presa senza consenso e alterata digitalmente o inserita in immagini o video sessualmente abusivi. Questa è una forma grave di abuso sessuale basato sulle immagini.
**D: In che modo l'IA sta peggiorando questo problema?**
R: Gli strumenti di IA possono ora generare immagini e video falsi altamente realistici. I perpetratori possono usare una singola foto innocente per creare nuovi contenuti abusivi fabbricati, rendendo la vittimizzazione infinita e la foto originale impossibile da rimuovere completamente dalla circolazione.
**D: Ho sentito il termine "deepfake" - è questo?**
R: Sì, in questo contesto. Un deepfake utilizza l'IA per sovrapporre il volto di una persona sul corpo di un'altra persona in un video o immagine. Quando ciò viene fatto per creare contenuti abusivi, è una forma di falsificazione digitale e un grave crimine.
**Per le Vittime e Coloro che Temono di Diventare Vittime**
**D: Cosa dovrei fare se scopro che la mia foto è stata usata in questo modo?**
R: 1) Non eliminare le prove. Fai screenshot con gli URL. 2) Segnala immediatamente alla piattaforma dove l'hai trovata. 3) Presenta una denuncia alle forze dell'ordine. 4) Contatta un'organizzazione di supporto come la Cyber Civil Rights Initiative o RAINN per chiedere aiuto.
**D: Posso far rimuovere questi falsi generati dall'IA da internet?**
R: È difficile ma possibile. Devi segnalare ogni istanza alla piattaforma di hosting. Molte piattaforme importanti hanno politiche contro le immagini intime non consensuali. Ci sono anche servizi come Take It Down che possono aiutare a prevenire la condivisione di immagini note.
**D: Come posso proteggere le mie foto dall'essere usate impropriamente dall'IA?**
R: Sebbene nessun metodo sia infallibile, puoi essere molto selettivo su ciò che condividi pubblicamente online, utilizzare impostazioni di privacy rigorose, evitare di pubblicare foto ad alta risoluzione e considerare l'uso di filigrane digitali. Sii cauto con le app che utilizzano...