Când eram fetiță, nimic nu era mai înfricoșător decât un străin. La sfârșitul anilor 1980 și începutul anilor 1990, părinții noștri, emisiunile speciale de televiziune și profesorii ne avertizau că străinii vor să ne facă rău. Pericolul străinilor era omniprezent. Era o lecție bine-intenționată, dar riscul a fost exagerat: majoritatea abuzurilor asupra copiilor sunt comise de persoane pe care copilul le cunoaște. Abuzul din partea străinilor este mult mai rar.
Mai rar, dar nu imposibil. Știu pentru că am fost exploatată sexual de străini.
Între vârstele de cinci și 13 ani, am fost actriță copil. Deși am auzit recent multe povești de groază despre abuzuri din culise, eu m-am simțit întotdeauna în siguranță pe platou. Platourile de filmare erau spații reglementate unde oamenii se concentrau pe muncă. Aveam părinți susținători și eram înconjurată de regizori, actori și profesori care înțelegeau și aveau grijă de copii.
Singurul mod în care industria show-urilor m-a pus în pericol a fost prin expunerea mea în ochii publicului. Orice cruzime și exploatare pe care le-am înfruntat au venit de la public.
„Hollywood te aruncă în piscină”, spun mereu, „dar publicul este cel care ți-l ține capul sub apă.”
Înainte chiar să încep liceul, imaginea mea fusese deja folosită în materiale de abuz sexual infantil. Apăream pe site-uri fetișiste și eram photoshopată în pornografie. Bărbați adulți îmi trimiteau scrisori înfiorătoare. Nu eram o fată frumoasă – faza mea stângace a durat de la vârsta de aproximativ 10 ani până la 25 – și jucam aproape exclusiv în filme pentru familie. Dar eram o persoană publică, așa că eram accesibilă. Asta caută prădătorii: acces. Și nimic nu m-a făcut mai accesibilă decât internetul.
Nu conta că acele imagini „nu eram eu” sau că site-urile erau „tehnic” legale. A fost o experiență dureroasă, violatoare – un coșmar din care speram că niciun alt copil nu va trebui să treacă. Ca adult, m-am îngrijorat pentru copiii care au venit după mine. Se întâmplau lucruri similare starurilor Disney, distribuției din *Stranger Things* sau preadolescenților care făceau dansuri pe TikTok și apăreau în vloguri de familie? Nu eram sigură că vreau să știu.
Când inteligența artificială generativă a prins avânt acum câțiva ani, mi-am temut de cele mai rele. Auzisem despre „deepfake-uri” și știam că tehnologia devenea exponențial mai realistă.
Apoi s-a întâmplat – sau cel puțin, lumea a observat. Inteligența artificială generativă a fost deja folosită de multe ori pentru a crea imagini sexualizate cu femei adulte fără consimțământul lor. S-a întâmplat prietenelor mele. Dar recent, s-a raportat că instrumentul de AI Grok al companiei X a fost folosit în mod deschis pentru a genera imagini dezbrăcate cu un actor minor. Cu săptămâni înainte, o fată de 13 ani a fost exclusă de la școală pentru că și-a lovit o colegă care presupus a făcut pornografie deepfake cu ea – cam la aceeași vârstă la care eram eu când oamenii au creat imagini sexualizate false cu mine.
În iulie 2024, Internet Watch Foundation a găsit peste 3.500 de imagini generate de AI cu abuz sexual infantil pe un forum din dark web. Câte mii mai multe au fost create de atunci?
Inteligența artificială generativă a reinventat Pericolul Străinilor. Și de data aceasta, teama este justificată. Acum este infinit mai ușor ca orice copil a cărui față este online să fie exploatat sexual. Milioane de copii ar putea fi forțați să trăiască coșmarul meu.
Pentru a opri această criză a deepfake-urilor, trebuie să examinăm modul în care este antrenată inteligența artificială.
Inteligența artificială generativă „învăță” printr-un proces repetat de „uită-te, fă, compară, actualizează, repetă”, spune Patrick LaVictoire, matematician și fost cercetător în siguranța AI. Ea creează modele bazate pe informații memorate, dar, deoarece nu poate memora totul, caută modele și își bazează răspunsurile pe acestea. „O conexiune care este...” LaVictoire explică că comportamentele utile ale AI sunt întărite, în timp ce cele inutile sau dăunătoare sunt eliminate. Ceea ce poate produce inteligența artificială generativă depinde în întregime de datele sale de antrenament. Un studiu Stanford din 2023 a relevat că un set popular de date de antrenament conținea peste 1.000 de instanțe de materiale cu abuz sexual infantil (CSAM). Deși acele link-uri au fost de atunci eliminate, cercetătorii avertizează despre un alt pericol: AI ar putea genera CSAM combinând imagini inocente cu copii cu pornografie adultă, dacă ambele tipuri sunt prezente în date.
Companii precum Google și OpenAI spun că au măsuri de siguranță, cum ar fi curaționarea atentă a datelor de antrenament. Cu toate acestea, este important de menționat că imaginile multor interpreți adulți și lucrători sexuali au fost preluate pentru AI fără consimțământul lor.
LaVictoire subliniază că inteligența artificială generativă în sine nu poate distinge între prompt-uri inofensive, precum „fă o imagine cu un samurai Jedi”, și cele dăunătoare, precum „dezbrăcă această celebritate”. Pentru a aborda acest lucru, un alt strat de AI, similar cu un filtru de spam, poate bloca astfel de interogări. xAI, compania din spatele lui Grok, pare să fi fost laxă cu acest filtru.
Situația s-ar putea înrăutăți. Meta și alții au propus ca viitoarele modele de AI să fie open source, ceea ce înseamnă că oricine ar putea accesa, descărca și modifica codul. Deși software-ul open source în mod tipic stimulează creativitatea și colaborarea, această libertate ar putea fi dezastruoasă pentru siguranța copiilor. O platformă de AI descărcată, open source, ar putea fi ajustată cu imagini explicite sau ilegale pentru a crea CSAM nelimitat sau „pornografie de răzbunare”, fără niciun fel de măsuri de siguranță.
Meta pare să se fi retras de la ideea de a-și face platformele de AI mai noi complet open source. Poate că Mark Zuckerberg a luat în considerare potențialul său moștenire, îndepărtându-se de o cale care l-ar putea asemăna mai mult cu un „Oppenheimer al CSAM” decât cu un împărat roman.
Unele țări iau măsuri. China cere ca conținutul generat de AI să fie etichetat. Danemarca elaborează legislație pentru a oferi persoanelor drepturi de autor asupra înfățișării și vocii lor, cu amenzi pentru platformele care nu se conformează. În Europa și Marea Britanie, protecții pot veni și din reglementări precum GDPR.
Perspectiva în Statele Unite pare mai sumbră. Cererile de drepturi de autor eșuează adesea deoarece acordurile cu utilizatorii acordă în mod tipic platformelor drepturi largi asupra conținutului încărcat. Cu ordine executive care se opun reglementării AI și companii precum xAI care fac parteneriat cu armata, guvernul SUA pare să prioritizeze profiturile din AI în detrimentul siguranței publice.
Avocatul din New York, Akiva Cohen, notează legile recente care criminalizează unele manipulări digitale, dar spune că acestea sunt adesea prea restrictive. De exemplu, crearea unui deepfake care arată pe cineva dezbrăcat sau într-un act sexual ar putea fi criminală, dar folosirea AI pentru a pune o femeie – sau chiar o fată minoră – într-un bikini, probabil că nu ar fi.
„O mare parte din acestea rămân foarte conștient doar de partea 'înfiorătoare, dar legală' a liniei”, spune Cohen. Deși astfel de acte pot să nu fie infracțiuni penale împotriva statului, Cohen susține că ar putea fi răspunderi civile, încălcând drepturile unei persoane și necesitând despăgubiri. El sugerează că acest lucru se încadrează sub delicte precum „falsă înfățișare” sau „invazia intimității”. O formă de comportament greșit implică făcerea de afirmații ofensatoare despre o persoană, înfățișând-o într-o lumină falsă – în esență, arătând pe cineva făcând ceva ce nu a făcut niciodată de fapt.
„Modul de a descuraja cu adevărat acest tip de comportament este prin a trage la răspundere companiile care îl permit”, spune Cohen.
Există un precedent legal pentru aceasta: Legea Raise din New York și Legea Senatului 53 din California stipulează că companiile de AI pot fi făcute răspunzătoare pentru prejudiciile pe care le provoacă dincolo de un anumit punct. Între timp, X a anunțat că va bloca instrumentul său de AI Grok să genereze imagini sexualizate cu persoane reale pe platforma sa – deși această schimbare de politică nu pare să se aplice aplicației standalone Grok.
Josh Saviano, fost avocat în New York și fost actor copil, crede că sunt necesare acțiuni mai imediate alături de legislație.
„Eforturile de lobby și instanțele de judecată vor aborda acest lucra în cele din urmă”, spune Saviano. „Dar până atunci, există două opțiuni: să te abții complet prin eliminarea întregii amprente digitale de pe internet sau să găsești o soluție tehnologică.”
Protejarea tinerilor este deosebit de importantă pentru Saviano, care cunoaște persoane afectate de deepfake-uri și, din propria sa experiență ca actor copil, înțelege cum este să pierzi controlul asupra propriei tale povesti. El și echipa sa dezvoltă un instrument pentru a detecta și a alerta oamenii când imaginile sau munca lor creativă sunt preluate online. Motto-ul lor, spune el, este: „Protejează copiii”.
Indiferent cum se întâmplă, cred că apărarea împotriva acestei amenințări va necesita un efort public semnificativ.
În timp ce unii se atașează tot mai mult de roboții lor de chat AI, majoritatea oamenilor încă văd companiile tech ca fiind puțin mai mult decât utilități. Am putea prefera o aplicație în locul alteia din motive personale sau politice, dar loialitatea puternică față de brand este rară. Companiile tech – în special platformele de social media precum Meta și X – ar trebui să-și amintească că sunt un mijloc pentru a atinge un scop. Dacă cineva ca mine, care a fost pe Twitter în fiecare zi timp de peste un deceniu, poate să-l părăsească, oricine poate.
Dar boicoturile singure nu sunt suficiente. Trebuie să cerem ca companiile care permit crearea de materiale cu abuz sexual infantil să fie făcute responsabile. Trebuie să militem pentru legislație și măsuri de siguranță tehnologice. De asemenea, trebuie să ne examinăm propriul comportament: nimeni nu vrea să creadă că împărtășirea fotografiilor copilului lor ar putea duce la folosirea acelor imagini în materiale abuzive. Cu toate acestea, este un risc real – unul împotriva căruia părinții trebuie să se apere pentru copiii mici și despre care trebuie să-i educe pe cei mai mari.
Dacă concentrarea noastră trecută asupra „Pericolului Străinilor” ne-a învățat ceva, este că majoritatea oamenilor doresc să prevină punerea în pericol și hărțuirea copiilor. Acum este timpul să o dovedim.
Mara Wilson este scriitoare și actriță cu sediul în Los Angeles.
**Întrebări frecvente**
Desigur, iată o listă de Întrebări Frecvente despre problema profund îngrijorătoare a fotografiilor personale care sunt utilizate în mod abuziv în conținut și noua amenințare reprezentată de imaginile generate de AI.
**Înțelegerea problemei de bază**
**Î: Ce înseamnă când cineva spune că fotografia sa a fost folosită în materiale de abuz sexual infantil?**
**R:** Înseamnă că o fotografie personală, neseuală, a lor a fost luată fără consimțământ și modificată digital sau plasată în imagini sau videoclipuri sexual abuzive. Aceasta este o formă severă de abuz sexual bazat pe imagini.
**Î: Cum înrăutățește AI această problemă?**
**R:** Instrumentele de AI pot genera acum imagini și videoclipuri false extrem de realiste. Infractorii pot folosi o singură fotografie inocentă pentru a crea conținut abuziv nou, fabricat, făcând victimizarea nesfârșită și fotografia originală imposibil de eliminat complet din circulație.
**Î: Am auzit termenul „deepfake” – despre asta este vorba?**
**R:** Da, în acest context. Un deepfake folosește AI pentru a suprapune fața unei persoane pe corpul altei persoane într-un videoclip sau imagine. Când acest lucru se face pentru a crea conținut abuziv, este o formă de falsificare digitală și o infracțiune gravă.
**Pentru victime și pentru cei îngrijorați că ar putea deveni victime**
**Î: Ce ar trebui să fac dacă descopăr că fotografia mea a fost folosită în acest mod?**
**R:** 1. Nu șterge dovezi. Fă capturi de ecran cu URL-uri. 2. Raportează imediat platformei pe care ai găsit-o. 3. Depune o plângere la organele de aplicare a legii. 4. Contactează o organizație de suport precum Cyber Civil Rights Initiative sau RAINN pentru ajutor.
**Î: Pot să fac ca aceste falsuri generate de AI să fie scoase de pe internet?**
**R:** Este dificil, dar posibil.