Mitt bilde ble brukt i bilder av barnemishandling. Nå tvinger AI andre til å gjenoppleve mitt mareritt.

Mitt bilde ble brukt i bilder av barnemishandling. Nå tvinger AI andre til å gjenoppleve mitt mareritt.

Da jeg var en liten jente, var ingenting skumlere enn en fremmed. På slutten av 1980-tallet og begynnelsen av 1990-tallet advarte foreldrene våre, TV-spesialene og lærerne oss om at fremmede ville skade oss. "Fremmedfare" var overalt. Det var en velment lekse, men risikoen ble overdrevet: de fleste tilfeller av overgrep mot barn begås av personer barnet kjenner. Overgrep fra fremmede er mye sjeldnere.

Sjeldnere, men ikke umulig. Det vet jeg fordi jeg ble seksuelt utnyttet av fremmede.

Fra jeg var fem til tretten år gammel, var jeg barneskuespiller. Selv om vi nylig har hørt mange skrekkhistorier om overgrep bak kulissene, følte jeg meg alltid trygg på sett. Filmsett var regulerte områder der folk fokuserte på arbeidet. Jeg hadde støttende foreldre og var omgitt av regissører, skuespillere og lærere som forsto og brydde seg om barn.

Den eneste måten showbusiness utsatte meg for fare på, var ved å plassere meg i offentlighetens søkelys. All grusomhet og utnyttelse jeg opplevde, kom fra publikum.

"Hollywood kaster deg i bassenget," sier jeg alltid, "men det er publikum som holder hodet ditt under vann."

Før jeg i det hele tatt begynte på videregående, hadde bildet mitt blitt brukt i materiale om seksuelle overgrep mot barn. Jeg dukket opp på fetisjnettsteder og ble redigert inn i pornografi via Photoshop. Voksne menn sendte meg uhyggelige brev. Jeg var ikke en vakker jente – min keitete fase varte fra jeg var rundt ti til tjuefem år – og jeg spilte nesten utelukkende i familievennlige filmer. Men jeg var en offentlig person, og derfor tilgjengelig. Det er det rovdyrene leter etter: tilgang. Og ingenting gjorde meg mer tilgjengelig enn internett.

Det spilte ingen rolle at bildene "ikke var meg" eller at nettstedene var "teknisk sett" lovlige. Det var en smertefull, krenkende opplevelse – et levende mareritt jeg håpet ingen andre barn ville måtte gjennomgå. Som voksen bekymret jeg meg for barna som kom etter meg. Skjedde lignende ting med Disney-stjerner, skuespillerne i *Stranger Things*, eller førtenåringer som lagde TikTok-danser og dukket opp i familie-vlogger? Jeg var ikke sikker på at jeg ville vite det.

Da generativ AI fikk fotfeste for noen år siden, fryktet jeg det verste. Jeg hadde hørt om "deepfakes" og visste at teknologien ble eksponentielt mer realistisk.

Så skjedde det – eller i det minste la verden merke til det. Generativ AI har allerede blitt brukt mange ganger til å lage seksualiserte bilder av voksne kvinner uten deres samtykke. Det skjedde med venner av meg. Men nylig ble det rapportert at Xs AI-verktøy Grok hadde blitt brukt åpent til å generere avkledde bilder av en mindreårig skuespiller. Uker tidligere ble en 13 år gammel jente utvist fra skolen for å ha slått en klassekamerat som angivelig lagde deepfake-porno av henne – omtrent på samme alder som jeg var da folk lagde falske seksualiserte bilder av meg.

I juli 2024 fant Internet Watch Foundation over 3500 AI-genererte bilder av seksuelle overgrep mot barn på et forum på den mørke nettet. Hvor mange tusen flere har blitt laget siden?

Generativ AI har gjenoppfunnet "Fremmedfare". Og denne gangen er frykten berettiget. Det er nå uendelig mye enklere for ethvert barn hvis ansikt finnes på nettet å bli seksuelt utnyttet. Millioner av barn kan bli tvunget til å leve mitt mareritt.

For å stoppe denne deepfake-krisen må vi undersøke hvordan AI trenes.

Generativ AI "lærer" gjennom en gjentatt prosess av "se, lag, sammenlign, oppdater, gjenta," sier Patrick LaVictoire, en matematiker og tidligere AI-sikkerhetsforsker. Den lager modeller basert på memorisert informasjon, men siden den ikke kan memorisere alt, leter den etter mønstre og baserer svarene sine på disse. "En forbindelse som..." LaVictoire forklarer at nyttig AI-atferd forsterkes, mens unyttig eller skadelig atferd beskjæres. Hva generativ AI kan produsere, avhenger helt av treningsdataene. En Stanford-studie fra 2023 avslørte at et populært treningsdatasett inneholdt over 1000 forekomster av materiale om seksuelle overgrep mot barn (CSAM). Selv om disse lenkene siden er fjernet, advarer forskere om en annen fare: AI kan generere CSAM ved å kombinere uskyldige bilder av barn med voksenpornografi hvis begge typene er tilstede i dataene.

Selskaper som Google og OpenAI sier de har sikkerhetstiltak, som nøye kuratering av treningsdata. Det er imidlertid viktig å merke seg at bilder av mange voksne utøvere og sexarbeidere har blitt skrapet for AI uten deres samtykke.

LaVictoire påpeker at generativ AI i seg selv ikke kan skille mellom ufarlige forespørsler, som "lag et bilde av en Jedi-samurai," og skadelige, som "kle av denne kjendisen." For å håndtere dette kan et annet lag med AI, lik en spamfilter, blokkere slike forespørsler. xAI, selskapet bak Grok, ser ut til å ha vært lite streng med dette filteret.

Situasjonen kan forverres. Meta og andre har foreslått å gjøre fremtidige AI-modeller åpen kildekode, noe som betyr at hvem som helst kunne få tilgang til, laste ned og endre koden. Mens åpen kildekode-programvare vanligvis fremmer kreativitet og samarbeid, kan denne friheten være katastrofal for barnesikkerhet. En nedlastet, åpen kildekode AI-plattform kunne blitt finjustert med eksplisitte eller ulovlige bilder for å skape ubegrenset CSAM eller "hevnporno," uten noen sikkerhetstiltak på plass.

Meta ser ut til å ha trukket seg fra å gjøre sine nyere AI-plattformer fullstendig åpen kildekode. Kanskje Mark Zuckerberg tenkte på det potensielle arvet, og beveget seg bort fra en sti som kunne likne ham mer på en "Oppenheimer av CSAM" enn en romersk keiser.

Noen land tar handling. Kina krever at AI-generert innhold merkes. Danmark utarbeider lovgivning for å gi enkeltpersoner opphavsrett til sitt utseende og stemme, med bøter for plattformer som ikke følger reglene. I Europa og Storbritannia kan beskyttelse også komme fra forskrifter som GDPR.

Utsiktene i USA ser mørkere ut. Opphavsrettskrav mislykkes ofte fordi brukeravtaler vanligvis gir plattformer vide rettigheter til opplastet innhold. Med utøvende ordrer som motsetter seg AI-regulering og selskaper som xAI som samarbeider med militæret, ser den amerikanske regjeringen ut til å prioritere AI-profitt over offentlig sikkerhet.

New York-advokaten Akiva Cohen påpeker nylige lover som kriminaliserer en del digital manipulasjon, men sier de ofte er overdrevent restriktive. For eksempel kan det å lage en deepfake som viser noen naken eller i en seksuell handling være kriminelt, men å bruke AI til å sette en kvinne – eller til og med en mindreårig jente – i bikini, vil sannsynligvis ikke være det.

"Mye av dette holder seg bevisst like på den 'skrekkelige, men lovlige' siden av grensen," sier Cohen. Mens slike handlinger kanskje ikke er kriminelle forbrytelser mot staten, argumenterer Cohen for at de kan være sivile erstatningskrav, som krenker en persons rettigheter og krever oppreisning. Han foreslår at dette faller under erstatningsrettslige forhold som "falskt lys" eller "inngrep i privatlivet." En form av urett involverer å komme med støtende påstander om en person, fremstille dem i et falskt lys – i hovedsak vise noen som gjør noe de aldri faktisk gjorde.

"Måten å virkelig avskrekke denne typen atferd på, er ved å holde selskapene som muliggjør det ansvarlige," sier Cohen.

Det finnes juridisk presedens for dette: New Yorks Raise Act og Californias Senate Bill 53 sier at AI-selskaper kan holdes ansvarlige for skader de forårsaker utover et visst punkt. I mellomtiden har X kunngjort at de vil blokkere AI-verktøyet sitt Grok fra å generere seksualiserte bilder av ekte personer på plattformen sin – selv om denne policyendringen ikke ser ut til å gjelde for den frittstående Grok-appen.

Josh Saviano, en tidligere advokat i New York og tidligere barneskuespiller, mener mer umiddelbar handling er nødvendig sammen med lovgivning.

"Lobbyvirksomhet og domstolene vil til slutt ta tak i dette," sier Saviano. "Men inntil da er det to alternativer: avstå helt ved å fjerne hele ditt digitale fotavtrykk fra internett, eller finne en teknologisk løsning."

Å beskytte unge mennesker er spesielt viktig for Saviano, som kjenner personer berørt av deepfakes og, fra sin egen erfaring som barneskuespiller, forstår hvordan det er å miste kontroll over sin egen historie. Han og teamet hans utvikler et verktøy for å oppdage og varsle folk når bildene eller det kreative arbeidet deres blir skrapet på nettet. Deres motto, sier han, er: "Beskyt babyene."

Uansett hvordan det skjer, tror jeg å forsvare seg mot denne trusselen vil kreve betydelig offentlig innsats.

Mens noen blir knyttet til sine AI-chatterboter, ser de fleste mennesker fortsatt på teknologiselskaper som lite mer enn verktøy. Vi foretrekker kanskje en app fremfor en annen av personlige eller politiske grunner, men sterk merkelojalitet er sjelden. Teknologiselskaper – spesielt sosiale medieplattformer som Meta og X – bør huske at de er et middel til en slutt. Hvis noen som meg, som var på Twitter hver dag i over et tiår, kan forlate det, kan hvem som helst.

Men boikotter alene er ikke nok. Vi må kreve at selskaper som tillater skapelsen av materiale om seksuelle overgrep mot barn holdes ansvarlige. Vi må jobbe for lovgivning og teknologiske sikkerhetstiltak. Vi må også se på vår egen atferd: ingen vil tenke at deling av bilder av sitt barn kan føre til at disse bildene blir brukt i skadelig materiale. Likevel er det en reell risiko – en risiko foreldre må vokte små barn mot og lære eldre barn om.

Hvis vårt tidligere fokus på "Fremmedfare" lærte oss noe, er det at de fleste mennesker ønsker å forhindre at barn utsettes for fare og trakassering. Nå er det på tide å bevise det.

Mara Wilson er en forfatter og skuespiller basert i Los Angeles.

**Ofte stilte spørsmål**
Selvfølgelig. Her er en liste over vanlige spørsmål om det dypgående bekymringsfylte problemet med at personlige bilder misbrukes i skadelig innhold og den nye trusselen som AI-genererte bilder utgjør.

**Forståelse av kjerneverket**

**Spørsmål:** Hva betyr det når noen sier at bildet deres ble brukt i materiale om seksuelle overgrep mot barn?
**Svar:** Det betyr at et personlig, ikke-seksuelt bilde av dem ble tatt uten samtykke og digitalt manipulert eller plassert i seksuelt misbrukende bilder eller videoer. Dette er en alvorlig form for bildebasert seksuell mishandling.

**Spørsmål:** Hvordan gjør AI dette problemet verre?
**Svar:** AI-verktøy kan nå generere svært realistiske falske bilder og videoer. Gjerningspersoner kan bruke et enkelt uskyldig bilde til å lage nytt, fabrikkert skadelig innhold, noe som gjør ofringene endeløse og det originale bildet umulig å fjerne fullstendig fra sirkulasjon.

**Spørsmål:** Jeg har hørt begrepet "deepfake" – er det dette det er?
**Svar:** Ja, i denne sammenhengen. En deepfake bruker AI til å overføre en persons ansikt på en annen persons kropp i en video eller et bilde. Når dette gjøres for å lage skadelig innhold, er det en form for digital forfalskning og en alvorlig forbrytelse.

**For ofre og de som er bekymret for å bli et offer**

**Spørsmål:** Hva bør jeg gjøre hvis jeg oppdager at bildet mitt er misbrukt på denne måten?
**Svar:** 1. Ikke slett bevis. Ta skjermbilder med URL-er. 2. Rapporter umiddelbart til plattformen der du fant det. 3. Send inn en rapport til politiet. 4. Kontakt en støtteorganisasjon som Cyber Civil Rights Initiative eller RAINN for hjelp.

**Spørsmål:** Kan jeg få disse AI-genererte forfalskningene fjernet fra internett?
**Svar:** Det er utfordrende, men mulig. Du må rapportere hver enkelt forekomst til vertsplattformen. Mange store plattformer har retningslinjer mot ikke-konsensuell intimt bildebruk. Det finnes også tjenester som Take It Down som kan hjelpe til med å forhindre at kjente bilder deles.

**Spørsmål:** Hvordan kan jeg beskytte bildene mine mot å bli misbrukt av AI?
**Svar:** Selv om ingen metode er feilfri, kan du være veldig selektiv med hva du deler offentlig på nettet, bruke strenge personverninnstillinger, unngå å legge ut høykvalitetsbilder og vurdere å bruke digitale vannmerker. Vær forsiktig med apper som bruker...