Mit foto blev brugt i billeder af børnemishandling. Nu tvinger AI andre til at genopleve mit mareridt.

Mit foto blev brugt i billeder af børnemishandling. Nu tvinger AI andre til at genopleve mit mareridt.

Da jeg var en lille pige, var intet mere skræmmende end en fremmed. I slutningen af 1980'erne og begyndelsen af 1990'erne advarede vores forældre, TV-programmer og lærere os alle om, at fremmede ville os ondt. "Fremmedfare" var overalt. Det var en velment lektie, men risikoen blev overdrevet: det meste børnemishandling begås af mennesker, barnet kender. Mishandling af fremmede er meget sjældnere.

Sjældnere, men ikke umulig. Det ved jeg, for jeg blev seksuelt udnyttet af fremmede.

Fra jeg var fem til 13 år, var jeg barneskuespiller. Selvom vi for nylig har hørt mange rædselshistorier om misbrug bag kulisserne, følte jeg mig altid tryg på settet. Filmsets var regulerede rum, hvor folk fokuserede på arbejdet. Jeg havde støttende forældre og var omgivet af instruktører, skuespillere og lærere, der forstod og tog sig af børn.

Den eneste måde, showbusiness udsatte mig for fare på, var ved at sætte mig i offentlighedens søgelys. Al grusomhed og udnyttelse, jeg oplevede, kom fra offentligheden.

"Hollywood kaster dig i swimmingpoolen," siger jeg altid, "men det er offentligheden, der holder dit hoved under vandet."

Før jeg overhovedet var startet i gymnasiet, var mit billede blevet brugt i materiale om børneseksuelt misbrug. Jeg dukkede op på fetish-websteder og blev photoshoppet ind i pornografi. Voksne mænd sendte mig uhyggelige breve. Jeg var ikke en smuk pige – min akavede fase varede fra cirka 10 til 25 år – og jeg medvirkede næsten udelukkende i familievenlige film. Men jeg var en offentlig person, så jeg var tilgængelig. Det er det, rovdyr leder efter: adgang. Og intet gjorde mig mere tilgængelig end internettet.

Det betød ikke noget, at de billeder "ikke var mig", eller at webstederne var "teknisk set" lovlige. Det var en smertefuld, krænkende oplevelse – et levende mareridt, jeg håbede intet andet barn ville gennemgå. Som voksen bekymrede jeg mig om børnene, der kom efter mig. Skete der lignende ting for Disney-stjerner, Stranger Things-castet eller børn i TikTok-danse og familie-vlogs? Jeg var ikke sikker på, jeg ville vide det.

Da generativ AI fik fodfæste for nogle år siden, frygtede jeg det værste. Jeg havde hørt om "deepfakes" og vidste, at teknologien blev eksponentielt mere realistisk.

Så skete det – eller i det mindste opdagede verden det. Generativ AI er allerede blevet brugt mange gange til at skabe seksualiserede billeder af voksne kvinder uden deres samtykke. Det skete for venner af mig. Men for nylig blev det rapporteret, at X's AI-værktøj Grok var blevet brugt åbent til at generere afklædte billeder af en mindreårig skuespiller. Uger forinden blev en 13-årig pige bortvist fra skolen for at slå en klassekammerat, der angiveligt lavede deepfake-porno af hende – omtrent på samme alder som jeg var, da folk skabte falske seksualiserede billeder af mig.

I juli 2024 fandt Internet Watch Foundation over 3.500 AI-genererede billeder af børneseksuelt misbrug på et dark web-forum. Hvor mange tusinder flere er blevet skabt siden da?

Generativ AI har genopfundet Fremmedfare. Og denne gang er frygt berettiget. Det er nu uendeligt lettere for ethvert barn, hvis ansigt er online, at blive seksuelt udnyttet. Millioner af børn kan blive tvunget til at leve mit mareridt.

For at stoppe denne deepfake-krise er vi nødt til at undersøge, hvordan AI trænes.

Generativ AI "lærer" gennem en gentagen proces af "se, lav, sammenlign, opdater, gentag," siger Patrick LaVictoire, matematiker og tidligere AI-sikkerhedsforsker. Den skaber modeller baseret på husket information, men da den ikke kan huske alt, leder den efter mønstre og baserer sine svar på dem. "En forbindelse, der..." LaVictoire forklarer, at nyttig AI-adfærd forstærkes, mens unyttig eller skadelig adfærd beskæres. Hvad generativ AI kan producere, afhænger helt af dens træningsdata. En Stanford-undersøgelse fra 2023 afslørede, at et populært træningsdatasæt indeholdt over 1.000 tilfælde af materiale om børneseksuelt misbrug (CSAM). Selvom disse links siden er blevet fjernet, advarer forskere om en anden fare: AI kunne generere CSAM ved at kombinere uskyldige billeder af børn med voksenpornografi, hvis begge typer er til stede i dataene.

Virksomheder som Google og OpenAI siger, at de har sikkerhedsforanstaltninger, såsom omhyggelig kuratering af træningsdata. Det er dog vigtigt at bemærke, at billeder af mange voksne performere og sexarbejdere er blevet scrapet til AI uden deres samtykke.

LaVictoire påpeger, at generativ AI i sig selv ikke kan skelne mellem harmløse anmodninger som "lav et billede af en jedi-samurai" og skadelige som "klæd denne berømthed af". For at løse dette kan et ekstra lag af AI, der ligner et spamfilter, blokere sådanne forespørgsler. xAI, virksomheden bag Grok, ser ud til at have været lemfældig med dette filter.

Situationen kunne forværres. Meta og andre har foreslået at gøre fremtidige AI-modeller open source, hvilket betyder, at alle kunne få adgang til, downloade og ændre koden. Mens open source-software typisk fremmer kreativitet og samarbejde, kunne denne frihed være katastrofal for børns sikkerhed. En downloadet, open source AI-platform kunne finjusteres med eksplicitte eller ulovlige billeder for at skabe ubegrænset CSAM eller "revenge porn" uden nogen sikkerhedsforanstaltninger.

Meta ser ud til at have trukket sig tilbage fra at gøre sine nyere AI-platforme fuldt open source. Måske overvejede Mark Zuckerberg den potentielle arv og bevægede sig væk fra en sti, der kunne ligne ham mere med en "Oppenheimer af CSAM" end en romersk kejser.

Nogle lande handler. Kina kræver, at AI-genereret indhold mærkes. Danmark udarbejder lovgivning for at give enkeltpersoner ophavsret til deres udseende og stemme med bøder til ikke-overholdende platforme. I Europa og Storbritannien kan beskyttelse også komme fra regulativer som GDPR.

Udsigten i USA ser mere dyster ud. Ophavsretskrav mislykkes ofte, fordi brugeraftaler typisk giver platforme brede rettigheder til uploadet indhold. Med executive orders mod AI-regulering og virksomheder som xAI, der samarbejder med militæret, ser den amerikanske regering ud til at prioritere AI-profitter over offentlig sikkerhed.

New York-advokaten Akiva Cohen bemærker nylige love, der kriminaliserer nogen digital manipulation, men siger, at de ofte er overdrevent restriktive. For eksempel kan det være kriminelt at skabe en deepfake, der viser nogen nøgen eller i en seksuel handling, men at bruge AI til at sætte en kvinde – eller endda en mindreårig pige – i en bikini, ville sandsynligvis ikke være det.

"Meget af dette befinder sig bevidst lige på den 'rædselsfulde, men lovlige' side af stregen," siger Cohen. Mens sådanne handlinger muligvis ikke er kriminelle forseelser mod staten, hævder Cohen, at de kunne være civile erstatningskrav, der krænker en persons rettigheder og kræver erstatning. Han foreslår, at dette falder under erstatningsretlige forseelser som "false light" eller "privacy invasion". En form for forseelse involverer at fremsætte stødende påstande om en person, der fremstiller dem i et falsk lys – i bund og grund at vise nogen gøre noget, de faktisk aldrig gjorde.

"Måden virkelig at afskrække denne adfærd på, er ved at holde de virksomheder, der muliggør den, ansvarlige," siger Cohen.

Der er juridisk præcedens for dette: New Yorks Raise Act og Californiens Senate Bill 53 fastslår, at AI-virksomheder kan holdes ansvarlige for skader, de forårsager ud over et vist punkt. I mellemtiden har X annonceret, at de vil blokere deres AI-værktøj Grok fra at generere seksualiserede billeder af rigtige mennesker på deres platform – selvom denne politikændring ikke ser ud til at gælde for den selvstændige Grok-app.

Josh Saviano, en tidligere advokat i New York og tidligere barneskuespiller, mener, at der er behov for mere umiddelbar handling sammen med lovgivning.

"Lobbyindsats og domstolene vil i sidste ende tage sig af dette," siger Saviano. "Men indtil da er der to muligheder: helt afholde dig ved at fjerne dit hele digitale fodaftryk fra internettet, eller finde en teknologisk løsning."

At beskytte unge mennesker er særligt vigtigt for Saviano, som kender personer berørt af deepfakes og fra sin egen erfaring som barneskuespiller ved, hvordan det er at miste kontrollen over sin egen historie. Han og hans team udvikler et værktøj til at opdage og advare folk, når deres billeder eller kreative værker bliver scrapet online. Deres motto, siger han, er: "Beskyt baby'erne."

Uanset hvordan det sker, tror jeg, at forsvar mod denne trussel vil kræve betydelig offentlig indsats.

Mens nogle bliver knyttet til deres AI-chatbots, ser de fleste mennesker stadig tech-virksomheder som lidt mere end forsyningsselskaber. Vi foretrækker måske en app frem for en anden af personlige eller politiske årsager, men stærk brandloyalitet er sjælden. Tech-virksomheder – især sociale medieplatforme som Meta og X – bør huske, at de er et middel til et mål. Hvis nogen som mig, der var på Twitter hver dag i over et årti, kan forlade det, kan alle.

Men boykot alene er ikke nok. Vi må kræve, at virksomheder, der tillader skabelsen af materiale om børneseksuelt misbrug, holdes ansvarlige. Vi er nødt til at presse på for lovgivning og teknologiske sikkerhedsforanstaltninger. Vi er også nødt til at undersøge vores egen adfærd: ingen vil gerne tro, at deling af billeder af deres barn kunne føre til, at disse billeder bliver brugt i misbrugsmateriale. Alligevel er det en reel risiko – en risiko, forældre må beskytte småbørn mod og undervise større børn om.

Hvis vores tidligere fokus på "Fremmedfare" lærte os noget, er det, at de fleste mennesker ønsker at forhindre, at børn bliver udsat for fare og chikane. Nu er det tid til at bevise det.

Mara Wilson er forfatter og skuespiller bosat i Los Angeles.

**Ofte stillede spørgsmål**
Selvfølgelig. Her er en liste over ofte stillede spørgsmål om det dybt bekymrende problem med, at personlige billeder misbruges i misbrugsindhold, og den nye trussel fra AI-genererede billeder.

**Forståelse af kerneproblemet**

**Spørgsmål:** Hvad betyder det, når nogen siger, at deres foto er blevet brugt i materiale om børneseksuelt misbrug?
**Svar:** Det betyder, at et personligt, ikke-seksuelt billede af dem er blevet taget uden samtykke og digitalt ændret eller placeret i seksuelt misbrugsindhold i form af billeder eller videoer. Dette er en alvorlig form for billedbaseret seksuelt misbrug.

**Spørgsmål:** Hvordan gør AI dette problem værre?
**Svar:** AI-værktøjer kan nu generere meget realistiske falske billeder og videoer. Gerningsmænd kan bruge et enkelt uskyldigt foto til at skabe nyt, fabrikeret misbrugsindhold, hvilket gør ofre for evigt udsat og gør det umuligt at fjerne det originale foto fuldstændigt fra cirkulation.

**Spørgsmål:** Jeg har hørt udtrykket "deepfake" – er det det, dette er?
**Svar:** Ja, i denne sammenhæng. En deepfake bruger AI til at indsætte en persons ansigt på en anden persons krop i en video eller et billede. Når dette gøres for at skabe misbrugsindhold, er det en form for digital forfalskning og en alvorlig forbrydelse.

**For ofre og dem, der er bekymrede for at blive et offer**

**Spørgsmål:** Hvad skal jeg gøre, hvis jeg opdager, at mit foto er blevet misbrugt på denne måde?
**Svar:** 1) Slet ikke beviserne. Tag skærmbilleder med URL'er. 2) Anmeld det straks til den platform, hvor du fandt det. 3) Indgiv en anmeldelse til politiet. 4) Kontakt en støtteorganisation som Cyber Civil Rights Initiative eller RAINN for hjælp.

**Spørgsmål:** Kan jeg få disse AI-genererede falskninger fjernet fra internettet?
**Svar:** Det er udfordrende, men muligt. Du skal anmelde hver enkelt forekomst til den platform, der hoster det. Mange store platforme har politikker mod ikke-konsensuel intim billeddeling. Der er også tjenester som Take It Down, der kan hjælpe med at forhindre kendte billeder i at blive delt.

**Spørgsmål:** Hvordan kan jeg beskytte mine fotos mod at blive misbrugt af AI?
**Svar:** Selvom ingen metode er sikker, kan du være meget selektiv med, hvad du deler offentligt online, bruge strenge privatindstillinger, undgå at poste højopløselige fotos og overveje at bruge digitale vandmærker. Vær forsigtig med apps, der bruger...