NĂ€r jag var liten flicka var det inget skrĂ€mmare Ă€n en frĂ€mling. Under slutet av 1980-talet och början av 1990-talet varnade vĂ„ra förĂ€ldrar, TV-program och lĂ€rare oss för att frĂ€mlingar ville skada oss. "FrĂ€mlingfara" fanns överallt. Det var en vĂ€lmenad lĂ€xa, men risken överdrevs: de flesta övergrepp mot barn begĂ„s av personer som barnet kĂ€nner. Ăvergrepp frĂ„n frĂ€mlingar Ă€r mycket ovanligare.
Ovanligare, men inte omöjliga. Det vet jag för att jag utsattes för sexuella övergrepp frÄn frÀmlingar.
FrÄn fem till tretton Ärs Älder var jag barnskÄdespelare. Medan vi nyligen hört mÄnga skrÀckhistorier om övergrepp bakom kulisserna, kÀnde jag mig alltid trygg pÄ inspelningen. Filminspelningar var reglerade miljöer dÀr folk fokuserade pÄ arbetet. Jag hade stöttande förÀldrar och omgavs av regissörer, skÄdespelare och lÀrare som förstod och brydde sig om barn.
Det enda sÀttet som showbusiness utsatte mig för fara var genom att sÀtta mig i offentlighetens ljus. All grymhet och exploatering jag mötte kom frÄn allmÀnheten.
"Hollywood kastar dig i poolen", sÀger jag alltid, "men det Àr allmÀnheten som hÄller ditt huvud under vattnet."
Innan jag ens börjat högstadiet hade min bild anvĂ€nts i material för sexuella övergrepp mot barn. Jag dök upp pĂ„ fetischwebbplatser och blev Photoshopad till pornografi. Vuxna mĂ€n skickade lĂ€skiga brev till mig. Jag var inte en vacker flicka â min tafatta fas varade frĂ„n ungefĂ€r tio till tjugofem Ă„rs Ă„lder â och jag medverkade nĂ€stan uteslutande i familjevĂ€nliga filmer. Men jag var en offentlig person, sĂ„ jag var tillgĂ€nglig. Det Ă€r vad förövare letar efter: tillgĂ„ng. Och inget gjorde mig mer tillgĂ€nglig Ă€n internet.
Det spelade ingen roll att bilderna "inte var jag" eller att webbplatserna var "tekniskt sett" lagliga. Det var en smĂ€rtsam, krĂ€nkande upplevelse â en levande mardröm som jag hoppades att inget annat barn skulle behöva genomlida. Som vuxen oroade jag mig för barnen som kom efter mig. HĂ€nde liknande saker med Disney-stjĂ€rnor, skĂ„despelarna i *Stranger Things* eller förtonĂ„ringar som gjorde TikTok-danser och dök upp i familjevloggar? Jag var inte sĂ€ker pĂ„ att jag ville veta.
NÀr generativ AI fick fÀste för nÄgra Är sedan fruktade jag det vÀrsta. Jag hade hört talas om "deepfakes" och visste att tekniken blev exponentiellt mer realistisk.
Sedan hĂ€nde det â eller Ă„tminstone uppmĂ€rksammade vĂ€rlden det. Generativ AI har redan anvĂ€nts mĂ„nga gĂ„nger för att skapa sexualiserade bilder pĂ„ vuxna kvinnor utan deras samtycke. Det hĂ€nde med vĂ€nner till mig. Men nyligen rapporterades det att X:s AI-verktyg Grok öppet anvĂ€nts för att generera avklĂ€dda bilder pĂ„ en minderĂ„rig skĂ„despelare. Veckor tidigare hade en 13-Ă„rig flicka blivit utvisad frĂ„n skolan för att hon slog en klasskamrat som pĂ„stods ha skapat deepfake-pornografi av henne â ungefĂ€r samma Ă„lder som jag var nĂ€r folk skapade falska sexualiserade bilder av mig.
I juli 2024 hittade Internet Watch Foundation över 3 500 AI-genererade bilder med sexuella övergrepp mot barn pÄ ett dark web-forum. Hur mÄnga tusen till har skapats sedan dess?
Generativ AI har Äteruppfunnit "frÀmlingfara". Och den hÀr gÄngen Àr rÀdslan befogad. Det Àr nu oÀndligt mycket lÀttare för vilket barn som helst vars ansikte finns pÄ nÀtet att utsÀttas för sexuell exploatering. Miljontals barn kan tvingas leva min mardröm.
För att stoppa denna deepfake-kris mÄste vi undersöka hur AI trÀnas.
Generativ AI "lĂ€r sig" genom en upprepad process av "titta, skapa, jĂ€mför, uppdatera, upprepa", sĂ€ger Patrick LaVictoire, matematiker och före detta AI-sĂ€kerhetsforskare. Den skapar modeller baserade pĂ„ memoriserad information, men eftersom den inte kan memorera allt letar den efter mönster och baserar sina svar pĂ„ dessa. "En koppling som..." LaVictoire förklarar att anvĂ€ndbara AI-beteenden förstĂ€rks, medan oanvĂ€ndbara eller skadliga beskĂ€rs. Vad generativ AI kan producera beror helt pĂ„ dess trĂ€ningsdata. En Stanford-studie frĂ„n 2023 avslöjade att en populĂ€r trĂ€ningsdatamĂ€ngd innehöll över 1 000 fall av material med sexuella övergrepp mot barn (CSAM). Ăven om dessa lĂ€nkar sedan tagits bort, varnar forskare för en annan fara: AI skulle kunna generera CSAM genom att kombinera oskyldiga bilder pĂ„ barn med vuxenpornografi om bĂ„da typerna finns i datan.
Företag som Google och OpenAI sÀger att de har sÀkerhetsÄtgÀrder, som att noggrant kuratera trÀningsdata. Det Àr dock viktigt att notera att bilder pÄ mÄnga vuxna utövare och sexarbetare har skrapats för AI utan deras samtycke.
LaVictoire pÄpekar att generativ AI sjÀlv inte kan skilja mellan ofarliga uppmaningar, som "gör en bild pÄ en jedi-samuraj", och skadliga, som "klÀ av den hÀr kÀndisen". För att hantera detta kan ett annat lager av AI, liknande ett skrÀppostfilter, blockera sÄdana förfrÄgningar. xAI, företaget bakom Grok, verkar ha varit slapp med detta filter.
Situationen kan förvĂ€rras. Meta och andra har föreslagit att framtida AI-modeller ska vara öppen kĂ€llkod, vilket innebĂ€r att vem som helst skulle kunna komma Ă„t, ladda ner och Ă€ndra koden. Ăven om programvara med öppen kĂ€llkod vanligtvis frĂ€mjar kreativitet och samarbete, kan denna frihet bli katastrofal för barns sĂ€kerhet. En nedladdad AI-plattform med öppen kĂ€llkod skulle kunna finjusteras med explicita eller olagliga bilder för att skapa obegrĂ€nsat med CSAM eller "hĂ€mndporr", utan nĂ„gra sĂ€kerhetsĂ„tgĂ€rder pĂ„ plats.
Meta verkar ha dragit sig tillbaka frÄn att göra sina nyare AI-plattformar helt öppen kÀllkod. Kanske har Mark Zuckerberg funderat pÄ det potentiella arvet och rört sig bort frÄn en vÀg som skulle kunna likna honom mer vid en "Oppenheimer av CSAM" Àn en romersk kejsare.
Vissa lÀnder vidtar ÄtgÀrder. Kina krÀver att AI-genererat innehÄll mÀrks ut. Danmark utarbetar lagstiftning för att ge individer upphovsrÀtt över sin liknelse och röst, med böter för icke-kompatibla plattformar. I Europa och Storbritannien kan skydd ocksÄ komma frÄn förordningar som GDPR.
Utsikterna i USA verkar grÄare. UpphovsrÀttsansprÄk misslyckas ofta eftersom anvÀndaravtal vanligtvis ger plattformar breda rÀttigheter till uppladdat innehÄll. Med verkstÀllande order som motsÀtter sig AI-reglering och företag som xAI som samarbetar med militÀren, verkar den amerikanska regeringen prioritera AI-vinster framför allmÀnhetens sÀkerhet.
New York-advokaten Akiva Cohen noterar nya lagar som kriminaliserar viss digital manipulation, men sĂ€ger att de ofta Ă€r alltför restriktiva. Till exempel kan det vara kriminellt att skapa en deepfake som visar nĂ„gon naken eller i en sexuell handling, men att anvĂ€nda AI för att sĂ€tta en kvinna â eller till och med en minderĂ„rig flicka â i bikini skulle troligen inte vara det.
"Mycket av detta hĂ„ller sig mycket medvetet precis pĂ„ 'hemskt, men lagligt'-sidan av linjen", sĂ€ger Cohen. Ăven om sĂ„dana handlingar kanske inte Ă€r brottsliga förseelser mot staten, hĂ€vdar Cohen att de kan vara civilrĂ€ttsliga ansvarsförhĂ„llanden, som krĂ€nker en persons rĂ€ttigheter och krĂ€ver ersĂ€ttning. Han föreslĂ„r att detta faller under skadestĂ„ndsrĂ€ttsliga förseelser som "falskt ljus" eller "intrĂ„ng i privatlivet". En form av förseelse innebĂ€r att göra stötande pĂ„stĂ„enden om en person, att portrĂ€ttera dem i ett falskt ljus â i huvudsak att visa nĂ„gon göra nĂ„got de aldrig faktiskt gjort.
"SÀttet att verkligen avskrÀcka frÄn detta beteende Àr att hÄlla de företag som möjliggör det ansvariga", sÀger Cohen.
Det finns rĂ€ttspraxis för detta: New Yorks Raise Act och Kaliforniens Senate Bill 53 anger att AI-företag kan hĂ„llas ansvariga för skador de orsakar bortom en viss punkt. Samtidigt har X meddelat att de kommer att blockera sitt AI-verktyg Grok frĂ„n att generera sexualiserade bilder pĂ„ riktiga personer pĂ„ sin plattform â Ă€ven om denna policyĂ€ndring inte verkar gĂ€lla den fristĂ„ende Grok-appen.
Josh Saviano, en tidigare advokat i New York och före detta barnskÄdespelare, anser att mer omedelbara ÄtgÀrder behövs tillsammans med lagstiftning.
"Lobbyinsatser och domstolarna kommer sÄ smÄningom att ta itu med detta", sÀger Saviano. "Men tills dess finns det tvÄ alternativ: avstÄ helt genom att ta bort hela ditt digitala avtryck frÄn internet, eller hitta en teknisk lösning."
Att skydda unga mÀnniskor Àr sÀrskilt viktigt för Saviano, som kÀnner personer som drabbats av deepfakes och frÄn sin egen erfarenhet som barnskÄdespelare förstÄr hur det Àr att förlora kontrollen över sin egen historia. Han och hans team utvecklar ett verktyg för att upptÀcka och varna mÀnniskor nÀr deras bilder eller kreativa verk skrapas pÄ nÀtet. Deras motto, sÀger han, Àr: "Skydda barnen."
Hur det Àn sker, tror jag att att försvara sig mot detta hot kommer att krÀva betydande offentliga anstrÀngningar.
Medan vissa börjar fĂ€sta sig vid sina AI-chattrobotar, ser de flesta mĂ€nniskor fortfarande teknikföretag som knappt mer Ă€n verktyg. Vi kanske föredrar en app framför en annan av personliga eller politiska skĂ€l, men starkt varumĂ€rkeslojalitet Ă€r sĂ€llsynt. Teknikföretag â sĂ€rskilt sociala medieplattformar som Meta och X â borde komma ihĂ„g att de Ă€r ett medel för att nĂ„ ett mĂ„l. Om nĂ„gon som jag, som var pĂ„ Twitter varje dag i över ett decennium, kan lĂ€mna det, kan vem som helst göra det.
Men bojkotter rĂ€cker inte ensamma. Vi mĂ„ste krĂ€va att företag som tillĂ„ter skapandet av material med sexuella övergrepp mot barn hĂ„lls ansvariga. Vi mĂ„ste pressa för lagstiftning och tekniska sĂ€kerhetsĂ„tgĂ€rder. Vi mĂ„ste ocksĂ„ granska vĂ„rt eget beteende: ingen vill tro att delning av bilder pĂ„ sitt barn skulle kunna leda till att dessa bilder anvĂ€nds i skadligt material. ĂndĂ„ Ă€r det en verklig risk â en risk som förĂ€ldrar mĂ„ste skydda smĂ„ barn mot och utbilda Ă€ldre barn om.
Om vÄrt tidigare fokus pÄ "frÀmlingfara" lÀrde oss nÄgot, Àr det att de flesta mÀnniskor vill förhindra att barn utsÀtts för fara och trakasserier. Nu Àr det dags att bevisa det.
Mara Wilson Àr en författare och skÄdespelare baserad i Los Angeles.
**Vanliga frÄgor**
SjÀlvklart. HÀr Àr en lista med vanliga frÄgor om det djupt oroande problemet med att personliga foton missbrukas i skadligt innehÄll och det nya hotet frÄn AI-genererade bilder.
**FörstÄ kÀrnproblemet**
**F:** Vad innebÀr det nÀr nÄgon sÀger att deras foto anvÀnts i material med sexuella övergrepp mot barn?
**S:** Det innebÀr att ett personligt, icke-sexuellt foto av dem togs utan samtycke och digitalt Àndrades eller placerades i sexuellt skadliga bilder eller videor. Detta Àr en allvarlig form av bildbaserad sexuellt övergrepp.
**F:** Hur förvÀrrar AI detta problem?
**S:** AI-verktyg kan nu generera mycket realistiska falska bilder och videor. Förövare kan anvÀnda ett enda oskyldigt foto för att skapa nytt fabricerat skadligt innehÄll, vilket gör att utsattheten blir oÀndlig och det ursprungliga fotot omöjligt att helt ta bort frÄn cirkulation.
**F:** Jag har hört termen "deepfake" â Ă€r det vad detta Ă€r?
**S:** Ja, i detta sammanhang. En deepfake anvÀnder AI för att placera en persons ansikte pÄ en annan persons kropp i en video eller bild. NÀr detta görs för att skapa skadligt innehÄll Àr det en form av digital förfalskning och ett allvarligt brott.
**För offer och de som oroar sig för att bli offer**
**F:** Vad ska jag göra om jag upptÀcker att mitt foto har missbrukats pÄ detta sÀtt?
**S:** 1. Ta inte bort bevis. Ta skÀrmdumpar med webbadresser. 2. Rapportera omedelbart till plattformen dÀr du hittade det. 3. Gör en anmÀlan till polisen. 4. Kontakta en stödorganisation som Cyber Civil Rights Initiative eller RAINN för hjÀlp.
**F:** Kan jag fÄ dessa AI-genererade förfalskningar borttagna frÄn internet?
**S:** Det Àr utmanande men möjligt. Du mÄste rapportera varje förekomst till vÀrdplattformen. MÄnga stora plattformar har policyer mot icke-konsensuell intim bild. Det finns ocksÄ tjÀnster som Take It Down som kan hjÀlpa till att förhindra att kÀnda bilder delas.
**F:** Hur kan jag skydda mina foton frÄn att missbrukas av AI?
**S:** Ăven om ingen metod Ă€r idiotsĂ€ker kan du vara mycket selektiv med vad du delar offentligt online, anvĂ€nda strikta sekretessinstĂ€llningar, undvika att publicera högupplösta foton och övervĂ€ga att anvĂ€nda digitala vattenstĂ€mplar. Var försiktig med appar som anvĂ€nder...