Když jsem byla malá holčička, nebylo nic děsivějšího než cizí člověk. Na konci osmdesátých a začátkem devadesátých let nás naši rodiče, televizní pořady i učitelé varovali, že cizí lidé nám chtějí ublížit. "Pozor na cizí lidi" bylo všude. Byla to sice dobře míněná lekce, ale riziko bylo přehnané: většina zneužívání dětí je spáchána lidmi, které dítě zná. Zneužívání od cizích lidí je mnohem vzácnější.
Vzácnější, ale ne nemožné. Vím to, protože mě cizí lidé sexuálně zneužili.
Od pěti do třinácti let jsem byla dětskou herečkou. I když jsme v poslední době slyšeli mnoho hrůzných příběhů o zneužívání v zákulisí, na place jsem se vždy cítila bezpečně. Filmová natáčení jsou regulované prostory, kde se lidé soustředí na práci. Měla jsem podporující rodiče a obklopovali mě režiséři, herci a učitelé, kteří dětem rozuměli a pečovali o ně.
Jediný způsob, jak mi showbyznys nebezpečím hrozil, bylo vystavení veřejnému zájmu. Veškerá krutost a zneužívání, kterým jsem čelila, přicházely od veřejnosti.
"Hollywood vás hodí do bazénu," říkám vždy, "ale veřejnost vás drží pod vodou."
Ještě než jsem vůbec začala chodit na střední školu, byl můj obraz použit v materiálech o sexuálním zneužívání dětí. Objevila jsem se na fetišistických webech a byla jsem pomocí Photoshopu vložena do pornografie. Dospělí muži mi posílali děsivé dopisy. Nebyla jsem krásná holka – mé trapné období trvalo zhruba od 10 do 25 let – a hrála jsem téměř výhradně v rodinných filmech. Ale byla jsem veřejnou osobou, takže jsem byla dostupná. A to predátoři hledají: přístup. A nic mě nezpřístupnilo víc než internet.
Nezáleželo na tom, že ty obrázky "nebyly mnou" nebo že weby byly "technicky" legální. Byl to bolestivý, zraňující zážitek – noční můra, kterou jsem doufala, že žádné jiné dítě nezažije. Jako dospělá jsem se bála o děti, které přišly po mně. Dělo se něco podobného hvězdám Disney, obsazení **Stranger Things** nebo předpubertálním dětem, které tvoří tanečky na TikTok a objevují se v rodinných vlogech? Nebyla jsem si jistá, jestli to chci vědět.
Když před několika lety získala na síle generativní umělá inteligence, obávala jsem se nejhoršího. Slyšela jsem o "deepfakech" a věděla jsem, že technologie se exponenciálně zlepšuje v realističnosti.
Pak se to stalo – nebo alespoň si toho svět všiml. Generativní AI již byla mnohokrát použita k vytváření sexualizovaných obrázků dospělých žen bez jejich souhlasu. Stalo se to mým přátelům. Ale nedávno bylo oznámeno, že AI nástroj Grok od X byl otevřeně použit k vytváření obrázků neoblečené nezletilé herečky. O několik týdnů dříve byla třináctiletá dívka vyloučena ze školy za to, že uhodila spolužáka, který o ní údajně vytvořil deepfake pornografii – zhruba ve stejném věku, v jakém jsem byla já, když lidé o mně vytvářeli falešné sexualizované obrázky.
V červenci 2024 našel Internet Watch Foundation na fóru dark webu přes 3 500 AI generovaných obrázků sexuálního zneužívání dětí. Kolik tisíc dalších od té doby vzniklo?
Generativní AI znovu vynalezla "Pozor na cizí lidi". A tentokrát je strach oprávněný. Nyní je nekonečně snazší, aby bylo jakékoli dítě, jehož tvář je online, sexuálně zneužito. Miliony dětí by mohly být nuceny žít mou noční můru.
Abychom zastavili tuto deepfake krizi, musíme prozkoumat, jak je AI trénována.
Generativní AI se "učí" opakovaným procesem "podívej se, vytvoř, porovnej, aktualizuj, opakuj," říká Patrick LaVictoire, matematik a bývalý výzkumník bezpečnosti AI. Vytváří modely na základě zapamatovaných informací, ale protože si nemůže zapamatovat všechno, hledá vzorce a své odpovědi na nich zakládá. "Spojení, které je..." LaVictoire vysvětluje, že užitečné chování AI je posilováno, zatímco neužitečné nebo škodlivé je prořezáváno. Co generativní AI dokáže vytvořit, závisí zcela na jejích tréninkových datech. Studie Stanfordovy univerzity z roku 2023 odhalila, že oblíbený tréninkový dataset obsahoval přes 1 000 případů materiálů o sexuálním zneužívání dětí (CSAM). I když byly tyto odkazy od té doby odstraněny, výzkumníci varují před dalším nebezpečím: AI by mohla generovat CSAM kombinací nevinných obrázků dětí s pornografií dospělých, pokud jsou oba typy přítomny v datech.
Společnosti jako Google a OpenAI tvrdí, že mají ochranná opatření, jako je pečlivá kurátorská práce s tréninkovými daty. Je však důležité poznamenat, že obrázky mnoha dospělých performerů a sexuálních pracovníků byly bez jejich souhlasu seškrábány pro AI.
LaVictoire poukazuje na to, že generativní AI sama o sobě nedokáže rozlišit mezi neškodnými pokyny, jako je "vytvoř obrázek džedaje samuraje", a škodlivými, jako je "svlékni tuto celebritu". K řešení tohoto problému může další vrstva AI, podobná spamovému filtru, takové dotazy blokovat. Společnost xAI, která stojí za Grokem, se zdá být s tímto filtrem laxní.
Situace by se mohla zhoršit. Meta a další navrhli, aby budoucí modely AI byly open source, což znamená, že kód by mohl kdokoli přistupovat, stáhnout a upravovat. Zatímco open-source software obvykle podporuje kreativitu a spolupráci, tato svoboda by mohla být pro bezpečnost dětí katastrofální. Stažená open-source AI platforma by mohla být doladěna explicitními nebo nelegálními obrázky k vytváření neomezeného množství CSAM nebo "pomstychlípné pornografie", bez jakýchkoli ochranných opatření.
Meta se zdá ustoupila od plně open-source vydání svých novějších AI platforem. Možná Mark Zuckerberg zvážil potenciální odkaz a odvrátil se od cesty, která by ho mohla přirovnat spíše k "Oppenheimerovi CSAM" než k římskému císaři.
Některé země jednají. Čína vyžaduje označování AI generovaného obsahu. Dánsko připravuje legislativu, která dá jednotlivcům autorská práva na jejich podobu a hlas, s pokutami pro nesplňující platformy. V Evropě a Velké Británii mohou ochrany plynout také z nařízení jako GDPR.
Vyhlídky ve Spojených státech se zdají pochmurnější. Nároky na autorská práva často selhávají, protože uživatelské smlouvy obvykle udělují platformám široká práva k nahranému obsahu. S exekutivními příkazy proti regulaci AI a společnostmi jako xAI spolupracujícími s armádou se zdá, že americká vláda upřednostňuje zisky z AI před bezpečností veřejnosti.
Newyorský právník Akiva Cohen poukazuje na nedávné zákony, které kriminalizují některé digitální manipulace, ale říká, že jsou často příliš omezující. Například vytvoření deepfake, který někoho ukazuje nahého nebo při sexuálním aktu, může být trestné, ale použití AI k tomu, aby byla žena – nebo dokonce nezletilá dívka – vložena do plavek, pravděpodobně nebude.
"Hodně z toho velmi vědomě zůstává jen na straně 'hrůzné, ale legální' hranice," říká Cohen. Zatímco takové činy nemusí být trestnými činy proti státu, Cohen tvrdí, že by mohly být občanskoprávními delikty, porušujícími práva osoby a vyžadujícími náhradu. Navrhuje, že to spadá pod delikty jako "falešné světlo" nebo "vniknutí do soukromí". Jedna forma protiprávního jednání zahrnuje činění urážlivých tvrzení o osobě, zobrazování jí ve falešném světle – v podstatě ukazování někoho, jak dělá něco, co ve skutečnosti nikdy neudělal.
"Skutečným způsobem, jak odradit od tohoto chování, je přimět společnosti, které je umožňují, nést odpovědnost," říká Cohen.
Existuje právní precedens: Newyorský Raise Act a kalifornský Senate Bill 53 uvádějí, že společnosti zabývající se AI mohou být odpovědné za škody, které způsobí za určitou hranicí. Mezitím X oznámil, že zablokuje svému AI nástroji Grok generování sexualizovaných obrázků skutečných lidí na své platformě – ačkoli se tato změna politiky zdá se nevztahuje na samostatnou aplikaci Grok.
Josh Saviano, bývalý právník v New Yorku a bývalý dětský herec, věří, že je potřeba okamžité akce spolu s legislativou.
"Lobbistické snahy a soudy to nakonec vyřeší," říká Saviano. "Ale do té doby existují dvě možnosti: úplně se zdržet odstraněním celé své digitální stopy z internetu, nebo najít technologické řešení."
Ochrana mladých lidí je pro Saviana obzvláště důležitá, zná lidi zasažené deepfake a ze své vlastní zkušenosti dětského herce ví, jaké to je ztratit kontrolu nad vlastním příběhem. On a jeho tým vyvíjejí nástroj k detekci a upozornění lidí, když jsou jejich obrázky nebo kreativní práce online seškrabovány. Jejich motto, říká, je: "Chraňte miminka."
Ať se to stane jakkoli, věřím, že obrana proti této hrozbě bude vyžadovat značné veřejné úsilí.
Zatímco si někteří lidé vytvářejí vztah ke svým AI chatbotům, většina lidí stále považuje technologické společnosti za něco málo víc než za utility. Můžeme upřednostňovat jednu aplikaci před druhou z osobních nebo politických důvodů, ale silná loajalita k značce je vzácná. Technologické společnosti – zejména sociální média jako Meta a X – by si měly pamatovat, že jsou prostředkem k cíli. Pokud někdo jako já, kdo byl na Twitteru každý den přes deset let, ho může opustit, může to udělat kdokoli.
Ale samotné bojkoty nestačí. Musíme požadovat, aby společnosti umožňující vytváření materiálů o sexuálním zneužívání dětí byly odpovědné. Musíme tlačit na legislativu a technologické ochranné mechanismy. Také musíme prozkoumat své vlastní chování: nikdo nechce myslet na to, že sdílení fotografií svého dítěte by mohlo vést k použití těchto obrázků v zneužívajícím materiálu. Přesto je to reálné riziko – riziko, proti kterému se rodiče musí bránit u malých dětí a o kterém musí starší děti poučit.
Pokud nás naše minulá pozornost věnovaná "Pozor na cizí lidi" něco naučila, pak to, že většina lidí chce zabránit ohrožení a obtěžování dětí. Teď je čas to dokázat.
Mara Wilson je spisovatelka a herečka žijící v Los Angeles.
**Často kladené otázky**
Samozřejmě, zde je seznam ČKD o hluboce znepokojivém problému zneužívání osobních fotografií v urážlivém obsahu a nové hrozbě představované AI generovanými obrazy.
**Porozumění jádru problému**
**Otázka:** Co to znamená, když někdo říká, že jeho fotka byla použita v materiálu o zneužívání dětí?
**Odpověď:** Znamená to, že osobní, neseksuální fotografie byla bez souhlasu pořízena a digitálně upravena nebo umístěna do sexuálně zneužívajících obrázků nebo videí. Jedná se o závažnou formu sexuálního zneužívání založeného na obrazech.
**Otázka:** Jak AI tento problém zhoršuje?
**Odpověď:** AI nástroje nyní dokážou generovat vysoce realistické falešné obrázky a videa. Pachatelé mohou použít jedinou nevinnou fotografii k vytvoření nového, zfabrikovaného urážlivého obsahu, čímž je viktimizace nekonečná a původní fotografii nelze plně odstranit z oběhu.
**Otázka:** Slyšel/a jsem termín "deepfake" – je to ono?
**Odpověď:** Ano, v tomto kontextu. Deepfake používá AI k nasazení tváře osoby na tělo jiné osoby ve videu nebo obrázku. Když se to provede za účelem vytvoření urážlivého obsahu, jedná se o formu digitálního padělání a závažný zločin.
**Pro oběti a ty, kdo se bojí stát se obětí**
**Otázka:** Co mám dělat, když zjistím, že moje fotka byla takto zneužita?
**Odpověď:** 1) Nesmazávejte důkazy. Pořiďte screenshoty s URL. 2) Okamžitě nahlaste na platformě, kde jste to našli. 3) Podnět podávejte u orgánů činných v trestním řízení. 4) Kontaktujte podpůrnou organizaci, jako je Cyber Civil Rights Initiative nebo RAINN, pro pomoc.
**Otázka:** Mohu dostat tyto AI generované padělky odstraněny z internetu?
**Odpověď:** Je to náročné, ale možné. Musíte nahlásit každý případ hostitelské platformě. Mnoho hlavních platforem má politiky proti nekonzensuálnímu intimnímu zobrazování. Existují také služby jako Take It Down, které mohou pomoci zabránit sdílení známých obrázků.
**Otázka:** Jak mohu chránit své fotografie před zneužitím AI?
**Odpověď:** I když žádná metoda není neprůstřelná, můžete být velmi vybíraví v tom, co sdílíte veřejně online, používat přísná nastavení soukromí, vyhýbat se zveřejňování fotografií ve vysokém rozlišení a z