Als ich ein kleines Mädchen war, gab es nichts Unheimlicheres als einen Fremden. In den späten 1980er und frühen 1990er Jahren warnten uns unsere Eltern, TV-Specials und Lehrer alle davor, dass Fremde uns wehtun wollten. "Stranger Danger" war überall. Es war eine gut gemeinte Lektion, aber das Risiko wurde übertrieben: Die meisten Misshandlungen von Kindern werden von Personen begangen, die das Kind kennt. Missbrauch durch Fremde ist viel seltener.
Seltener, aber nicht unmöglich. Ich weiß das, weil ich von Fremden sexuell ausgebeutet wurde.
Im Alter von fünf bis 13 Jahren war ich ein Kinderdarsteller. Während wir in letzter Zeit viele Horrorgeschichten über Missbrauch hinter den Kulissen gehört haben, fühlte ich mich am Set immer sicher. Filmsets waren regulierte Räume, in denen sich die Leute auf die Arbeit konzentrierten. Ich hatte unterstützende Eltern und war umgeben von Regisseuren, Schauspielern und Lehrern, die Kinder verstanden und sich um sie kümmerten.
Die einzige Weise, wie mich das Showbusiness gefährdete, war, dass es mich ins Rampenlicht stellte. Jede Grausamkeit und Ausbeutung, der ich ausgesetzt war, kam von der Öffentlichkeit.
"Hollywood wirft dich ins Becken", sage ich immer, "aber es ist die Öffentlichkeit, die deinen Kopf unter Wasser hält."
Noch bevor ich überhaupt zur High School ging, war mein Bild in Material zur sexuellen Ausbeutung von Kindern verwendet worden. Ich tauchte auf Fetisch-Websites auf und wurde in Pornografie hineinphotoshoppt. Erwachsene Männer schickten mir gruselige Briefe. Ich war kein schönes Mädchen – meine unbeholfene Phase dauerte von etwa 10 bis 25 Jahren – und ich spielte fast ausschließlich in familienfreundlichen Filmen. Aber ich war eine öffentliche Person, also war ich zugänglich. Danach suchen Täter: Zugang. Und nichts machte mich zugänglicher als das Internet.
Es spielte keine Rolle, dass diese Bilder "nicht ich waren" oder dass die Websites "technisch gesehen" legal waren. Es war eine schmerzhafte, verletzende Erfahrung – ein lebendiger Albtraum, den ich hoffte, dass kein anderes Kind erdulden müsste. Als Erwachsene machte ich mir Sorgen um die Kinder, die nach mir kamen. Passierten ähnliche Dinge Disney-Stars, der Besetzung von Stranger Things oder Tweens, die TikTok-Tänze machten und in Familien-Vlogs auftraten? Ich war mir nicht sicher, ob ich es wissen wollte.
Als generative KI vor ein paar Jahren an Fahrt gewann, befürchtete ich das Schlimmste. Ich hatte von "Deepfakes" gehört und wusste, dass die Technologie exponentiell realistischer wurde.
Dann geschah es – oder zumindest bemerkte es die Welt. Generative KI wurde bereits viele Male verwendet, um sexualisierte Bilder erwachsener Frauen ohne deren Einwilligung zu erstellen. Es passierte Freundinnen von mir. Doch kürzlich wurde berichtet, dass Xs KI-Tool Grok offen genutzt wurde, um entkleidete Bilder einer minderjährigen Schauspielerin zu generieren. Wochen zuvor wurde ein 13-jähriges Mädchen von der Schule verwiesen, weil es eine Mitschülerin geschlagen hatte, die angeblich Deepfake-Pornos von ihr erstellt hatte – ungefähr in demselben Alter, in dem ich war, als Leute gefälschte sexualisierte Bilder von mir erstellten.
Im Juli 2024 fand die Internet Watch Foundation auf einem Dark-Web-Forum über 3.500 KI-generierte Bilder sexuellen Kindesmissbrauchs. Wie viele Tausende mehr wurden seitdem erstellt?
Generative KI hat "Stranger Danger" neu erfunden. Und diesmal ist die Angst berechtigt. Es ist jetzt unendlich viel einfacher für jedes Kind, dessen Gesicht online ist, sexuell ausgebeutet zu werden. Millionen Kinder könnten gezwungen sein, meinen Albtraum zu leben.
Um diese Deepfake-Krise zu stoppen, müssen wir untersuchen, wie KI trainiert wird.
Generative KI "lernt" durch einen wiederholten Prozess von "sehen, machen, vergleichen, aktualisieren, wiederholen", sagt Patrick LaVictoire, Mathematiker und ehemaliger KI-Sicherheitsforscher. Sie erstellt Modelle basierend auf auswendig gelernten Informationen, aber da sie nicht alles auswendig lernen kann, sucht sie nach Mustern und stützt ihre Antworten darauf. "Eine Verbindung, die..." LaVictoire erklärt, dass nützliches KI-Verhalten verstärkt wird, während unnützes oder schädliches Verhalten beschnitten wird. Was generative KI produzieren kann, hängt vollständig von ihren Trainingsdaten ab. Eine Stanford-Studie aus dem Jahr 2023 ergab, dass ein beliebter Trainingsdatensatz über 1.000 Instanzen von Material zum sexuellen Kindesmissbrauch (CSAM) enthielt. Obwohl diese Links seitdem entfernt wurden, warnen Forscher vor einer weiteren Gefahr: KI könnte CSAM generieren, indem sie unschuldige Bilder von Kindern mit Erwachsenenpornografie kombiniert, wenn beide Arten in den Daten vorhanden sind.
Unternehmen wie Google und OpenAI sagen, sie hätten Sicherheitsvorkehrungen, wie etwa die sorgfältige Kuratierung von Trainingsdaten. Es ist jedoch wichtig anzumerken, dass Bilder vieler erwachsener Darsteller und Sexarbeiter ohne deren Einwilligung für KI gesammelt wurden.
LaVictoire weist darauf hin, dass generative KI selbst nicht zwischen harmlosen Aufforderungen wie "Erstelle ein Bild eines Jedi-Samurai" und schädlichen wie "Entkleide diese Berühmtheit" unterscheiden kann. Um dies zu adressieren, kann eine weitere KI-Ebene, ähnlich einem Spam-Filter, solche Abfragen blockieren. xAI, das Unternehmen hinter Grok, scheint mit diesem Filter nachlässig gewesen zu sein.
Die Situation könnte sich verschlimmern. Meta und andere haben vorgeschlagen, zukünftige KI-Modelle Open Source zu machen, was bedeutet, dass jeder auf den Code zugreifen, ihn herunterladen und modifizieren könnte. Während Open-Source-Software typischerweise Kreativität und Zusammenarbeit fördert, könnte diese Freiheit für den Kinderschutz verheerend sein. Eine heruntergeladene, Open-Source-KI-Plattform könnte mit expliziten oder illegalen Bildern feinabgestimmt werden, um unbegrenztes CSAM oder "Rachepornos" ohne jegliche Sicherheitsvorkehrungen zu erstellen.
Meta scheint davon abgerückt zu sein, seine neueren KI-Plattformen vollständig Open Source zu machen. Vielleicht dachte Mark Zuckerberg über das mögliche Vermächtnis nach und entfernte sich von einem Pfad, der ihn eher mit einem "Oppenheimer des CSAM" als mit einem römischen Kaiser vergleichen ließe.
Einige Länder ergreifen Maßnahmen. China verlangt, dass KI-generierte Inhalte gekennzeichnet werden. Dänemark erarbeitet Gesetze, die Individuen das Urheberrecht an ihrem Abbild und ihrer Stimme geben, mit Geldstrafen für nicht konforme Plattformen. In Europa und dem Vereinigten Königreich könnten auch Schutzmaßnahmen durch Vorschriften wie die DSGVO kommen.
Die Aussichten in den Vereinigten Staaten scheinen düsterer. Urheberrechtsansprüche scheitern oft, weil Nutzungsvereinbarungen Plattformen typischerweise weitreichende Rechte an hochgeladenen Inhalten gewähren. Mit Exekutivverordnungen, die sich gegen KI-Regulierung stellen, und Unternehmen wie xAI, die mit dem Militär zusammenarbeiten, scheint die US-Regierung KI-Profite über die öffentliche Sicherheit zu stellen.
Der New Yorker Prozessanwalt Akiva Cohen verweist auf kürzliche Gesetze, die einige digitale Manipulationen unter Strafe stellen, sagt aber, sie seien oft zu restriktiv. Beispielsweise könnte die Erstellung eines Deepfakes, der jemanden nackt oder bei einer sexuellen Handlung zeigt, strafbar sein, aber die Nutzung von KI, um eine Frau – oder sogar ein minderjähriges Mädchen – in einen Bikini zu setzen, wahrscheinlich nicht.
"Viel davon bleibt sehr bewusst genau auf der Seite der Grenze von 'entsetzlich, aber legal'", sagt Cohen. Während solche Handlungen möglicherweise keine strafrechtlichen Vergehen gegen den Staat darstellen, argumentiert Cohen, dass sie zivilrechtliche Haftungen sein könnten, die die Rechte einer Person verletzen und Wiedergutmachung erfordern. Er schlägt vor, dass dies unter Delikte wie "falsches Licht" oder "Eingriff in die Privatsphäre" fällt. Eine Form des Fehlverhaltens beinhaltet, anstößige Behauptungen über eine Person aufzustellen, sie in ein falsches Licht zu rücken – im Wesentlichen jemanden dabei zu zeigen, wie er etwas tut, das er nie wirklich getan hat.
"Der Weg, dieses Verhalten wirklich abzuschrecken, besteht darin, die Unternehmen, die es ermöglichen, zur Verantwortung zu ziehen", sagt Cohen.
Es gibt einen Rechtspräzedenzfall dafür: New Yorks Raise Act und Kaliforniens Senate Bill 53 besagen, dass KI-Unternehmen für Schäden, die sie über einen bestimmten Punkt hinaus verursachen, haftbar gemacht werden können. Unterdessen hat X angekündigt, dass sein KI-Tool Grok daran gehindert wird, sexualisierte Bilder realer Personen auf seiner Plattform zu generieren – obwohl diese Richtlinienänderung scheinbar nicht für die eigenständige Grok-App gilt.
Josh Saviano, ein ehemaliger Anwalt in New York und ehemaliger Kinderdarsteller, glaubt, dass neben Gesetzgebung auch unmittelbarere Maßnahmen erforderlich sind.
"Lobbyarbeit und die Gerichte werden dies letztendlich angehen", sagt Saviano. "Aber bis dahin gibt es zwei Optionen: sich vollständig enthalten, indem man seinen gesamten digitalen Fußabdruck aus dem Internet entfernt, oder eine technologische Lösung finden."
Der Schutz junger Menschen ist Saviano besonders wichtig, der Personen kennt, die von Deepfakes betroffen sind, und aus eigener Erfahrung als Kinderdarsteller weiß, wie es ist, die Kontrolle über die eigene Geschichte zu verlieren. Er und sein Team entwickeln ein Tool, um zu erkennen und Menschen zu alarmieren, wenn ihre Bilder oder kreativen Arbeiten online gesammelt werden. Ihr Motto, sagt er, lautet: "Schützt die Babys."
Wie auch immer es geschieht, ich glaube, dass die Abwehr dieser Bedrohung erhebliche öffentliche Anstrengungen erfordern wird.
Während einige sich an ihre KI-Chatbots gewöhnen, betrachten die meisten Menschen Tech-Unternehmen immer noch kaum mehr als Versorger. Wir mögen eine App aus persönlichen oder politischen Gründen einer anderen vorziehen, aber starke Markenloyalität ist selten. Tech-Unternehmen – insbesondere Social-Media-Plattformen wie Meta und X – sollten sich daran erinnern, dass sie ein Mittel zum Zweck sind. Wenn jemand wie ich, der über ein Jahrzehnt lang jeden Tag auf Twitter war, es verlassen kann, kann es jeder.
Aber Boykotte allein reichen nicht aus. Wir müssen fordern, dass Unternehmen, die die Erstellung von Material zur sexuellen Ausbeutung von Kindern ermöglichen, zur Verantwortung gezogen werden. Wir müssen uns für Gesetzgebung und technologische Sicherheitsvorkehrungen einsetzen. Wir müssen auch unser eigenes Verhalten überprüfen: Niemand möchte denken, dass das Teilen von Fotos des eigenen Kindes dazu führen könnte, dass diese Bilder in missbräuchlichem Material verwendet werden. Doch es ist ein reales Risiko – eines, gegen das Eltern bei kleinen Kindern wachsam sein und über das sie ältere Kinder aufklären müssen.
Wenn uns unser früher Fokus auf "Stranger Danger" etwas gelehrt hat, dann ist es, dass die meisten Menschen die Gefährdung und Belästigung von Kindern verhindern wollen. Jetzt ist es an der Zeit, es zu beweisen.
Mara Wilson ist eine Schriftstellerin und Schauspielerin in Los Angeles.
Häufig gestellte Fragen
Natürlich. Hier ist eine Liste von FAQs zu dem zutiefst besorgniserregenden Problem des Missbrauchs persönlicher Fotos in missbräuchlichen Inhalten und der neuen Bedrohung durch KI-generierte Bilder.
Das Kernproblem verstehen
F: Was bedeutet es, wenn jemand sagt, sein Foto sei in Material zum sexuellen Kindesmissbrauch verwendet worden?
A: Es bedeutet, dass ein persönliches, nicht-sexuelles Foto von ihm ohne Einwilligung genommen und digital bearbeitet oder in sexuell missbräuchliche Bilder oder Videos eingefügt wurde. Dies ist eine schwerwiegende Form des bildbasierten sexuellen Missbrauchs.
F: Wie verschlimmert KI dieses Problem?
A: KI-Tools können jetzt hochrealistische gefälschte Bilder und Videos generieren. Täter können ein einziges unschuldiges Foto verwenden, um neue, fabrizierte missbräuchliche Inhalte zu erstellen, was die Viktimisierung endlos macht und das Originalfoto unmöglich vollständig aus dem Umlauf entfernen lässt.
F: Ich habe den Begriff "Deepfake" gehört – ist das dasselbe?
A: Ja, in diesem Kontext. Ein Deepfake verwendet KI, um das Gesicht einer Person auf den Körper einer anderen Person in einem Video oder Bild zu übertragen. Wenn dies zur Erstellung missbräuchlicher Inhalte geschieht, ist es eine Form der digitalen Fälschung und ein schweres Verbrechen.
Für Opfer und diejenigen, die sich sorgen, Opfer zu werden
F: Was soll ich tun, wenn ich feststelle, dass mein Foto auf diese Weise missbraucht wurde?
A: 1. Löschen Sie keine Beweise. Machen Sie Screenshots mit URLs. 2. Melden Sie es sofort der Plattform, auf der Sie es gefunden haben. 3. Erstatten Sie Anzeige bei Strafverfolgungsbehörden. 4. Wenden Sie sich an eine Unterstützungsorganisation wie die Cyber Civil Rights Initiative oder RAINN für Hilfe.
F: Kann ich diese KI-generierten Fälschungen aus dem Internet entfernen lassen?
A: Es ist schwierig, aber möglich. Sie müssen jede Instanz der Hosting-Plattform melden. Viele große Plattformen haben Richtlinien gegen nicht einvernehmliche intime Bilder. Es gibt auch Dienste wie Take It Down, die helfen können, die Verbreitung bekannter Bilder zu verhindern.
F: Wie kann ich meine Fotos davor schützen, von KI missbraucht zu werden?
A: Während keine Methode narrensicher ist, können Sie sehr selektiv sein, was Sie öffentlich online teilen, strenge Privatsphäre-Einstellungen verwenden, das Posten hochauflösender Fotos vermeiden und digitale Wasserzeichen in Betracht ziehen. Seien Sie vorsichtig bei Apps, die