Quand j'étais petite fille, rien n'était plus effrayant qu'un inconnu. À la fin des années 1980 et au début des années 1990, nos parents, les émissions spéciales à la télévision et nos enseignants nous avertissaient tous que les inconnus voulaient nous faire du mal. Le « danger des inconnus » était partout. C'était une leçon bien intentionnée, mais le risque était exagéré : la plupart des maltraitances sur enfants sont commises par des personnes que l'enfant connaît. Les abus par des inconnus sont beaucoup plus rares.
Plus rares, mais pas impossibles. Je le sais parce que j'ai été victime d'exploitation sexuelle par des inconnus.
De cinq à treize ans, j'étais une enfant actrice. Bien que nous ayons récemment entendu de nombreuses histoires d'horreur sur les abus dans les coulisses, je me suis toujours sentie en sécurité sur les plateaux de tournage. Les plateaux de cinéma étaient des espaces réglementés où les gens se concentraient sur le travail. J'avais des parents soutenants et j'étais entourée de réalisateurs, d'acteurs et d'enseignants qui comprenaient et prenaient soin des enfants.
La seule façon dont le show-business m'a mise en danger, c'est en me mettant sous le feu des projecteurs. Toute la cruauté et l'exploitation que j'ai subies venaient du public.
« Hollywood te jette à l'eau », dis-je toujours, « mais c'est le public qui te maintient la tête sous l'eau. »
Avant même que je commence le lycée, mon image avait été utilisée dans du matériel d'abus sexuel sur enfants. Je suis apparue sur des sites fétichistes et j'ai été photomontée dans de la pornographie. Des hommes adultes m'envoyaient des lettres inquiétantes. Je n'étais pas une jolie fille — ma phase maladroite a duré d'environ dix à vingt-cinq ans — et je jouais presque exclusivement dans des films familiaux. Mais j'étais une personnalité publique, donc j'étais accessible. C'est ce que les prédateurs recherchent : un accès. Et rien ne m'a rendue plus accessible qu'Internet.
Peu importait que ces images « n'étaient pas moi » ou que les sites soient « techniquement » légaux. C'était une expérience douloureuse et violante — un cauchemar éveillé que j'espérais qu'aucun autre enfant ne subirait. À l'âge adulte, je me suis inquiétée pour les enfants qui sont venus après moi. Des choses similaires arrivaient-elles aux stars de Disney, au casting de **Stranger Things**, ou aux préadolescents faisant des danses TikTok et apparaissant dans des vlogs familiaux ? Je n'étais pas sûre de vouloir le savoir.
Quand l'IA générative a pris de l'ampleur il y a quelques années, j'ai craint le pire. J'avais entendu parler des « deepfakes » et je savais que la technologie devenait exponentiellement plus réaliste.
Puis c'est arrivé — ou du moins, le monde l'a remarqué. L'IA générative a déjà été utilisée de nombreuses fois pour créer des images sexualisées de femmes adultes sans leur consentement. C'est arrivé à des amies à moi. Mais récemment, il a été rapporté que l'outil d'IA Grok de X avait été utilisé ouvertement pour générer des images dénudées d'une actrice mineure. Quelques semaines plus tôt, une fille de treize ans avait été exclue de son école pour avoir frappé un camarade de classe qui aurait créé une pornographie deepfake d'elle — à peu près au même âge que moi quand des gens ont créé de fausses images sexualisées de moi.
En juillet 2024, l'Internet Watch Foundation a trouvé plus de 3 500 images d'abus sexuel sur enfants générées par IA sur un forum du dark web. Combien de milliers d'autres ont été créées depuis ?
L'IA générative a réinventé le danger des inconnus. Et cette fois, la peur est justifiée. Il est désormais infiniment plus facile pour tout enfant dont le visage est en ligne d'être exploité sexuellement. Des millions d'enfants pourraient être forcés de vivre mon cauchemar.
Pour arrêter cette crise des deepfakes, nous devons examiner comment l'IA est entraînée.
L'IA générative « apprend » par un processus répété de « regarder, créer, comparer, mettre à jour, répéter », explique Patrick LaVictoire, mathématicien et ancien chercheur en sécurité de l'IA. Elle crée des modèles basés sur des informations mémorisées, mais comme elle ne peut pas tout mémoriser, elle cherche des modèles et base ses réponses sur ceux-ci. « Une connexion qui est... » LaVictoire explique que les comportements utiles de l'IA sont renforcés, tandis que ceux inutiles ou nuisibles sont élagués. Ce que l'IA générative peut produire dépend entièrement de ses données d'entraînement. Une étude de Stanford de 2023 a révélé qu'un ensemble de données d'entraînement populaire contenait plus de 1 000 cas de matériel d'abus sexuel sur enfants (CSAM). Bien que ces liens aient depuis été supprimés, les chercheurs mettent en garde contre un autre danger : l'IA pourrait générer du CSAM en combinant des images innocentes d'enfants avec de la pornographie adulte si les deux types sont présents dans les données.
Des entreprises comme Google et OpenAI affirment avoir des garde-fous, comme la curation minutieuse des données d'entraînement. Cependant, il est important de noter que des images de nombreux artistes adultes et travailleurs du sexe ont été extraites pour l'IA sans leur consentement.
LaVictoire souligne que l'IA générative elle-même ne peut pas distinguer les requêtes inoffensives, comme « fais une image d'un Jedi samouraï », des requêtes nuisibles, comme « déshabille cette célébrité ». Pour y remédier, une autre couche d'IA, similaire à un filtre anti-spam, peut bloquer de telles requêtes. xAI, la société derrière Grok, semble avoir été laxiste avec ce filtre.
La situation pourrait empirer. Meta et d'autres ont proposé de rendre les futurs modèles d'IA open source, ce qui signifie que n'importe qui pourrait accéder, télécharger et modifier le code. Bien que les logiciels open source favorisent généralement la créativité et la collaboration, cette liberté pourrait être désastreuse pour la sécurité des enfants. Une plateforme d'IA téléchargée et open source pourrait être affinée avec des images explicites ou illégales pour créer du CSAM illimité ou de la « pornographie de revanche », sans aucune mesure de sécurité en place.
Meta semble être revenu sur sa décision de rendre ses nouvelles plateformes d'IA entièrement open source. Peut-être que Mark Zuckerberg a considéré l'héritage potentiel, s'éloignant d'une voie qui pourrait le faire ressembler davantage à un « Oppenheimer du CSAM » qu'à un empereur romain.
Certains pays prennent des mesures. La Chine exige que le contenu généré par IA soit étiqueté. Le Danemark rédige une législation pour donner aux individus un droit d'auteur sur leur image et leur voix, avec des amendes pour les plateformes non conformes. En Europe et au Royaume-Uni, des protections pourraient également venir de réglementations comme le RGPD.
Les perspectives aux États-Unis semblent plus sombres. Les revendications de droits d'auteur échouent souvent car les conditions d'utilisation accordent généralement aux plateformes des droits étendus sur le contenu téléchargé. Avec des ordres exécutifs s'opposant à la régulation de l'IA et des entreprises comme xAI s'associant avec l'armée, le gouvernement américain semble privilégier les profits de l'IA sur la sécurité publique.
L'avocat new-yorkais Akiva Cohen note des lois récentes qui criminalisent certaines manipulations numériques, mais dit qu'elles sont souvent trop restrictives. Par exemple, créer un deepfake montrant une personne nue ou dans un acte sexuel pourrait être criminel, mais utiliser l'IA pour mettre une femme — ou même une mineure — en bikini ne le serait probablement pas.
« Beaucoup de cela reste très consciemment juste du côté "horrible, mais légal" de la ligne », dit Cohen. Bien que de tels actes ne soient peut-être pas des infractions pénales contre l'État, Cohen soutient qu'ils pourraient engager la responsabilité civile, violant les droits d'une personne et exigeant une réparation. Il suggère que cela relève de délits comme la « présentation sous un faux jour » ou « l'atteinte à la vie privée ». Une forme de faute consiste à faire des affirmations offensantes sur une personne, la présentant sous un faux jour — montrant essentiellement quelqu'un faisant quelque chose qu'il n'a jamais fait.
« La véritable façon de dissuader ce genre de comportement est de tenir pour responsables les entreprises qui le permettent », dit Cohen.
Il existe un précédent juridique : la loi Raise de New York et le projet de loi 53 du Sénat de Californie stipulent que les entreprises d'IA peuvent être tenues responsables des préjudices qu'elles causent au-delà d'un certain point. Entre-temps, X a annoncé qu'il bloquerait son outil d'IA Grok pour générer des images sexualisées de personnes réelles sur sa plateforme — bien que ce changement de politique ne semble pas s'appliquer à l'application autonome Grok.
Josh Saviano, ancien avocat à New York et ancien enfant acteur, estime qu'une action plus immédiate est nécessaire parallèlement à la législation.
« Les efforts de lobbying et les tribunaux finiront par régler cela », dit Saviano. « Mais d'ici là, il y a deux options : s'abstenir complètement en supprimant toute votre empreinte numérique d'Internet, ou trouver une solution technologique. »
Protéger les jeunes est particulièrement important pour Saviano, qui connaît des personnes touchées par des deepfakes et, de par sa propre expérience d'enfant acteur, comprend ce que c'est que de perdre le contrôle de sa propre histoire. Lui et son équipe développent un outil pour détecter et alerter les gens lorsque leurs images ou leur travail créatif sont extraits en ligne. Leur devise, dit-il, est : « Protéger les bébés. »
Quelle que soit la manière dont cela se produit, je crois que se défendre contre cette menace nécessitera un effort public significatif.
Alors que certains s'attachent à leurs chatbots d'IA, la plupart des gens considèrent encore les entreprises technologiques comme de simples utilitaires. Nous pourrions préférer une application à une autre pour des raisons personnelles ou politiques, mais une forte fidélité à la marque est rare. Les entreprises technologiques — surtout les plateformes de médias sociaux comme Meta et X — devraient se souvenir qu'elles sont un moyen pour parvenir à une fin. Si quelqu'un comme moi, qui était sur Twitter tous les jours pendant plus de dix ans, peut le quitter, n'importe qui peut le faire.
Mais les boycotts seuls ne suffisent pas. Nous devons exiger que les entreprises permettant la création de matériel d'abus sexuel sur enfants soient tenues pour responsables. Nous devons pousser pour une législation et des garde-fous technologiques. Nous devons aussi examiner notre propre comportement : personne ne veut penser que partager des photos de son enfant pourrait conduire à ce que ces images soient utilisées dans du matériel abusif. Pourtant, c'est un risque réel — un risque contre lequel les parents doivent se prémunir pour les jeunes enfants et dont ils doivent informer les enfants plus âgés.
Si notre focalisation passée sur le « danger des inconnus » nous a appris quelque chose, c'est que la plupart des gens veulent empêcher la mise en danger et le harcèlement des enfants. Maintenant, il est temps de le prouver.
Mara Wilson est une écrivaine et actrice basée à Los Angeles.
**Foire Aux Questions**
Bien sûr. Voici une liste de FAQ concernant le problème profondément inquiétant de l'utilisation abusive de photos personnelles dans du contenu abusif et la nouvelle menace posée par l'imagerie générée par IA.
**Comprendre le problème central**
**Q : Que signifie-t-on quand quelqu'un dit que sa photo a été utilisée dans du matériel d'abus sur enfants ?**
R : Cela signifie qu'une photo personnelle et non sexuelle d'eux a été prise sans consentement et numériquement altérée ou placée dans des images ou vidéos à caractère sexuellement abusif. C'est une forme grave d'abus sexuel basé sur l'image.
**Q : Comment l'IA aggrave-t-elle ce problème ?**
R : Les outils d'IA peuvent maintenant générer des images et vidéos fausses très réalistes. Les auteurs peuvent utiliser une seule photo innocente pour créer de nouveaux contenus abusifs fabriqués, rendant la victimisation sans fin et la photo originale impossible à retirer complètement de la circulation.
**Q : J'ai entendu le terme "deepfake" — est-ce de cela qu'il s'agit ?**
R : Oui, dans ce contexte. Un deepfake utilise l'IA pour superposer le visage d'une personne sur le corps d'une autre personne dans une vidéo ou une image. Lorsque cela est fait pour créer du contenu abusif, c'est une forme de falsification numérique et un crime grave.
**Pour les victimes et ceux qui s'inquiètent de le devenir**
**Q : Que dois-je faire si je découvre que ma photo a été utilisée de cette manière ?**
R : 1. Ne supprimez pas les preuves. Prenez des captures d'écran avec les URL. 2. Signalez immédiatement à la plateforme où vous l'avez trouvée. 3. Déposez une plainte auprès des forces de l'ordre. 4. Contactez une organisation de soutien comme la Cyber Civil Rights Initiative ou RAINN pour obtenir de l'aide.
**Q : Puis-je faire retirer ces faux générés par IA d'Internet ?**
R : C'est difficile mais possible. Vous devez signaler chaque instance à la plateforme d'hébergement. De nombreuses grandes plateformes ont des politiques contre l'imagerie intime non consensuelle. Il existe aussi des services comme Take It Down qui peuvent aider à empêcher le partage d'images connues.
**Q : Comment puis-je protéger mes photos d'une utilisation abusive par l'IA ?**
R : Bien qu'aucune méthode ne soit infaillible, vous pouvez être très sélectif sur ce que vous partagez publiquement en ligne, utiliser des paramètres de confidentialité stricts, éviter de publier des photos haute résolution et envisager d'utiliser des filigranes numériques. Méfiez-vous des applications qui utilisent