我的照片曾被用于儿童虐待图像。如今,人工智能正迫使他人重蹈我的噩梦。

我的照片曾被用于儿童虐待图像。如今,人工智能正迫使他人重蹈我的噩梦。

在我还是个小女孩时,最可怕的事情莫过于遇到陌生人。上世纪80年代末到90年代初,父母、电视专题片和老师都警告我们陌生人会伤害我们。"警惕陌生人"的警示无处不在。这虽是善意的教导,但风险被夸大了:大多数虐待儿童案件其实都来自孩子认识的人,陌生人实施的虐待要罕见得多。

虽然罕见,但并非不可能。我之所以知道,是因为我曾遭受陌生人的性剥削。

从5岁到13岁,我是一名童星。尽管最近我们听到了许多关于幕后虐待的恐怖故事,但我始终觉得片场很安全。电影片场是受监管的空间,人们专注于工作。我有支持我的父母,周围都是理解并关心孩子的导演、演员和老师。

演艺行业给我带来的唯一危险,是让我暴露在公众视野中。我所面对的任何残忍和剥削都来自公众。

我常说:"好莱坞把你扔进泳池,但按住你头往水里淹的却是公众。"

在我甚至还没上高中时,我的形象就被用于儿童性虐待材料中。我出现在恋物癖网站上,照片被篡改进色情内容里。成年男性给我寄来令人毛骨悚然的信件。我并不是个漂亮女孩——从大约10岁到25岁,我一直处于尴尬的青春期——而且我出演的几乎全是合家欢电影。但我是个公众人物,所以容易被接触。这正是施害者所寻找的:可乘之机。而互联网让我变得前所未有的"可接近"。

那些图像"不是我"或网站"技术上"合法都无关紧要。这是一次痛苦、侵犯性的经历——一场我希望其他孩子永远不必承受的活生生的噩梦。成年后,我担心那些在我之后成名的孩子们。类似的事情是否也发生在迪士尼明星、《怪奇物语》演员,或是在TikTok上跳舞、出现在家庭视频博客中的青少年身上?我不确定自己是否想知道答案。

几年前当生成式人工智能兴起时,我最担心的事情发生了。我听说过"深度伪造",也知道这项技术正以指数级速度变得更逼真。

然后它发生了——或者说,至少世界注意到了。生成式人工智能已被多次用于未经同意创建成年女性的色情图像。我的朋友们就遭遇过这种事。但最近有报道称,X平台的AI工具Grok被公然用于生成未成年演员的裸体图像。几周前,一名13岁女孩因殴打同学被学校开除,据称该同学制作了她的深度伪造色情内容——这差不多正是当年人们伪造我色情图像时我的年龄。

2024年7月,互联网观察基金会在一个暗网论坛上发现了3500多张AI生成的儿童性虐待图像。自那以后,又产生了多少这样的图像?

生成式人工智能重新定义了"陌生人危险"。而这一次,恐惧是有道理的。现在,任何面容出现在网络上的孩子都无限容易遭受性剥削。数百万儿童可能被迫经历我的噩梦。

要阻止这场深度伪造危机,我们需要审视AI的训练方式。

数学家、前AI安全研究员帕特里克·拉维克托瓦解释说,生成式AI通过"观察、生成、比较、更新、重复"的循环过程进行"学习"。它基于记忆信息创建模型,但由于无法记忆所有内容,它会寻找模式并以此为基础生成回应。拉维克托瓦指出,有用的AI行为会得到强化,而无用或有害的行为则会被剔除。生成式AI能产出什么完全取决于其训练数据。2023年斯坦福大学的一项研究显示,一个流行的训练数据集中包含1000多个儿童性虐待材料实例。尽管这些链接已被移除,但研究人员警告还存在另一种危险:如果数据中同时存在儿童无害图像和成人色情内容,AI可能会通过结合两者生成儿童性虐待材料。

谷歌和OpenAI等公司表示他们设有防护措施,比如精心筛选训练数据。但值得注意的是,许多成人表演者和性工作者的图像在未经同意的情况下被爬取用于AI训练。

拉维克托瓦指出,生成式AI本身无法区分无害指令(如"制作一个绝地武士图像")和有害指令(如"给这位名人脱衣")。为解决这个问题,需要另一层类似垃圾邮件过滤器的AI来拦截此类查询。Grok背后的公司xAI似乎在这方面防护松懈。

情况可能恶化。Meta等公司提议将未来的AI模型开源,这意味着任何人都可以访问、下载和修改代码。虽然开源软件通常能促进创造力和协作,但这种自由对儿童安全可能是灾难性的。下载的开源AI平台可以用露骨或非法图像进行微调,从而无限制地创建儿童性虐待材料或"复仇色情",且没有任何防护措施。

Meta似乎已不再将其较新的AI平台完全开源。或许马克·扎克伯格考虑到了潜在的历史评价,避免走上一条可能让他更像"儿童性虐待材料的奥本海默"而非罗马皇帝的道路。

一些国家正在采取行动。中国要求AI生成内容必须标注。丹麦正在起草立法,赋予个人对其肖像和声音的版权,并对违规平台处以罚款。在欧洲和英国,GDPR等法规也可能提供保护。

美国的前景似乎更为严峻。版权主张常常失败,因为用户协议通常授予平台对上传内容的广泛权利。随着行政命令反对AI监管,以及xAI等公司与军方合作,美国政府似乎将AI利润置于公共安全之上。

纽约诉讼律师阿基瓦·科恩指出,最近的法律将某些数字操纵行为定为犯罪,但他说这些法律往往限制过严。例如,制作显示某人裸体或性行为的深度伪造可能构成犯罪,但使用AI将女性——甚至未成年女孩——放入比基尼图像中可能不会。

"很多这种行为非常有意识地保持在'恐怖但合法'的界限内,"科恩说。虽然此类行为可能不构成对国家刑事犯罪,但科恩认为它们可能构成民事责任,侵犯个人权利并需要赔偿。他建议这属于"虚假曝光"或"侵犯隐私"等侵权行为范畴。一种不当行为涉及对个人提出冒犯性主张,将其置于虚假曝光中——实质上是展示某人做了他们从未真正做过的事情。

"真正阻止这种行为的方法是让促成它的公司承担责任,"科恩说。

这方面已有法律先例:纽约的《提高法案》和加利福尼亚州的参议院第53号法案规定,AI公司在一定程度后需对其造成的伤害负责。与此同时,X平台宣布将阻止其AI工具Grok在平台上生成真实人物的色情图像——尽管这项政策变更似乎不适用于独立的Grok应用程序。

前纽约律师、前童星乔希·萨维亚诺认为,除了立法外,还需要更即时的行动。

"游说努力和法院最终将解决这个问题,"萨维亚诺说。"但在此之前,有两种选择:通过从互联网上完全删除你的数字足迹来彻底回避,或者寻找技术解决方案。"

保护年轻人对萨维亚诺尤为重要,他认识受深度伪造影响的人,并且根据自己作为童星的经验,理解失去对自己故事控制权的感受。他和他的团队正在开发一种工具,当人们的图像或创意作品在网上被爬取时,能够检测并发出警报。他说,他们的座右铭是:"保护孩子们。"

无论如何,我相信抵御这种威胁需要巨大的公众努力。

虽然有些人越来越依赖他们的AI聊天机器人,但大多数人仍然将科技公司仅仅视为工具。我们可能出于个人或政治原因更喜欢某个应用程序,但强烈的品牌忠诚度很少见。科技公司——尤其是像Meta和X这样的社交媒体平台——应该记住,它们只是达到目的的手段。如果像我这样十多年来每天使用Twitter的人都能离开它,那么任何人都可以。

但仅靠抵制是不够的。我们必须要求允许创建儿童性虐待材料的公司承担责任。我们需要推动立法和技术防护措施。我们还必须审视自己的行为:没有人愿意想到,分享孩子的照片可能导致这些图像被用于虐待材料。然而,这是一个真实的风险——父母必须为年幼的孩子防范,并教育年长的孩子了解这一点。

如果我们过去对"警惕陌生人"的关注教会了我们什么,那就是大多数人都希望防止儿童受到伤害和骚扰。现在是时候证明这一点了。

玛拉·威尔逊是洛杉矶的作家兼演员。

**常见问题解答**

以下是关于个人照片在虐待内容中被滥用以及AI生成图像带来的新威胁这一严重问题的常见问题解答。

**理解核心问题**

问:当有人说他们的照片被用于儿童性虐待材料时,这意味着什么?
答:这意味着他们个人的非色情照片在未经同意的情况下被获取,并经过数字修改或放入性虐待图像或视频中。这是一种严重的基于图像的性虐待形式。

问:AI如何使这个问题恶化?
答:AI工具现在可以生成高度逼真的虚假图像和视频。施害者可以使用一张无辜的照片创建新的、捏造的虐待内容,使受害过程无止境,且原始照片无法完全从流通中移除。

问:我听说过"深度伪造"这个词,这就是指这个吗?
答:是的,在这个语境下。深度伪造使用AI将一个人的脸叠加到另一个人的身体上,用于视频或图像中。当这样做是为了创建虐待内容时,它是一种数字伪造形式,也是严重的犯罪。

**针对受害者及担心成为受害者的人**

问:如果我发现我的照片被这样滥用,我应该怎么办?
答:1. 不要删除证据。截取带有URL的屏幕截图。2. 立即向发现该内容的平台报告。3. 向执法部门提交报告。4. 联系支持组织,如网络民权倡议或RAINN寻求帮助。

问:我能让这些AI生成的伪造内容从互联网上删除吗?
答:这具有挑战性,但是可能的。您必须向每个托管平台报告每个实例。许多主要平台都有针对非自愿亲密图像的政策。还有像"Take It Down"这样的服务可以帮助防止已知图像的分享。

问:如何保护我的照片不被AI滥用?
答:虽然没有方法是万无一失的,但您可以非常谨慎地选择在网上公开分享的内容,使用严格的隐私设置,避免发布高分辨率照片,并考虑使用数字水印。对使用AI的应用程序保持警惕。