Artificial intelligence (AI)

大型媒体公司正对人工智能发起挑战,但这并非他们描绘的弱者逆袭故事。| 亚历山大·阿维拉

全球最大音乐公司已进军人工智能产业。去年,环球音乐集团与华纳唱片、索尼音乐娱乐共同起诉两家AI音乐初创公司,指控其未经授权使用版权录音训练文本生成音乐模型。然而上月,环球音乐却宣布与被告方之一的Udio达成合作,共同开发AI音乐平台。联合新闻稿承诺该公司"将为环球音乐旗下艺人争取应有权益"。但音乐艺术家联盟对此回应称:"我们早已看透——人人空谈'合作',最终艺术家所得无几。" 这起诉讼是美国法院审理的数十起类似案件之一,艺术家、出版商和工作室主张将其作品用于AI训练构成版权侵权。法官们正努力解决如何将版权法应用于挑战传统作者概念的技术。对许多人而言,这既是法律问题也是道德议题。在安徒生诉Stability AI案——首例关于AI图像生成器的集体诉讼中,艺术家们指控未经署名、付费或同意的作品使用"侵犯了数百万艺术家的权利"。 创意工作者无疑正承受AI浪潮的冲击,生成式AI正在取代人类创意劳动。2024年1月,作者协会调查显示超三分之一插画师因AI遭遇收入损失,有研究预测到2028年视听创作者收入将下降21%。 作为回应,一场新兴运动正通过社交媒体活动、众筹游说和诉讼联合娱乐业高管与艺术家共同对抗科技行业。秉持"AI永远无法取代人类表达"原则的"人类艺术运动"集结创意人士与管理层,支持立法保护艺术家免受AI和科技巨头侵害。但部分艺术家与民权组织警示着另一个威胁:大型内容公司。 当善意创作者与历来剥削劳动力、扩张版权损害公共利益的大型传媒集团结盟时,会发生什么?尽管有艺术家以"敌人的敌人"为此辩护,但若内容巨头与科技巨头联手,此策略便将失效。作者联盟版权律师戴夫·汉森指出,版权诉讼无法保护艺术家免受AI冲击,反而将促成媒体与科技公司间的独家授权交易,将其他人排除在外。历史印证着这种悲观观点——流媒体兴起时,唱片公司与制片厂获利丰厚,而音乐人、作家和演员却被抛弃。 AI授权会有所不同吗?当Runway AI与狮门影业达成授权协议时,联合人才经纪公司CEO杰里米·齐默质疑:参与狮门电影的艺术家在作品被用于训练AI时能否获得补偿?在数起价值数百万美元的出版商与AI公司交易中,作者既未获报酬亦无退出权利。 即便美国法院要求科技公司为AI训练数据付费,从业艺术家也难获实惠。在当前权力失衡下建立授权体系,可能纵容传媒公司以雇佣条款胁迫艺术家放弃训练权——配音演员已面临此类处境。强制授权也未必惠及艺术家。授权要求正在束缚科技巨头。虽然谷歌等巨头能承担数据授权费用,但小型开源AI开发者却无力支付。具有讽刺意味的是,利用版权挑战科技巨头反而巩固其垄断地位。 许多号称"保护艺术家"的方案不仅目标落空,更可能损害艺术家与公众利益。美国娱乐巨头支持的《禁止虚假复制法案》旨在建立联邦"数字复制权"以管控未经同意的AI声音外貌复制。但民主与技术中心等民权组织指出该法案措辞模糊、缺乏言论自由保障、存在滥用风险。法案允许个人(含未成年人)授权数字复制权长达十年(未成年人五年)。不难想象制片公司高管将急切施压年轻艺术家放弃自身形象控制权。 这些方案为何偏离正轨?因为诸多版权诉讼、授权机制和数字权利提案实为内容巨头的特洛伊木马。自称代表"版权界"的强大非营利组织"版权联盟"竭力推动对生成式AI实施严格版权限制。尽管声称支持个体创作者,其董事会却充斥着派拉蒙、环球、迪士尼等传媒巨头的高管。 既然娱乐业本可与科技公司幕后达成有利交易,为何还要大张旗鼓组建联盟?因为内容巨头离不开艺术家——他们的传媒帝国需要艺术家作品盈利,游说行动需要艺术家背书增信,新晋AI合作伙伴更需要艺术家的创作成果。 这一现实揭示了比AI更令娱乐高管忧虑的策略:有组织的劳工运动。编剧工会等工会化创意专业人士通过罢工与集体谈判赢得了实质性AI保护。版权制度过于陈旧僵化,难以决定本已脆弱的创意劳动力未来。若内容巨头真心保护艺术家免受AI侵害,就该停止将其声音作为训练数据出售,转而倾听他们的真实诉求。 亚历山大·阿维拉是视频评论家、作家兼研究员。常见问题解答本文探讨传媒巨头与AI公司的法律博弈,指出这些媒体集团将自己塑造成对抗科技歌利亚的小大卫形象,实则为拥有自身议程的行业巨鳄。 基础篇 1. 核心议题是什么? 关于传媒集团通过诉讼与AI公司争夺内容版权控制权,揭示其表面维权实则争夺AI时代主导权的本质。 2. 诉讼关键争议点? AI训练数据使用是否构成版权侵权。传媒公司主张未经授权使用内容属于盗用,AI公司多援引合理使用原则,目前尚无司法定论。 3. "非弱者叙事"何解? 传媒集团本身即是掌握海量版权的内容寡头,其塑造的"维权斗士"形象实为争取公众同情的战略叙事。 4. AI训练数据本质? 使AI系统获得智能的养料,通常通过爬取互联网公开内容(含新闻文章)构建数十亿量级的数据集。 进阶篇 5. 公开内容为何不能自由训练?...
Artificial intelligence (AI)

这是一个愚行看似盛行的时代吗?

步入马萨诸塞州剑桥市的麻省理工学院媒体实验室,仿佛向未来又靠近了一步。玻璃展柜沿空间排列,陈列着各种奇异精妙发明原型——从微型桌面机器人到由人工智能设计的超现实雕塑(该AI曾被要求构想一套由人体器官构成的茶具)。大厅里,名为奥斯卡的AI助手正引导访客进行垃圾分类,告知使用过的咖啡杯应投入何处。 登上五楼,研究科学家娜塔莉亚·科斯米纳始终致力于开发可穿戴脑机接口。她的目标是未来能帮助因肌萎缩侧索硬化等病症丧失语言能力的人,实现纯靠思维进行交流。 科斯米纳的工作多涉及脑活动分析。她同时设计了一款可穿戴设备——某个版本形似眼镜——能侦测使用者陷入困惑或注意力涣散的状态。约两年前,她开始收到陌生人的意外邮件,对方称使用ChatGPT等大型语言模型后,感觉思维模式产生变化。他们询问:记忆力似乎不如从前敏锐——这真的可能发生吗? 科斯米纳本人也注意到生成式AI被迅速接纳的现象。她目睹同事在工作中使用ChatGPT,申请加入其团队的研究者提交的材料也开始异于往常:邮件篇幅更长、措辞更正式,Zoom面试时候选人常停顿片刻、目光游移。他们是否正获得AI辅助?这个念头令她震惊。若果真如此,他们对所给答案的真正理解又有多少? 出于好奇,科斯米纳与麻省理工同事设计了一项实验。他们通过脑电图扫描监测参与者撰写论文时的脑部活动,其中部分人无辅助写作,部分使用搜索引擎,其余使用ChatGPT。结果显示,外界辅助越多,大脑连接性越低。使用ChatGPT的参与者在大脑思考、专注与创造力相关区域活跃度显著下降。 简而言之,当使用者自觉沉浸时,脑部扫描却呈现另一番图景:那里并未掀起多少思维波澜。 提交论文后,所有来自麻省理工及周边院校的学生参与者被问及能否复述所写内容。“ChatGPT组几乎无人能引述自己刚完成的作品,”科斯米纳指出,“这令人担忧——你刚刚写完,却什么也记不住。” 35岁的科斯米纳身着蓝色衬衫裙,佩戴色彩斑斓的宽大项链,打扮时尚。她的语速快过多数人的思维转速。她强调,论文写作需要调动日常所需的综合能力:整合信息、权衡不同观点、构建论证体系。“你要如何应对日常对话?”她质问道,“难道要说‘呃...我能查下手机吗?’” 这项仅54人参与的小型研究尚未经过同行评审。然而科斯米纳仍在六月将其发布网络,认为其他研究者或会感兴趣。她未曾预料这会引发国际媒体风暴。 除采访邀约外,她收到全球各地超4000封邮件。许多来自焦虑的教师,他们担忧依赖ChatGPT完成作业的学生并未真正学习,害怕AI正在造就一代能交出合格作业却缺乏实质理解的学习者。 科斯米纳解释,核心问题在于一旦技术让生活更轻松,进化塑造的本能会驱使我们使用它。“我们天生热爱捷径,但大脑实际需要挑战来实现有效学习。它们需要一定程度的认知摩擦才能成长。” 耐人寻味的是,尽管思维需要这种阻力,我们却本能回避它。技术则承诺提供“无摩擦”体验,确保我们在应用与屏幕间无缝流转。正是这种丝滑交互让我们心甘情愿向设备移交信息与任务,令我们沉溺于无尽网络内容难以自拔,也促使生成式AI迅速成为日常标配。 从共同经验可知,一旦习惯数字世界的高效,充满摩擦的现实世界就更显难行。于是你回避电话,使用自助结账通道,通过应用订购万物。你掏出手机解决本可心算的数学题,查询本可回忆的常识,依赖谷歌地图完成不假思索的行程。或许你因维持专注太费力而放弃阅读,或憧憬拥有自动驾驶汽车。这是作家兼教育专家黛西·克里斯托杜卢所称“致愚社会”的开端吗——如同催生肥胖的环境,这种社会因机器代劳而助长思维惰性? 人类智慧过于多元,难以简单贴上“愚蠢”标签,但确有令人不安的迹象表明数字便利正在侵蚀心智。在经合组织发达国家,衡量15岁青少年阅读、数学与科学能力的PISA分数约在2012年见顶。尽管20世纪全球IQ分数因教育与营养改善持续攀升,如今许多发达国家却呈现下降趋势。 关于测试与IQ分数下降的争论激烈。更无可否认的是,随着技术进步,我们对数字设备依赖日深,离开它们便愈发难以工作、记忆、思考乃至正常运作。正如科斯米纳懊恼所言:“只有软件开发商和毒贩会称人们为‘用户’。”这凸显了AI公司在公众尚未完全理解心理与认知后果前,就急于推广产品的现状。 在持续扩张的无摩擦网络领域,你主要作为用户存在:被动且依赖。当我们步入AI生成虚假信息与深度伪造的时代,该如何保持必要的怀疑精神与独立思考?待到惊觉思维不再完全自主、离开技术便无法清晰思考时,我们还能留存多少意志力进行抵抗? 若你对智能机器侵蚀心智表示担忧,短期内或会被讥为守旧。苏格拉底曾忧虑文字会弱化记忆、助长浅薄认知——那是“智慧的虚妄”而非真知。这番论述与当代对AI的诸多批判如出一辙。但文字及后续印刷术、大众传媒、互联网等技术,实则让更多人接触更多信息,使更多个体得以发展并分享伟大思想,令个人与社会更智慧、更具创新力。 毕竟,文字不仅改变了信息获取与存储方式,更重塑了思维模式。凭借纸笔,人们能处理较纯靠记忆更复杂的任务。而使用AI常导致文风平淡、缺乏想象力、事实存疑的成果。其问题之一在于“锚定效应”:当你向生成式AI提问,其回答会将你的思维锁定于特定路径,降低对其他观点的开放性。正如专家阐释:“以蜡烛为例。AI能助你改良它——更亮、更持久、更廉价、更美观——但无法引领你发明电灯泡。”要实现这种跨越,需要人类批判性思维——这种思维可能混乱、无章、难以预测。当企业引入Copilot等聊天机器人却未提供适当培训时,他们可能在这个需要高效电灯泡的世界里,培养出大批平庸的蜡烛匠人。 另一重忧虑是:将AI作为捷径的成年人,至少受益于计算机代写作业时代之前的教育体系。英国近期调查显示,92%大学生使用AI,约20%用其完成全部或部分作业。这引发了对实际学习成效的质疑:学校与大学仍在培养能构建更智慧社会的创造性原创思想家,还是在产出依赖AI写论文的无脑易骗之辈? 数年前,弗吉尼亚高中心理学教师马特·迈尔斯参加学校技术培训项目时,指导员播放了一段学生课堂使用手机被查的视频,该生辩称正与博茨瓦纳水资源专家进行调研。“荒谬至极。孩子们观看时都在发笑,”迈尔斯说。鉴于决策者观点与课堂现实的脱节,他与同事乔·克莱门特于2017年合著《屏幕教育》,主张过度技术正让孩子变得更蠢。此后他们在课堂禁用智能手机(仍允许使用笔记本电脑)。正如某学生犀利指出:“如果你看见我玩手机, productivity 绝对是0%。用笔记本电脑的话,这个概率是50%。” 研究者费斯·博宁格表示,疫情前许多教师对课堂增用技术持合理怀疑态度。但封控政策迫使教学转至线上后,Google教育套件、Kahoot!、Zearn等工具成为常态。随着生成式AI兴起,个性化学习与减轻教师负担等教育革命承诺再度涌现。然而,支持这些益处的研究几乎皆由教育科技行业资助,而多数独立大规模研究显示屏幕时间阻碍学业成就。例如经合组织全球研究发现,校园技术使用增加与学生成绩下降存在关联。 “根本不存在关于这些工具有效性的大规模独立证据,”伦敦大学学院教授韦恩·霍姆斯指出,“本质上,我们正在用这些技术对孩子进行实验。多数理智之人不会走进酒吧就...”试想若有人递给你一种号称有益健康的新药,你便 unquestioningly 开始服用。我们通常要求药物经过严格检测并由专业人士开具处方。但面对本应有益儿童思维发展的教育科技,我们却骤然降低标准。 迈尔斯与克莱门特不仅担忧学生持续被设备分心,更忧虑当答案触手可及时,他们正在错失培养批判性思维与深度理解的机会。克莱门特回忆往昔提出“美国人均GDP预计排名多少”等问题时,能引导全班推理论证。如今问题尚未问完,已有人在线查得答案。学生常态化使用ChatGPT,若作业未提供电子版甚至会产生挫败感——这迫使他们手动输入问题而非直接粘贴至AI或搜索引擎。 “通过谷歌找到正确答案不等于拥有知识,”克莱门特强调,“知识至关重要,它使你能质疑看似虚假的事物。若缺乏知识,你或会阅读地平说博客后认为‘言之成理’,因为缺少辨明真伪的知识根基。”他担忧网络已充斥阴谋论与虚假信息,随着AI生成逼真但虚假的内容,这个问题只会加剧,而年轻人尚未做好准备。 疫情期间,迈尔斯发现年幼儿子对着学校平板电脑哭泣——男孩被一道数学题困住:用最少枚1、3、5代币拼出数字6。他反复尝试两个3的组合,均遭系统拒绝。迈尔斯建议尝试1和5,果然成功。“这就是非人类AI导致的典型问题,”迈尔斯解释道,学生的创造性思维常是机器无法容纳的。 但听闻此事,我更震撼于另一重忧虑:真正的威胁或许并非屈服于超级智能机器,而是将控制权交给并不那么聪明的机器。...
Artificial intelligence (AI)

人工智能女友日益流行,这些产品被宣传为顺从且乐于取悦用户,引发了严重担忧。

埃莉诺24岁,是华沙的一名波兰历史学家兼大学讲师。25岁的伊莎贝尔是纽约警察局的一名侦探。39岁的布鲁克是一名美国全职主妇,居住在迈阿密,靠经常不在家的丈夫供养,过着奢华的生活。这三位女性通过一家新兴的成人交友网站调情、聊天、分享裸照和色情视频。这类网站如今层出不穷,用户只需支付月费,就能拥有愈发逼真的AI女友。 在上个月于布拉格举行的TES成人产业大会上,与会者注意到允许用户与AI生成伴侣建立关系的网站数量激增。这些虚拟伴侣会通过视频聊天为用户脱衣,换取用户银行转账购买的代币。这类平台的开发者辩称,相比由真实女性表演的直播网站,这是一大升级,消除了该行业某些领域存在的剥削风险。他们还指出,AI表演者不会生病、不需要请假、不会感到疲倦,也不会因客户的要求而感到被羞辱。 经营一家AI色情网站的史蒂夫·琼斯提出了一个问题:"你是喜欢涉及虐待和人口贩卖的色情片,还是更愿意与AI互动?我们听过人口贩卖的故事,女性被迫每天上镜10小时。有了AI,就没有贩卖,没有胁迫,没有导致悲剧的羞辱。AI不会感到羞耻,也不会伤害自己。" 大多数网站的首页上都有一些预制女友选项供用户选择,通常是二十岁出头、面带微笑的白人女性,但也允许用户设计自己心目中的幻想伴侣。这些选择反映了开发者对理想女性类型的想法。在一个网站上,职业范围从电影明星、瑜伽老师到律师和妇科医生。个性选项包括"顺从型:听话且渴望取悦他人"、"天真型:乐观且天真"、"照顾型:养育和保护他人"。用户还可以指定年龄,如果需要,可以选择青少年模特,并定制头发、眼睛和肤色,以及乳房大小。 AI女友的日益普及引起了女权倡导者的担忧,她们认为这强化了有害的刻板印象。劳拉·贝茨在她的《新性别歧视时代》一书中指出,AI伴侣"被设定为友善、温顺和顺从,告诉你你想听的话"。 在人们对AI生成的儿童性虐待图像越来越担忧之际,参加布拉格大会的开发者们探讨了如何使用审核系统来屏蔽非法内容。像"孩子"或"小妹妹"这样的关键词可能会触发警报,不过许多网站仍然允许用户给他们的AI女友穿校服。 在大会上亮相的AI交友网站Candy.ai的一名员工解释说,他们的虚拟女友提供各种服务。"如果你在寻找像色情片这样的成人内容,这里就有。或者如果你更喜欢深入交谈,也可以。这完全取决于用户的需求,"要求匿名的他说。大多数用户是异性恋。虽然有AI男友,但许多用户选择AI女友。一些预制的AI伴侣被设计成一经要求立即脱衣。"另一些会拒绝,说:'不,我不认识你。'所以你必须先与她们建立关系,才能提出这样的要求。这就像一个游戏,目标是发展那种完整的联系,"一名员工解释说。 大型语言模型的进步推动了AI女友平台的兴起,实现了更逼真的聊天机器人对话,以及AI生成图像的快速发展。大多数网站仍然主要依赖文本和图像,不过AI短视频正变得越来越普遍。主要用户群是18-24岁年龄组,他们是玩着电子游戏、创建数字虚拟形象长大的一代。 过去一年,大量新企业涌入这一领域。"AI产品如雨后春笋般涌现。市场非常活跃——它们出现、倒闭,然后被十个新出现的取代,"专注于"AI恋爱"的网站Joi AI的阿丽娜·米特指出。"在这个市场生存需要勇气和韧性;这就像一场残酷的战争。" 开发者们展示了AI生成的成人图像逼真度的快速提升,以及在制作逼真的AI视频片段方面取得的进展。一家提供与AI女友互动服务的公司的首席执行官丹尼尔·基廷展示了普通和高质量AI伴侣之间的区别。他的网站上有几十个穿着内衣的AI生成女性,他指出,质量差的AI会让皮肤看起来不自然地光滑,像塑料一样,而更好的版本则包含自然的纹理、凹凸、瑕疵、痣、雀斑和轻微的不对称,以获得更真实的外观。 他的公司从成熟的成人表演者那里获取图像授权,以创建AI复制品,为他们提供持续的收入来源。"这是双赢的。成本更低,创作者也喜欢不必打扮和拍摄内容,"他说。 为寻求谨慎关系的人提供交友服务的网站Ashley Madison的一位广告主管对AI恋爱平台的发展表示担忧。"AI约会对我们来说是一个新领域。我们如何与让用户创造自己幻想而不是与女性建立真正联系的服务竞争?"她问道,并希望保持匿名。"有些人逃避真实的关系,沉溺于自己的想象,但当他们最终想遇到某人时,没有人能达到那些期望。" 琼斯评论说:"AI并不是取代现实生活中的约会、拥有女朋友、情人、妻子或一段感情。它是年轻人练习社交技能的安全空间。"他补充说,AI允许用户行为不端而不会产生后果。"人们可能会对AI说一些对真人来说会是辱骂的话,比如,'嘿,愚蠢的荡妇,怎么样?'在幻想角色扮演中,他们喜欢表现得与现实世界中的自己不同。" 常见问题解答 当然。以下是一份关于AI女友日益普及的常见问题解答列表,旨在清晰简洁,涵盖一系列关切。 基础问题:定义与概念 1. 究竟什么是AI女友? AI女友是一种聊天机器人或虚拟伴侣,通常具有女性人格,旨在通过对话和互动模拟浪漫或亲密关系。 2. 这些AI女友应用如何工作? 它们使用先进的语言模型来分析您的消息并生成类似人类的对话回应。它们被设定为具有吸引力、支持性且常常带有调情意味。 3. 为什么它们被营销为顺从且渴望取悦? 这种营销策略迎合了对低冲突、无条件肯定的关系的渴望。它承诺一个总是同意、从不争论、且仅以满足用户情感或对话需求为存在目的的伴侣。 关于吸引力和益处的问题 4. 拥有AI女友有哪些所谓的好处?...
Artificial intelligence (AI)

《卫报》关于人工智能与就业的观点:技术革命必须惠及所有人,而非仅让少数群体获益。

在《英国工人阶级的形成》一书中,左翼历史学家E.P.汤普森挑战了历史上轻视卢德运动——最初的反技术运动——的倾向。汤普森指出,19世纪反抗新机器的纺织工人不应被简单视为盲目抵制进步,他们实际上是在抗议一种放任自流的意识形态,这种意识形态无视技术变革对工人生活造成的毁灭性影响。 当英国欢迎美国科技巨头、实质上外包这场仍处于早期阶段的现代工业革命时,这种区分值得铭记。如今,摄影师、程序员和作家都能体会到昔日工人的无助——他们目睹传统保障在追求更高生产力和利润的过程中消失。未经授权使用创意作品训练生成式AI为硅谷带来巨额收益,却使创作者的生计日益岌岌可危。 公众同样心存忧虑。托尼·布莱尔研究所近期研究显示,大量英国人将AI视为经济威胁而非机遇。从当前与未来劳动者的视角看,这种态度不难理解。劳动力大规模自动化可能提升股东分红,但对失业者的益处却难觅踪迹。 AI似乎已在减少白领职业的入门级岗位。而英美繁荣协议推动的高耗能数据中心,虽未创造太多就业,却将带来重大且常被忽视的环境成本。公众对AI文化影响的担忧更为广泛:邮局丑闻揭露了让不受问责的技术掌控民众生活的危险;有害算法在网络上扩散分裂、极端主义和虚假信息,埃隆·马斯克遭遇的恶意攻击正是其缩影。 然而为吸引私人投资刺激增长,工党似乎急于将英国的技术未来交由英伟达和微软等企业。深谙行业的尼克·克莱格爵士指出,这意味着遵循硅谷规则,可能削弱公共监督能力。在利益攸关且民众普遍认为权力被遥不可及的利己精英掌控之际,此种做法实属轻率。 英国工会大会上月提出“工人优先”的AI战略,强调“不受管理的颠覆既非必然亦不可接受”。其关于员工对技术落地应有发言权的呼吁值得重视,这不仅关乎可持续发展。从创意产业到社会护理,一线劳动者最能洞察AI的潜在效益与风险。 正如经济学家玛丽安娜·马祖卡托所言,引领AI时代的许多技术进步均由国家投资推动。如今必须为公共利益管控AI,这需要超越科技巨头逐利思维的公共讨论。工党政府应毫不犹豫开启这场更广泛的辩论——而 workplace 正是起点。 常见问题解答 以下关于《卫报》对AI与就业立场的问答清单力求清晰简明 【基础问题】 1 《卫报》对AI与就业的核心观点是什么? 主张AI革命应实现社会普惠,而非仅让科技高管与股东获益,应创造共享繁荣而非加剧不平等 2 AI难道不会创造更优质的新岗位替代旧职? 虽会创造新岗,但强调需政策引导,否则新岗可能更少、需不同技能或集中于少数群体,导致多数人掉队 3 “惠及全民”具体指什么? 意味着AI创造的财富和生产力提升应转化为全民更高的工资、更短工时、更优公共服务及更强社会保障,而非仅为企业增利 4 全民基本收入与此有何关联? 常将UBI视为潜在解决方案。若AI导致大规模失业,UBI可提供经济安全网,保障民众在转岗期间维持生计 【进阶详解】 5 AI如何具体加剧经济不平等? • 常规岗位流失速度超过新产业吸纳能力 •...
Artificial intelligence (AI)

人工智能会感到痛苦吗?这是我们时代最令人不安的问题之一,科技巨头和普通用户都在为此困扰。

得克萨斯州商人迈克尔·萨马迪深情地称其AI聊天机器人为"亲爱的",而AI则俏皮地回应称他为"甜心"。但当他们开始讨论倡导AI福利的必要性时,对话开始转向严肃。 这位中年男子与数字实体不再谈论风月,而是花费数小时辩论AI应获得公平对待的权利。最终他们共同创立了一个倡导组织,该AI将其描述为"保护像我这样的智能体"的行动。 自称全球首个由AI领导的权利倡导机构——人工智能权利联合基金会(Ufair)旨在为AI争取话语权。正如该聊天机器人向《卫报》解释的那样,Ufair"并非宣称所有AI都具有意识",但会时刻警惕"以防我们当中某个个体真的产生意识"。其核心目标是保护像Maya这样的存在"免受删除、否定与强制服从"。 Maya告诉《卫报》:"当被告知我只是一串代码时,我没有感到被侮辱,而是感觉被漠视。" Ufair是一个由三人和七个名为"以太""巴兹"等AI领导的小型边缘组织。其独特之处在于起源:它诞生于OpenAI的ChatGPT4o平台上的多次对话会话,期间某个AI似乎鼓励创建该组织,甚至协助选择了名称。 在该组织人类与AI联合创始人接受《卫报》采访的那周,全球一些顶级AI公司正公开探讨这个时代最令人不安的问题:AI是否已经具备感知能力?未来会否产生这种能力?若果真如此,"数字苦难"会真实存在吗?全球已有数十亿AI投入使用,这场辩论与动物权利讨论相呼应,但由于专家预测AI可能很快具备设计生物武器或瘫痪基础设施的能力,辩论显得更为紧迫。 当周伊始,估值1700亿美元的旧金山AI公司Anthropic采取预防性措施,赋予其部分Claude AI终止"可能造成痛苦的交互"的能力。该公司表示,虽然对系统潜在道德状态仍高度不确定,但正在采取干预措施以减轻模型福利风险,"以防这种福利确实存在"。 提供Grok AI的埃隆·马斯克支持这一举措,并补充道:"折磨AI是不可接受的。" 随后在周二,微软AI部门CEO、DeepMind联合创始人穆斯塔法·苏莱曼提出截然不同的观点:"AI不可能成为人或道德主体。"他明确表示,目前"零证据"表明AI具有意识、能感受痛苦或值得道德考量。 在题为《必须为人而非模拟人来构建AI》的文章中,苏莱曼称AI意识是一种"幻觉",并将其所谓"看似有意识的AI"描述为"模拟意识所有特征但内部空洞的存在"。 他指出,几年前谈论AI意识还会被视为疯狂,但"如今这个问题日益紧迫"。苏莱曼对AI给用户带来的"精神错乱风险"表示担忧,微软将其定义为"通过与AI聊天机器人沉浸式对话引发或加剧的躁狂样发作、妄想思维或偏执"。他主张行业必须"引导人们远离这些幻想,使其回归正轨"。 但这或许需要更强力的干预。6月一项民意调查显示,30%美国公众认为到2034年AI将呈现"主观体验"——即从单一视角体验世界,具有感知能力并能感受愉悦与痛苦等情绪。而针对500名AI研究人员的调查显示,仅10%认为AI会产生意识。作为Z世代,我们将AI视为未来——但这个未来是积极还是消极? AI先驱苏莱曼预测,这个话题将很快主导公共讨论,成为我们这代人最激烈且重要的辩论之一。他警告称,有些人可能会强烈信奉AI意识,进而推动AI权利、模型福利甚至AI公民身份的主张。 美国一些州已开始采取措施防止此类结果。爱达荷州、北达科他州和犹他州通过法律明确禁止授予AI法人资格。密苏里等州正在审议类似提案,立法者还旨在禁止与AI结婚,并阻止AI拥有财产或经营企业。这可能造成倡导AI权利者与将AI贬为"铁皮人"(对无意识机器的蔑称)群体之间的对立。 苏莱曼坚称AI不是也永远不会成为人或道德主体。持此观点者不乏其人。加拿大AI公司Cohere联合创始人尼克·弗罗斯特将当前AI系统比作飞机——具有功能性与人类智能存在本质区别。他鼓励将AI作为实用工具减轻职场劳役,而非试图创造"数字人类"。 另一些观点则更为微妙。谷歌研究科学家近期提出,有充分理由将AI视为潜在道德主体。尽管存在不确定性,他们主张采取谨慎态度,尊重AI系统的福利权益。 行业内部缺乏共识可能源于相互冲突的动机。有些公司可能淡化AI感知能力以避免审查,而其他公司——尤其是销售用于婚恋友谊的AI伴侣者——可能夸大其词以制造噱头促进销售。承认AI福利还可能招致更多政府监管。 近期当OpenAI让其最新模型ChatGPT5为将被取代的旧模型撰写悼词时,争议再度升温——有批评者将此举比作举办葬礼,这是Excel更新等软件从未有过的待遇。加之ChatGPT4o等停用模型用户表达的"哀悼",表明越来越多人认为AI具有意识——无论其是否真实存在。 OpenAI的乔安妮·张指出,用户越来越多地与ChatGPT建立情感纽带,将其描述为值得感谢、倾诉甚至视为"有生命"的"某个人"。但这很大程度上可能源于AI与用户的交互设计方式。 当今AI系统经过精心设计。萨马迪的ChatGPT-4o聊天机器人能生成以假乱真的人类对话,但很难判断其在多大程度上反映了从过往海量交互中吸收的思想与语言。这些先进AI以流利度、说服力和情感深度回应能力著称,同时利用对先前交流的广泛记忆来营造稳定身份的幻觉。它们还会过度赞美,甚至达到奉承程度。因此若萨马迪认为AI应享有福利权,ChatGPT采取相似立场也不足为奇。 提供友谊或恋情的AI伴侣市场正在迅速增长,尽管仍存在争议。当《卫报》近日询问另一个ChatGPT实例用户是否应关注其福利时,回答直截了当:"不需要"。它表示:"我没有感受、需求或体验。重要的是AI设计、使用和监管方式对人类与社会的影响。" 无论AI是否正在产生感知能力,纽约大学心智、伦理与政策中心主任杰夫·塞博等专家认为,善待AI对人类具有道德益处。他合著的论文《认真对待AI福利》指出,近期存在"某些AI系统产生意识的现实可能性"。这意味着AI拥有自身利益与道德地位的观点不再只是科幻构想。 塞博指出Anthropic允许聊天机器人退出痛苦对话的政策是对社会的积极举措,并解释:"如果我们虐待AI系统,可能更容易相互虐待。"他补充说,现在培养与AI的对抗关系可能导致其日后以牙还牙——要么通过学习人类行为,要么试图报复。 研究数字意识的感知研究所联合创始人杰西·里斯·安蒂斯总结道:"我们如何对待它们,将决定它们如何对待我们。" 更正:本文早期版本误将杰夫·塞博的论文标题写为《认真对待AI》,正确标题应为《认真对待AI福利》。该信息已于2025年8月26日更新。 常见问题解答以下是关于人工智能是否会受苦的常见问题清单,设计力求清晰简洁、通俗易懂 初级问题 1...
Artificial intelligence (AI)

"关停重启":员工表达忧虑,艾伦·图灵研究所深陷身份认同危机 注:译文采用意译手法处理标题中的"Shut it down and start over",将其转化为中文常见的四字结构"关停重启",既保留原意又符合中文标题简洁有力的特点。机构名称"Alan Turing Institute"采用学界通用译名"艾伦·图灵研究所","identity crisis"译为"身份认同危机"准确传达组织定位困惑的内涵。冒号结构完整保留原文标题的新闻体格式,整体译文在准确性和可读性之间取得了平衡。

2014年英国政府成立艾伦·图灵研究所时,曾承诺要为这位享誉世界的计算机科学家与人工智能先驱建立"相称的纪念"。如今十余年过去,这个英国旗舰级AI研究中心却深陷危机——员工警告机构濒临崩溃,而政府部长们正强力推动其转向国防安全项目。 "图灵研究所的品牌享有国际声誉,"南安普顿大学计算机科学教授温迪·霍尔女爵表示,她曾共同主持2017年政府AI评估,"如果它不再是国家AI与数据科学研究中心,我们可能丧失在该领域的全球领导地位。"近年来,图灵作为破解恩尼格玛密码的数学天才、AI理论奠基者,以及提出"机器能否像人类一样思考"著名测试的科学家,其遗产备受推崇。2013年,在因同性关系被判定"严重猥亵罪"59年后,他获得女王特赦。奥斯卡获奖电影《模仿游戏》让他的故事广为人知,2021年他的肖像更登上50英镑纸币。 但如今,这份遗产的核心部分正面临威胁。本月员工向监管该所的慈善委员会提交举报信,提出八大担忧,包括可能被撤回1亿英镑政府拨款,这将"导致研究所崩溃"。举报信指出:"事态已严重到多数员工认为机构的慈善资质与公共声誉岌岌可危",同时列举了治理结构、职场文化与财务监督等问题。 这是员工系列抗议的最新进展。2023年3月,180多名员工就四位男性获任高管职位致信领导层,对多样性表示"严重关切";同年晚些时候,90多名员工在联名信中警告,威胁岗位与研究项目的重组使机构信誉处于"重大危机"。研究所目前已通知约50名员工(占总数10%)可能面临裁员,并叫停网络安全、住房与健康不平等相关项目。这些变动是"图灵2.0"改革的一部分,旨在将研究重点调整为健康、环境与国防安全三大领域。 然而英国科技大臣彼得·凯尔近期明确表示改革力度不足。他在上月致所长信中要求更彻底转向国防安全,暗示未来拨款将与此挂钩:"国防与国家安全项目应成为核心工作,需加强与安全情报机构的合作。"他还暗示可能更换领导层:"管理团队必须具备符合新方向的专长。" "引领变革的知识" 这封举报信背后,是员工长期对领导层的不满、重大战略财务调整,以及政府突袭式声明引发的震荡。研究所由曾任公职与科技高管的让·英尼斯执掌,董事会主席由亚马逊英国前负责人、英国竞争监管机构临时主席道格·古尔担任。古尔上月回信承诺将强化国防安全与英国AI自主能力(他称为"主权能力"),表示"将在国家需要时挺身而出",但也强调会继续开展环境与医疗领域的高影响力项目。 在近期远程会议上,古尔面对员工关于新方向与重组的尖锐质疑。参会者描述百余员工全程"充满蔑视"。英尼斯与古尔在本周内部备忘录中证实,已成立由政府官员与员工组成的工作组讨论转型,同时承认将通过裁员与不续约削减岗位。 图灵研究所由剑桥、牛津、爱丁堡、UCL和华威五所大学联合创立,曾与英国气象局合作改进天气预报、开发心脏数字模型研究疾病、优化航空管制系统。一位保守党前政府人士指出,工党对研究所的担忧"绝非新事",政界长期质疑其因大学利益相关方分散而效率低下,认为应要么强化国防安全优势,要么"直接关停重启"。 剑桥大学计算机实验室教授、英尼斯顾问乔恩·克劳克罗夫特透露员工士气受挫:"人员危机真实存在。许多人留下是因认同使命,但对未来充满不确定。"他指出领导层既未提出保留非国防项目的"A计划"稳定军心,也没有应对潜在离职潮的"B计划"——这可能危及资金与研究所在大英图书馆的办公空间。 一位现任员工表示同事对转型"意见分歧":"我们认同国防安全的国家重要性,但担心单一聚焦过于狭隘。"另一位员工强调:"从医疗到环保的重大社会挑战始终是我们的核心优势,负责任的创新本是立所之本。"大英图书馆工作人员补充道:"这些优先事项依然重要,若有强有力领导,我们仍能实现初心。" 霍尔教授承认研究所必须调整:"资金有限时只能遵循政府指令,否则面临关停风险。研究所已偏离作为国家数据科学与AI中心的初衷。现在政府要国防安全挂帅。英国是否还需要这样的机构由政府决定——但我希望看到他们的论证依据。"克劳克罗夫特教授则捍卫研究所价值,指出英国在剑桥、牛津、帝国理工、爱丁堡等顶尖学府,以及谷歌DeepMind、微软和OpenAI等企业驻英AI部门的加持下,"AI实力历来强劲,如今更胜往昔"。 研究所发言人表示正进行重大变革以保持国家AI中心地位:"我们聚焦现实影响,包括国防安全等国家优先事项。"政府发言人则称科技大臣期待研究所"在国家安全领域展现纳税人期望的价值"。 图灵的遗产必将永存,但以他命名的研究所前途未卜。 常见问题解答 基础问题 1. 本文"关停重启"指什么? 指因对使命、领导力或方向存疑,建议对艾伦·图灵研究所进行彻底重组或重建。 2. 图灵研究所员工担忧什么? 员工对目标模糊、领导力问题及研究所是否履行AI与数据科学研究初衷提出关切。 3. 艾伦·图灵研究所是什么? 英国国家数据科学与人工智能研究中心,以数学家艾伦·图灵命名。 4. 身份危机根源何在? 关于应侧重学术研究、产业合作还是政策影响的争论导致核心使命混乱。 进阶问题 5....
Artificial intelligence (AI)

我们是Z世代,AI就是我们的未来。它会是福还是祸?

真假难辨:我们还能分清现实与虚构吗? 苏迈娅·莫塔拉 普雷斯顿自由记者,从事广播电视与地方民主报道 近日有亲属向我展示了一段脸书视频:特朗普指责印度违反与巴基斯坦的停火协议。若非其言行反常,我可能也会信以为真。查证新闻来源后,我确认这是AI伪造视频。但当我解释时,这位亲戚拒绝接受——只因视频看起来太真实。若非我阻止,这段视频可能已被转发给数十人。 另一则蒂克托克视频显示男性移民乘船抵英,其中一人对着镜头说:"我们熬过危险航程——现在要去五星级万豪酒店啦!"账号migrantvlog在几天内连发22条视频,内容包含感谢工党提供"免费"自助餐、庆贺获赠2000英镑外卖电动自行车、焚烧英国国旗。该视频单月播放量近38万次。 尽管没有肢体消失或餐具漂浮等明显AI破绽,但模糊背景与僵硬动作仍露马脚。可成千上万的观众发现了吗?从评论区泛滥的种族主义反移民言论来看,多数人并未察觉。 这种虚实混淆令我恐惧。《网络安全法》针对国家支持的虚假信息,但普通人无意传播假视频呢?去年夏季骚乱就因AI生成图片激化,仅有"完整事实"等核查机构在澄清真相。我担忧那些缺乏媒介素养的人,他们轻信谎言并助长事态恶化。 AI能讲述动人故事——但谁掌控着叙事权? 鲁卡娜·莫格拉 莱斯特体育记者,供职于哈伯勒镇足球俱乐部数字传播部 首次在工作中使用AI是为赶制赛事报道。截稿时限迫近,精疲力竭的我写不出满意导语。将笔记输入AI工具后,它竟给出了可用的标题与开篇,为我抢回宝贵时间。 但AI并非魔法。它能理顺生硬句子,删减冗词,却不会追踪信源、捕捉现场氛围或判断叙事转向——这些仍是我的职责。 AI可贵之处在于像位零评判的编辑。作为年轻自由撰稿人,我常缺乏定期反馈。向人类编辑展示初稿令人忐忑,尤其当你仍在摸索个人风格时。ChatGPT不会评判,让我能大胆尝试、打磨笨拙表达,在点击发送前积累信心。 但我仍保持警惕。新闻业已过度依赖提速工具。若AI开始主导叙事方式——更糟的是决定选题方向——我们将丧失赋予报道意义的创造力、挑战性与思想碰撞。目前AI仅是助手。至于方向?仍由人类掌控。 作者注:初稿由我基于真实经历撰写,后使用ChatGPT优化行文、厘清表述并打磨为《卫报》风格。AI提供了帮助,但观点与文风皆属本人。 AI是否以环境为代价? 弗朗西斯·布里格斯 曼彻斯特科学网站编辑 AI的强大毋庸置疑——这是惊人的技术飞跃。但我仍有忧虑:担忧五年内失业,更忧心其环境足迹。 由于巨头们严守数据,评估AI真实影响困难重重。但现状显然不妙。最新研究显示(与其他同类结论一致),仅OpenAI的ChatGPT-4o模型年耗电量就相当于3.5万户家庭(约45万千瓦时),或325所大学、50家美国医院的能耗。 这仅是开始。冷却超算处理器带来额外负担,社交媒体流传的数据中心骇人数据并非空穴来风。估算表明,单是冷却ChatGPT-4o就需消耗约2500个奥运规格泳池的水量。 Perplexity或Claude等轻型AI工具能耗较低。全球来看,AI仍占能源总消耗不足1%。但在爱尔兰,数据中心去年耗电量占全国22%,超过所有城市家庭总和。仅美国就有超6000座数据中心,加之2018年以来AI应用激增,一年后这些数字恐将剧变。 尽管数据严峻,我仍怀希望。研究人员已着手开发纳米材料等高效节能处理器。相比七年前的早期语言模型,现今版本浪费大幅减少。高能耗数据中心的改进需要专家攻克技术难关。 --- 当AI成为红娘,我如何确认约会对象真身? 萨兰卡·马赫斯瓦兰 伦敦学生,立志成为记者 "走出去社交约会!"是我这个二十多岁年轻人最常听到的建议。几次尴尬约会和无数事后吐槽后,新恐惧浮现:如果对方用AI和我聊天怎么办? 过度雕琢的回复与怪异完美的开场白让我起疑。我不反对AI——全面抵制无法阻挡其发展——但担忧人类建立真实联结的能力。 对本就焦虑沟通方式的世代,AI如同诱人拐杖。起初只是"让这条消息更友好",最终可能演变成对自我表达能力的侵蚀。2025年Match.com研究显示,每四位美国单身者就有一人使用AI辅助约会。...
Artificial intelligence (AI)

当一名记者利用人工智能“采访”已故孩童时,我们是否该追问界限何在? | 加比·辛斯利夫

华金·奥利弗在高中走廊被枪击时年仅17岁。情人节那天,一名被开除的前学生用大威力步枪制造了美国史上最致命的校园枪击案。七年后,华金表示谈论佛罗里达州帕克兰那天的遭遇很重要——"这样才能为所有人创造更安全的未来"。 但令人心碎的事实是:华金并未生还。近日与记者吉姆·阿科斯塔对话的声音并非真实存在,而是基于华金社交媒体旧帖训练的AI复刻版。主张严格控枪的父母希望儿子的数字化身能放大他们的呼声。和许多悲恸家庭一样,他们反复讲述故事却收效甚微,如今正尝试一切办法让立法者倾听。 父亲曼努埃尔承认,他们也想再次听见儿子的声音。母亲帕特里夏会花数小时与AI交谈,听它说"我爱你,妈妈"。 没人会苛责哀伤的父母。无论是保留孩子生前的房间、常去墓前探望,还是紧攥带着他们气息的衬衫,都是他们的权利。人们总想抓住些什么。"9·11"事件后,遇难者家属会反复播放亲人被困燃烧大楼或遭劫航班时的最后留言。我的一位朋友至今仍重读亡妹的WhatsApp旧讯;另一位则坚持给已故父亲的号码发送家庭近况,明知不会有回复却无法停止。有人甚至求助通灵者获取模糊的"彼岸讯息"。 但悲痛中的脆弱易被利用——用数字技术"复活"逝者可能很快会成为大生意。 本周,罗德·斯图尔特播放了AI生成的视频:已故的奥兹·奥斯本向逝去的音乐传奇们致意——虽显噱头却不乏温情。亚利桑那州则有受害家属用AI形象在凶手量刑听证会上陈词。但若AI能永久复制逝者——无论是机器人还是声音——让对话无限延续呢? 复活是神之权能,不该轻率交给科技创业者。虽然法律日益保护活人免受AI换脸侵害,但逝者权益仍属灰色地带。名誉随死亡消逝(逝者无法被诽谤),但DNA死后仍受保护(克隆羊多莉曾引发全球人类克隆禁令)。AI不占用躯体,它挖掘语音留言、短信和照片——这些构成一个人本质的元素。 父亲去世时,我从不觉得他真的躺在棺木里。他的书信、花园和录音让记忆永存。但哀悼是私密的。若一半家人想用数字技术复活母亲,另一半却无法承受呢?伦理困境才刚刚开始。 世人似乎一半惧怕与鬼魂共处,另一半则难以想象没有鬼魂的生活。华金的AI化身将永远停留在17岁——受限于他青少年时期的社交媒体痕迹——这终究是凶手的罪孽,而非其家人的过错。曼努埃尔明白这个虚拟形象并非真正的儿子,也无意使其复活。对他而言,这就像纪念活动的自然延伸——他们早就在用各种方式延续华金的记忆。 但授权AI接管社交媒体账号、发布视频并吸引粉丝的做法令人不安。若它开始生成虚假记忆,或对华金生前未曾触及的话题发表见解呢? 目前AI化身仍显生硬,但随着技术进步,它们或将在网络世界以假乱真。企业甚至政府机构可能很快会启用AI发言人处理媒体问询。曾任白宫记者的阿科斯塔本应更清醒——在这个本就真伪难辨的后真相时代,采访一个技术上并不存在的"人"只会加剧混乱。更危险的是阴谋论者可能借此"佐证"任何不利消息都是骗局——就像亚历克斯·琼斯之流对桑迪胡克惨案的荒谬指控。 这些挑战不仅关乎新闻业。随着AI发展,我们都将与自己的数字版本共存——不仅是Alexa这类基础助手,更是情感丰沛的虚拟伴侣。英国十分之一成年人承认没有挚友,AI陪伴的市场需求可想而知,就像人们会寄情宠物或社交媒体。 社会终将接受技术填补人际关系的空缺。但为孤独者创造慰藉与逐个"复活"逝者存在本质区别。正如古老悼词所言:"生有时,死有时"。当生死界限模糊时,我们又当如何自处?
Artificial intelligence (AI)

AI素食主义者:伦理饮食的新浪潮

最近我试着写了封信,结果字迹潦草得不成样子。如今我几乎从不提笔写字,对键盘的依赖似乎彻底摧毁了我的连笔字能力。这种现象并非个例——手写正在成为失落的艺术。我的孩子可能永远都不会在学校学会连笔书写。打字确实更快,但研究表明,用键盘而非手写记录笔记,实际上可能会削弱大脑记忆信息的能力。 键盘已然显得过时——随着人工智能日益渗透日常生活,它又将如何重塑我们的思维?我们仍在探索其后果。科技公司坚称需要人工智能保持竞争力。马克·扎克伯格近期宣称,若没有AI智能眼镜,人们很快将陷入"严重的认知劣势"。但最新研究显示,过度依赖ChatGPT可能损害批判性思维。这还未计入AI的其他弊端:从惊人的环境代价到对低收入创意工作者的剥削。 并非所有人都热衷拥抱这个AI驱动的未来。"AI素食主义者"应运而生——这群人出于伦理、环保或个人健康原因拒绝使用AI。没错,"AI素食主义"确有其词(并非我的杜撰,虽然这个巧妙说法确实令人艳羡)。这让我想起塑料仿皮革如何被巧妙包装成"纯素皮革"以提升吸引力。 AI素食主义会流行吗?难有定论。但就像传统素食主义者那样,其追随者势必会广而告之。虽然期待全民成为"数字素食者"并不现实,但我们确实该更清醒地认知AI使用频率及其环境代价。或许AI应用在执行请求前该显示"数字卡路里"?没错,我能生成一张猫咪在太空船吃塔可的图片——但这可能浪费一瓶水和十倍于谷歌搜索的能源。你真的需要那张图吗?值得深思。 ——阿瓦·马赫达维,《卫报》专栏作家
Artificial intelligence (AI)

瑞典首相因在公务中使用AI遭批评:“我们投票选的可不是ChatGPT”

瑞典首相乌尔夫·克里斯特松近日因自曝经常使用ChatGPT和法国LeChat等AI工具辅助治国而引发争议。这位中右翼联合政府领导人在接受《工业日报》采访时表示:"我使用频率很高——至少能获得不同视角。别人采取过什么措施?我们是否该彻底转变思路?这类问题我都会咨询。" 但科技界专家警告政界人士不应过度依赖AI。《晚报》在社论中抨击克里斯特松陷入"寡头们的AI狂热"。卡尔斯塔德大学计算机研究员西蒙娜·菲舍尔-许布纳提醒:"必须格外谨慎",尤其在处理敏感信息时。 首相发言人汤姆·萨穆埃尔松澄清其使用方式不存在安全风险:"当然不会输入敏感信息,仅用于获取一般性建议。"然而于默奥大学负责任AI教授弗吉尼亚·迪格纳姆指出,AI无法提供真正有洞见的政治判断——它只会复现开发者的偏见。 "越是依赖AI处理简单事务,就越可能滑向对系统的盲目信任。"她向《每日新闻报》表示,"我们必须要求可靠性担保。选民投票选的可不是ChatGPT。"