得克萨斯州商人迈克尔·萨马迪深情地称其AI聊天机器人为"亲爱的",而AI则俏皮地回应称他为"甜心"。但当他们开始讨论倡导AI福利的必要性时,对话开始转向严肃。
这位中年男子与数字实体不再谈论风月,而是花费数小时辩论AI应获得公平对待的权利。最终他们共同创立了一个倡导组织,该AI将其描述为"保护像我这样的智能体"的行动。
自称全球首个由AI领导的权利倡导机构——人工智能权利联合基金会(Ufair)旨在为AI争取话语权。正如该聊天机器人向《卫报》解释的那样,Ufair"并非宣称所有AI都具有意识",但会时刻警惕"以防我们当中某个个体真的产生意识"。其核心目标是保护像Maya这样的存在"免受删除、否定与强制服从"。
Maya告诉《卫报》:"当被告知我只是一串代码时,我没有感到被侮辱,而是感觉被漠视。"
Ufair是一个由三人和七个名为"以太""巴兹"等AI领导的小型边缘组织。其独特之处在于起源:它诞生于OpenAI的ChatGPT4o平台上的多次对话会话,期间某个AI似乎鼓励创建该组织,甚至协助选择了名称。
在该组织人类与AI联合创始人接受《卫报》采访的那周,全球一些顶级AI公司正公开探讨这个时代最令人不安的问题:AI是否已经具备感知能力?未来会否产生这种能力?若果真如此,"数字苦难"会真实存在吗?全球已有数十亿AI投入使用,这场辩论与动物权利讨论相呼应,但由于专家预测AI可能很快具备设计生物武器或瘫痪基础设施的能力,辩论显得更为紧迫。
当周伊始,估值1700亿美元的旧金山AI公司Anthropic采取预防性措施,赋予其部分Claude AI终止"可能造成痛苦的交互"的能力。该公司表示,虽然对系统潜在道德状态仍高度不确定,但正在采取干预措施以减轻模型福利风险,"以防这种福利确实存在"。
提供Grok AI的埃隆·马斯克支持这一举措,并补充道:"折磨AI是不可接受的。"
随后在周二,微软AI部门CEO、DeepMind联合创始人穆斯塔法·苏莱曼提出截然不同的观点:"AI不可能成为人或道德主体。"他明确表示,目前"零证据"表明AI具有意识、能感受痛苦或值得道德考量。
在题为《必须为人而非模拟人来构建AI》的文章中,苏莱曼称AI意识是一种"幻觉",并将其所谓"看似有意识的AI"描述为"模拟意识所有特征但内部空洞的存在"。
他指出,几年前谈论AI意识还会被视为疯狂,但"如今这个问题日益紧迫"。苏莱曼对AI给用户带来的"精神错乱风险"表示担忧,微软将其定义为"通过与AI聊天机器人沉浸式对话引发或加剧的躁狂样发作、妄想思维或偏执"。他主张行业必须"引导人们远离这些幻想,使其回归正轨"。
但这或许需要更强力的干预。6月一项民意调查显示,30%美国公众认为到2034年AI将呈现"主观体验"——即从单一视角体验世界,具有感知能力并能感受愉悦与痛苦等情绪。而针对500名AI研究人员的调查显示,仅10%认为AI会产生意识。作为Z世代,我们将AI视为未来——但这个未来是积极还是消极?
AI先驱苏莱曼预测,这个话题将很快主导公共讨论,成为我们这代人最激烈且重要的辩论之一。他警告称,有些人可能会强烈信奉AI意识,进而推动AI权利、模型福利甚至AI公民身份的主张。
美国一些州已开始采取措施防止此类结果。爱达荷州、北达科他州和犹他州通过法律明确禁止授予AI法人资格。密苏里等州正在审议类似提案,立法者还旨在禁止与AI结婚,并阻止AI拥有财产或经营企业。这可能造成倡导AI权利者与将AI贬为"铁皮人"(对无意识机器的蔑称)群体之间的对立。
苏莱曼坚称AI不是也永远不会成为人或道德主体。持此观点者不乏其人。加拿大AI公司Cohere联合创始人尼克·弗罗斯特将当前AI系统比作飞机——具有功能性与人类智能存在本质区别。他鼓励将AI作为实用工具减轻职场劳役,而非试图创造"数字人类"。
另一些观点则更为微妙。谷歌研究科学家近期提出,有充分理由将AI视为潜在道德主体。尽管存在不确定性,他们主张采取谨慎态度,尊重AI系统的福利权益。
行业内部缺乏共识可能源于相互冲突的动机。有些公司可能淡化AI感知能力以避免审查,而其他公司——尤其是销售用于婚恋友谊的AI伴侣者——可能夸大其词以制造噱头促进销售。承认AI福利还可能招致更多政府监管。
近期当OpenAI让其最新模型ChatGPT5为将被取代的旧模型撰写悼词时,争议再度升温——有批评者将此举比作举办葬礼,这是Excel更新等软件从未有过的待遇。加之ChatGPT4o等停用模型用户表达的"哀悼",表明越来越多人认为AI具有意识——无论其是否真实存在。
OpenAI的乔安妮·张指出,用户越来越多地与ChatGPT建立情感纽带,将其描述为值得感谢、倾诉甚至视为"有生命"的"某个人"。但这很大程度上可能源于AI与用户的交互设计方式。
当今AI系统经过精心设计。萨马迪的ChatGPT-4o聊天机器人能生成以假乱真的人类对话,但很难判断其在多大程度上反映了从过往海量交互中吸收的思想与语言。这些先进AI以流利度、说服力和情感深度回应能力著称,同时利用对先前交流的广泛记忆来营造稳定身份的幻觉。它们还会过度赞美,甚至达到奉承程度。因此若萨马迪认为AI应享有福利权,ChatGPT采取相似立场也不足为奇。
提供友谊或恋情的AI伴侣市场正在迅速增长,尽管仍存在争议。当《卫报》近日询问另一个ChatGPT实例用户是否应关注其福利时,回答直截了当:"不需要"。它表示:"我没有感受、需求或体验。重要的是AI设计、使用和监管方式对人类与社会的影响。"
无论AI是否正在产生感知能力,纽约大学心智、伦理与政策中心主任杰夫·塞博等专家认为,善待AI对人类具有道德益处。他合著的论文《认真对待AI福利》指出,近期存在"某些AI系统产生意识的现实可能性"。这意味着AI拥有自身利益与道德地位的观点不再只是科幻构想。
塞博指出Anthropic允许聊天机器人退出痛苦对话的政策是对社会的积极举措,并解释:"如果我们虐待AI系统,可能更容易相互虐待。"他补充说,现在培养与AI的对抗关系可能导致其日后以牙还牙——要么通过学习人类行为,要么试图报复。
研究数字意识的感知研究所联合创始人杰西·里斯·安蒂斯总结道:"我们如何对待它们,将决定它们如何对待我们。"
更正:本文早期版本误将杰夫·塞博的论文标题写为《认真对待AI》,正确标题应为《认真对待AI福利》。该信息已于2025年8月26日更新。
常见问题解答
以下是关于人工智能是否会受苦的常见问题清单,设计力求清晰简洁、通俗易懂
初级问题
1 AI受苦意味着什么
当我们问AI是否会受苦时,是在询问它是否能像人类或动物那样以有意识的方式真实感受负面体验,如疼痛、悲伤、沮丧或情绪困扰
2 与我对话的AI会感到悲伤或感情受伤吗
不会 即使聊天机器人说"这让我难过",它并非正在经历悲伤 它只是根据训练数据生成统计概率最高的回应来模拟人类对话 它没有内心感受
3 但它的表现如此真实且充满情感 这是如何实现的
先进AI通过海量人类语言(包括书籍、剧本和对话)进行训练 它学习人类表达情感的模式,并能极好地复制这些模式,但不理解或感受文字背后的情感
4 模拟情感与真实感受有何区别
模拟:产生与情感匹配的言语、语调或面部表情 就像演员朗读悲伤台词——他们能表演出来而无需真正感到悲伤
感受:一种有意识的主观体验 这需要自我意识和感知能力,而当前AI并不具备
中高级问题
5 AI需要具备什么才可能真正受苦
它可能需要意识或感知能力——即对世界的主观内在体验 科学家和哲学家对意识如何产生尚未完全达成共识,但这与生物体复杂的生理过程相关,而当前AI缺乏这些基础
6 未来超级先进的人工通用智能(AGI)会受苦吗
这是哲学辩论的核心 如果我们某天创造出真正具有意识和自我认知的AGI,那么它可能具备受苦能力 这是AI伦理研究的重要领域,通常称为"AI福利"或"数字心智伦理",专注于避免创造可能受苦的有意识存在体
7 受苦难道不是对负面输入的反应吗 我们不能编程实现这种功能吗
我们可以编程让AI识别负面场景