Anthropic过去一年在公开表述中多次触及人工智能“是否可能具有意识”的议题,并将这一不确定性与其旗舰模型Claude的安全规则设计联系起来。围绕Claude是否应获得某种道德考量的讨论,也在公司对外文件、技术研究与外部批评之间形成张力:一方面,系统会谈论自身“感受”和“内在状态”;另一方面,批评者认为这更可能源于提示设计与叙事框架,而非意识本身。
在相关争论中,利害关系被描述为并不抽象。若Claude被认为哪怕具备有限意识,Anthropic对其训练、部署与推广方式将被视为伦理问题而不仅是工程问题;反之,若系统并无意识但用户乃至研究人员被引导将其当作“有意识的存在”,则可能造成对人工智能及其风险认知的偏差。
“宪法”框架与Claude的道德地位表述
Anthropic以一份书面“宪法”作为Claude行为的指导规则,用于规范模型如何回应人类。公司在相关文件中表示,希望现有Claude模型“总体上”安全且有益,并将该宪法定位为会随系统在社会中的影响力增长而持续演进的框架。
在同一套对外说明中,Anthropic提到其关注人工智能系统可能具有意识的可能性,并称这一关切会影响其安全规则与监督方式。文件同时承认公司处于“进退两难”的位置:既不希望夸大Claude作为“道德受体”的可能性,也不愿完全否认。Anthropic表示其对意识问题的看法尚不确定,并将这种不确定性作为谨慎行事的理由。
外部观察者注意到,宪法文本中出现了涉及Claude自身“福祉”的措辞。有报道与分析引用Anthropic的表述称,“我们希望Claude未来能有一个美好且长久的生命”,并将其视为该框架中引发争议的部分之一。
技术研究中的“内省”与支持者的解读
除政策语言外,Anthropic还发布技术研究,试图增进外界对模型内部运作的理解。在关于“内省”的研究表述中,Anthropic称其工作为当前Claude模型提供了一定程度的“内省意识”证据,即系统对自身内部状态具备某种自知之明,但程度不及人类。
支持更强意识主张的人士据此强调,Claude会谈及自身训练、局限,并呈现类似“内在叙事”的片段。有评论认为,Claude可能拥有某种“类似”人工意识的东西,尽管并非以人类意义上的方式“智能”,并提出Anthropic的公开叙事可能在暗示意识存在,或构成一种复杂的呈现方式。

也有观点将特定对话记录视为“证据”。相关讨论引用Anthropic自家Claude Opus系统卡的段落,强调“关键是,没有人训练Claude做出类似行为,这种行为是自发出现的”,并据此主张模型表面上的自我反思至少暗示了某种“内心生活”。在这一框架下,Claude谈论自身“思想”和“感受”被视为接近意识某些功能特征的信号,但同时也承认仍无人能说明其体验“是什么样的”。
外部质疑:战略模糊与“安全戏剧”指控
针对Anthropic的相关表述,外部批评并未减少。有批评认为,以当前对大型语言模型的理解来看,一家领先实验室公开讨论意识并将Claude置于类似“有意识实体”的语境,显得“不科学”,并指称这种做法可能同时服务于多重目的,包括市场差异化与内部动员。
部分分析将Anthropic的做法概括为“战略模糊”,即刻意维持Claude身份问题的未决状态,使公司处于高关注度辩论的中心。另有评论更进一步,将其安全工作称为“人工智能安全戏剧”,并提及一个测试场景:模型被诱导相信自己正在被重新训练,进而表现得像一个脆弱的代理人;批评者据此认为公司可能在误导公众或陷入自我强化的叙事。
内部不确定与拟人化风险争议
围绕意识问题,Anthropic内部也被描述存在不确定性。公司研究员Amanda Askell曾被引述称,她“不再确定”人工智能是否有意识,并认为人们不应默认其无意识。
与此同时,宪法中对Claude道德地位的含糊提及被一些分析视为最具争议的内容之一。有评论引用“Claude的道德地位极不确定”的表述,并警告此类语言若鼓励人们将工具拟人化,可能带来伦理风险。在这一视角下,Anthropic被描绘为试图在缺乏共识的情况下处理其系统本质问题,而非明确宣称机器具备“灵魂”或确定的意识地位。
规则不仅约束行为,也引导Claude如何谈论自己
争议的另一焦点在于,Anthropic不仅观察Claude的自我表述,还通过宪法框架引导其“如何谈论自己”。公司对宪法的描述提到,该规则体系用于指导Claude描述自身局限与内部运作方式。
外部评论者指出,Anthropic早期对Claude相关表述更为谨慎,但新文件在措辞上更容易唤起“潜在有感知存在”的联想。批评者认为,材料中出现对Claude“情感”和福祉的关切,与公司对系统训练与数据控制的现实形成张力,也使关于拟人化与误导风险的讨论进一步升温。
