直到不久前,人工智能公司Anthropic在行业热潮中相对低调。该公司估值约350亿美元,但其聊天机器人Claude的公众声量与使用热度普遍被认为落后于ChatGPT;首席执行官兼联合创始人Dario Amodei虽在业内知名,在硅谷之外却并不广为人知。
近期,Anthropic因与美国国防部围绕Claude使用范围的高调争执而进入舆论中心。报道指,谈判焦点在于公司拒绝允许Claude用于国内大规模监控,以及用于可在无人干预下实施致命行动的自主武器系统。上周,Anthropic未在五角大楼设定的最后期限前达成协议。国防部长Pete Hegseth随后公开指责Anthropic对其祖国表现出“傲慢和背叛”,并要求所有与美国政府合作的公司停止与该公司开展业务往来。
过去一周,相关事件进一步发酵。OpenAI宣布已与国防部达成协议,引发内部员工反弹;Amodei则指责OpenAI首席执行官Sam Altman对Donald Trump给予“独裁者式的赞扬”,随后就该表述道歉。与此同时,特朗普在接受Politico采访时批评Anthropic,称其“像对待狗一样解雇了他们”。周四,美国国防部正式宣布将Anthropic认定为“供应链风险”,并要求其他企业切断与其联系。报道称,这是美国公司首次被赋予此类称号,若全面执行,可能对Anthropic造成严重财务影响。
争执也重新点燃了关于人工智能如何用于战争、以及由谁对结果承担责任的讨论。报道指出,随着军方加速将相关技术用于行动,包括与伊朗的战争在内的场景,使原本偏理论的伦理与治理问题转化为人工智能公司必须面对的现实考验。
与此同时,Anthropic与国防部的对峙被一些研究人员视为该公司内部张力的集中体现。Anthropic以“安全优先”的定位起家,强调构建遵循原则的更安全人工智能系统,但其也与五角大楼及监控技术公司Palantir建立了重要的机密合作。报道还提到,法庭记录显示,该公司曾秘密扫描并销毁数百万实体书籍用于训练Claude。
报道同时称,近期事态显示Anthropic似乎不愿跨越某些使用“红线”。在协议破裂后,Claude的受欢迎程度出现上升,而OpenAI则面临声誉修复压力。Anthropic未就相关问题回应置评请求。
在后续影响方面,报道指部分国防承包商以及美国国务院和财政部已开始停止使用Anthropic的模型;特朗普政府则意图惩罚其“异议”。Anthropic表示将对“供应链风险”认定提起法律挑战;另据报道,Amodei近日也重新开启与国防部的谈判,寻求解决方案。
从OpenAI核心研究人员到“安全优先”创业者
报道回溯称,Amodei曾是OpenAI的主要研究人员之一,2016年加入该公司并参与GPT模型开发,后任研究副总裁;其妹妹Daniela Amodei担任安全与政策副总裁,参与监督模型伦理开发。随着OpenAI技术快速推进及公司权力集中,Amodei兄妹于2021年在ChatGPT发布前离开并创立Anthropic,同时带走多名OpenAI员工。
Anthropic将自身定位为“人工智能安全与研究公司”,核心承诺是构建遵循详细原则“宪法”的更安全人工智能系统。2024年,Amodei发表长文《慈爱机器》,描述其对人工智能未来的设想,并写道他“没有充分理由相信人工智能会优先或结构性地促进民主与和平”。
报道还称,Amodei长期关注人工智能的生存风险,并将其与核武器的创造相提并论。他对“有效利他主义”运动的相关讨论也被外界提及:尽管Amodei兄妹否认是有效利他主义者,Anthropic的一些表述与该运动语言相近。Hegseth在宣布“供应链风险”时亦批评Anthropic“披着‘有效利他主义’的伪善外衣”。

对于“人工智能安全”议题,报道引述康奈尔大学科技政策研究所所长Sarah Kreps称,对生存风险与生物恐怖主义等担忧可能过于遥远或难以触及,显示相关风险理解并不充分。人工智能伦理研究员、Hugging Face首席伦理科学家Margaret Mitchell则表示,外界可能误以为Anthropic因自称负责任而反对将系统用于战争,但事实并非如此;她还称,“他们并非不想杀人,而是想确保杀对人,而谁是‘对的人’由政府决定。”
从企业软件定位到机密系统应用
报道指出,Anthropic与竞争对手的市场路径有所不同:相较于面向消费者的ChatGPT,Claude更偏向企业软件解决方案与工作场所基础设施集成。这一差异使其成为不少组织的选择,并帮助其成为首个获准用于军事机密系统的模型。
据报道,Anthropic与军方的合作始于2024年与Palantir的协议,使Claude可在Palantir已在机密环境运行的系统中使用。双方将合作描述为可显著减少军事行动与情报收集所需资源和时间。次年,Anthropic与其他几家主要人工智能公司一起,与国防部达成了2亿美元协议,使用其人工智能工具支持军事行动。
报道称,后续显现的问题在于,这些协议并未包含政府如何使用Anthropic人工智能、或模型应设定何种安全防护措施的永久性约定。通过Palantir系统的间接接入,使Anthropic对技术使用的控制弱于对Claude网站的直接控制。随着政府要求放宽安全限制以扩大使用范围,这一差异在近几个月激化,触发当前争端。
报道还提到,Anthropic近年来雇佣前拜登政府工作人员,Amodei公开反对特朗普,而Hegseth希望从军队中根除“觉醒主义”,使对峙带有政治色彩。五角大楼首席技术官Emil Michael也公开指责Amodei是“骗子”并有“上帝情结”。
在军方使用层面,《华盛顿邮报》报道称,美军使用嵌入Claude的Palantir Maven智能系统,决定伊朗的轰炸目标并分析打击效果;报道还提到Claude被用于多项任务,包括抓捕委内瑞拉领导人尼古拉斯·马杜罗。
专家在报道中指出,这场争端也折射“双用途技术”困境:面向广泛消费者开发的技术被改用于机密军事系统,可能出现用途不匹配与参数缺失的问题,企业即便在伦理上反对某些用法,也未必具备阻止能力。Mitchell以图像识别为例称,用于识别鸟类的技术同样可用于识别逃离家园的平民。
此外,报道引述弗吉尼亚大学法学院教授Ashley Deeks称,科技公司难以了解其技术在机密系统中的具体用途,而军方也不了解专有模型的工作原理,形成“双重黑箱”。她表示,合同条款也可能存在解释空间,军方与公司对同一句话的理解可能不同。
报道最后指出,更广泛的问题在于谁应决定人工智能的用途,以及国会对自主武器系统缺乏详细监管。尽管Anthropic与五角大楼都不认为私人公司应拥有人工智能军事应用的决策权,但在现阶段,Anthropic事实上成为对军事领域人工智能武器化诉求的少数制衡力量之一。Deeks提出一系列待解问题:是否希望国防部使用人工智能进行自主武器系统作战、在哪些环境下、带有哪些限制、需达到何种置信度、愿意承担多大风险,而公众难以了解国防部的具体思考。
