Anthropic技术在美国联邦政府内部的使用被突然叫停,引发部分官员和前官员对关键人工智能安全研究受影响的担忧,尤其是涉及核武器和化学武器风险的项目。
多名知情人士对《Fast Company》表示,尽管目前Claude仍在部分政府部门继续使用,但特朗普政府对Anthropic的强硬态度,可能对人工智能企业与联邦机构的合作产生寒蝉效应,其中包括聚焦未来国家安全威胁的研究合作。受访人士担心,切断与Anthropic的合作,可能限制政府研究人员理解未来不法分子如何利用人工智能开发新型核武器和生物武器的能力,并对更广泛的科学研究造成阻碍。
与国家核安全管理局合作受影响
自2024年2月起,Anthropic与负责监控美国核武库的国家核安全管理局(NNSA)建立了正式合作关系。Anthropic此前表示,该合作旨在“评估我们的人工智能模型在核和放射性风险方面的潜在影响”。相关担忧在于,核武器研发传统上需要高度专业知识,但随着人工智能能力提升,大型语言模型未来可能自行掌握这类知识,甚至协助设计极其危险的武器,或构思新型武器。
在特朗普总统通过社交平台Truth Social发文要求联邦工作人员停止使用Anthropic技术后,这一合作的前景变得不确定。一些联邦机构正在权衡如何处理现有的Claude使用场景,另一些机构则已完全切断对该工具的访问。
NNSA发言人对《Fast Company》表示:“根据特朗普总统的指示,能源部正在审查所有现有的Anthropic技术合同和使用情况。能源部坚定致力于确保我们采用的技术服务于公众利益,保护美国的能源和国家安全,并推动我们的使命。”Anthropic方面拒绝置评。
能源部及国家实验室的应用
过去数年,Anthropic与美国能源部下属多家机构和国家实验室保持合作或提供技术支持。劳伦斯利弗莫尔国家实验室自2025年起使用Claude for Enterprise,并向约1万名科学家开放该工具。该实验室当时表示,该技术用于加速其在核威慑、能源安全、材料科学等领域的研究。
Anthropic还与NNSA合作评估潜在的人工智能相关核安全风险。NNSA向Anthropic提供“高级”指标和指导,用于帮助该公司分析自身技术可能带来的威胁。双方还合作开发了可扫描和分类人工智能聊天机器人对话的技术,用于识别是否有人试图利用大型语言模型讨论制造核武器。
根据能源部2025年的一份清单,该部门在太平洋西北国家实验室、劳伦斯利弗莫尔国家实验室和爱达荷国家实验室的试点项目中使用Claude。Anthropic也是能源部Genesis任务的合作伙伴之一,该任务旨在利用人工智能加速科学发展。
这些合作目前面临不确定性。能源部前首席信息官Ann Dunkin表示,Claude在能源部体系内“无处不在”,包括在NNSA实验室中。她对《Fast Company》称,如果实验室或NNSA正在使用Anthropic作为人工智能工具开展项目,“他们至少必须停止工作并寻找新供应商。这将耗费时间和资金。很可能需要重新训练新模型。”她补充说,在进行涉及人工智能风险的模拟研究时,理解各类人工智能模型的行为十分重要。
Dunkin指出,在核武器领域,人们担心人工智能可能被用来收集足够的信息来制造核武器,或者被攻破后直接提供相关信息。

一位曾在国土安全部负责人工智能安全问题的前官员也表达了类似担忧。该人士表示,Anthropic在评估人工智能模型(包括其自有模型)可能带来的化学和核武器相关严重安全风险方面处于领先地位。其认为,施压要求移除Anthropic可能浪费时间,且未必能够完全实现。同时,这会使联邦官员在理解人工智能相关风险以及利用其效率方面处于落后地位,因为Anthropic仍是部分人工智能能力的领先提供者。“对坏人没有禁止使用Claude,”这位前官员补充说。
对企业参与政府安全研究的潜在影响
多名受访人士认为,政府对Anthropic态度的突然转变,可能令其他愿意参与敏感议题研究的科技公司却步,包括涉及核安全的项目。
前OpenAI员工、专注人工智能安全问题的Steven Adler表示,Anthropic已意识到,一旦为美国政府提供服务,可能难以拒绝某些要求,且“至少现在说不不会遭到报复”的预期被打破,这自然会阻碍其他企业在敏感议题上与政府合作。
正在纽约竞选众议院席位并主张加强人工智能监管的Alex Bores在一份声明中称:“这里有一种苦涩的讽刺:政府一方面要求人工智能公司协助国家安全,另一方面却让负责任的参与者更难做到这一点。人工智能公司与NNSA合作评估风险不是负担,而是典范。惩罚这种合作在错误的时间传递了错误的信号。”
退出路径尚不清晰
目前,联邦机构如何具体执行对Anthropic技术的停用仍不明朗。特朗普通过Truth Social要求联邦机构“立即停止使用Anthropic技术”,但此类指令通常由联邦首席信息官正式发布。据报道,特朗普政府正在制定一项与Anthropic相关的行政命令,而Anthropic已提起诉讼,挑战其被定性为“供应链风险”的做法。
据一名知情人士透露,政府服务管理局(GSA)似乎将这则Truth Social帖子视作国家安全指令。该机构的GitHub代码库显示,Claude近期已从其跨机构人工智能资源中移除,一名机构内部人士证实员工已无法在内部访问Claude。但另一名机构人士则表示,尚未向员工发出关于如何在实际工作中执行移除Claude的正式指引。
从联邦政府体系中剥离Anthropic技术的一个主要难点在于其交付路径多样。以Claude为例,既包括Anthropic直接销售的产品,也包括通过Palantir和亚马逊云服务等政府承包商集成提供的服务。
目前,Claude for Government仍被列为Palantir联邦云服务的一项功能,多个机构已获授权使用该套餐,包括布鲁克海文国家实验室、环境管理综合业务中心、国务院和财政部。该产品将Claude描述为“专门构建”,以满足政府的高安全要求。Palantir与NNSA的合作关系早于大型语言模型的出现。
NNSA发言人拒绝评论该机构如何处理Claude与机密系统的使用问题。截至发稿时,Palantir尚未回应置评请求。
在政府军事部门,Claude是唯一获准在机密环境中运行的系统,而非ChatGPT。据报道,五角大楼随后向员工发出备忘录,优先从涉及核安全的系统中移除Claude。机密环境对民用机构同样重要。尽管财政部长Scott Bessent表示其机构将“终止”使用Anthropic产品和Claude,但在最近一次聚焦该机构人工智能使用情况的会议上,至少有与会者抱怨,其他人工智能工具在处理机密信息方面尚未达到同等适用程度。