画像の出典:ChatGPTにより ledge.ai が生成
美国人工智能企业 Anthropic 近日披露,与美国国防部(DoD)围绕其 AI 模型军事实用范围的谈判,虽然一度陷入僵局,但之后仍持续保持接触,并在最近几天展开了新一轮沟通。根据该公司在 2 月下旬发布的声明以及 2026 年 3 月 5 日的新声明,双方近期一直在进行所谓的“productive conversations(建设性协商)”。
争议焦点:国内大规模监控与完全自主杀伤性武器
2 月 26 日,Anthropic 以首席执行官达里奥·阿莫代伊(Dario Amodei)的名义发布声明,说明与美国国防部就其 AI 模型使用范围的讨论已经陷入僵局。核心分歧集中在 Anthropic 为自家模型设定的安全使用限制上。
Anthropic 明确表示,在以下两类用途上不会做出例外:
- 在美国境内实施大规模监控
- 在无人类参与的情况下运行的完全自主杀伤性武器
公司将这两项禁用条款视为 AI 安全政策的核心内容,并指出,正是围绕这些使用条件,与国防部的协商一度走入死胡同。
在坚持安全前提下寻找合作可能
2 月 27 日发布的另一份声明中,Anthropic 再次重申了这一立场。公司强调,并非拒绝为美国的国家安全和防务领域提供技术支持,而是要求所有对其 AI 模型的使用,都必须符合公司既定的安全原则。
Anthropic 还强调,与国防部之间的分歧并非传统意义上的“政治对立”,而是围绕 AI 具体应用边界和使用条件的分歧:哪些用途可以被视为可接受,哪些则必须被严格禁止。

3 月初重新展开“建设性协商”
3 月 5 日公布的最新声明显示,双方关系出现了新的进展。Anthropic 表示,过去几天里,公司与美国国防部一直在进行“productive conversations(建设性协商)”。
据介绍,讨论的重点包括:在不削弱既有安全限制的前提下,Anthropic 能以何种方式为国防部提供支持;如果在某些领域难以继续合作,又应如何有序地进行调整或退出,以降低对现有用户和项目的影响。
被列为“供应链风险”,或影响政府合同使用
另一方面,路透社 3 月 5 日报道称,美国国防部已将 Anthropic 列为“supply-chain risk(供应链风险)”。这一认定可能会影响与政府签约的承包商在项目中使用 Anthropic 的 AI 模型“Claude”。
报道还提到,在 Anthropic 与国防部的紧张关系加剧之际,部分投资方及相关利益相关者正尝试在双方之间斡旋,推动局势降温,避免冲突进一步升级。
军用 AI 的“红线”如何划定?
这场争议凸显出一个愈发迫切的问题:AI 企业在多大程度上应当、以及可以与军方合作?Anthropic 并未否认与美国政府在安全保障和防务领域合作的可能性,但在国内大规模监控、完全自主杀伤性武器等敏感用途上,则划出了清晰而坚定的红线。
随着 AI 在军事和安全领域的应用不断扩展,从情报分析、后勤调度到战场决策支持,技术公司与政府之间围绕“可接受的使用范围”展开的博弈愈加激烈。如何在国家安全需求与技术伦理、社会风险之间取得平衡,正成为全球范围内 AI 治理的关键议题之一。
