OpenAI回应与五角大楼合作争议
OpenAI首席执行官Sam Altman近日在社交平台上表示,公司与美国国防部达成的合作协议“确实仓促”,且“外界看法不佳”。在外界对该协议的安全边界和执行方式提出质疑后,OpenAI发布博客文章,披露更多合作细节并阐述其立场。
协议背景与与Anthropic的对比
在Anthropic与五角大楼的谈判于上周五破裂后,时任美国总统唐纳德·特朗普指示联邦机构在六个月过渡期后停止使用Anthropic技术。国防部长Pete Hegseth其后表示,将这家人工智能公司视为供应链风险。
不久之后,OpenAI宣布已与国防部达成协议,将其模型部署在机密环境中。此前,Anthropic曾表示,其技术不会用于完全自主武器或大规模国内监控。Altman也称,OpenAI在这些问题上的“红线”与Anthropic一致。这一点引发外界关注:在相同红线前提下,OpenAI如何达成协议,而Anthropic未能达成?以及OpenAI是否在诚实维护其安全保障?
OpenAI列出三大“禁用领域”
为回应质疑,OpenAI在博客中明确表示,其模型不得用于三个领域:
- 大规模国内监控;
- 自主武器系统;
- “高风险自动化决策”,例如“社会信用”系统。
公司在文中称,与一些“减少或取消安全防护措施、主要依赖使用政策作为国家安全部署主要保障”的其他人工智能公司不同,OpenAI在与国防部的合作中采用了“更广泛、多层次的方法”来保护上述红线。
博客指出,OpenAI在该合作中:

- 保留对安全体系的完全自主权;
- 通过云端方式进行部署;
- 由经过安全审查的OpenAI人员参与;
- 并辅以“强有力的合同保护”。
公司称,这些安排是在美国现行法律“已有强力保护”基础上的额外措施。OpenAI还表示,不清楚Anthropic为何未能达成类似协议,并称“希望他们及更多实验室能考虑此方案”。
外界质疑与OpenAI回应
在OpenAI博客发布后,科技网站Techdirt的Mike Masnick评论称,该协议“绝对允许国内监控”。他指出,协议中提到在收集私人数据时将遵守行政命令12333及其他多项法律。Masnick将该命令描述为,美国国家安全局(NSA)通过监听“美国境外”线路捕获通信,从而在涉及美国人信息时“隐藏其国内监控行为”。
对此,OpenAI国家安全合作负责人Katrina Mulligan在LinkedIn发文回应,认为围绕合同条款的许多讨论,假设“美国人与使用人工智能进行大规模国内监控和自主武器之间唯一的障碍,是与‘战争部’签订的单一合同中的一项使用政策条款”。她表示,“事实并非如此,部署架构比合同条款更重要”。
Mulligan称,通过限制仅在云API上部署,OpenAI可以确保其模型“无法直接集成到武器系统、传感器或其他操作硬件中”。
Altman承认协议仓促并引发反弹
Altman在X平台上进一步回应相关问题时承认,该协议推进“仓促”,并导致OpenAI遭遇显著反弹。他提到,在争议发酵期间,Anthropic的Claude应用在上周六一度超过OpenAI的ChatGPT,登上苹果App Store下载榜首位。
在谈及为何仍选择推进该协议时,Altman表示,公司“真的想缓和局势”,并认为所提供的协议是“好的”。他称,如果判断正确,这将促成国防部与行业之间的缓和,OpenAI会被视为“为帮助行业而承担巨大痛苦的公司”;如果判断错误,公司则会继续被描述为“仓促且不谨慎”。
