Anthropic与美国国防部围绕人工智能在战争与安全领域的使用边界发生对峙,令科技行业再次面对其产品在军事场景中的应用范围及限制条件。在特朗普执政期间硅谷政治立场右移、并与政府签订多项国防合同的背景下,科技公司对军方合作的态度与不到十年前相比出现明显变化。
据报道,三天前,Anthropic与特朗普政府官员的争执升级。Anthropic向法院起诉美国国防部,称政府将其列入政府工作“黑名单”的决定侵犯了其第一修正案权利。双方僵局已持续数月,争议焦点在于Anthropic希望禁止其人工智能模型被用于国内大规模监控或完全自主的致命武器。
Anthropic表示,若按国防部要求允许其技术用于“任何合法用途”,将违背公司创立时确立的安全原则,并可能带来技术被滥用的风险。该公司由此划定的伦理边界,也使行业内其他企业面临是否接受类似条件的选择。
这场争端在凸显外界长期以来对人工智能用于冲突的担忧之余,也反映出大型科技公司与军方关系的目标正在发生变化。Hugging Face人工智能研究员兼首席伦理科学家玛格丽特·米切尔表示,如果有人试图在此类争议中寻找“好人和坏人”,在这一事件中“找不到”。
回顾此前行业态度,2018年,数千名谷歌员工曾抗议公司参与美国国防部Project Maven项目,该项目用于分析无人机影像。彼时,3000多名员工在公开信中称“谷歌不应涉足战争业务”。随后谷歌决定不续签Project Maven合同,并发布政策禁止开发可能“造成或直接促成人员伤害”的技术。
但此后谷歌加强了对员工行动的管控,并删除了2018年政策中禁止开发武器技术的相关表述,同时签署多份允许军方使用其产品的合同。2024年,谷歌因员工抗议其与以色列政府的军事联系而解雇50多名员工。首席执行官桑达尔·皮查伊在相关备忘录中称,谷歌是一家商业机构,不是“为争论颠覆性问题或政治辩论的地方”。本周,谷歌宣布将向军方提供其Gemini人工智能平台,用于开发人工智能代理,支持非机密项目。
在其他公司方面,OpenAI此前在2024年前全面禁止军方访问其模型,但其现任首席产品官同时担任美国军方“执行创新团”的中校。去年,该公司与谷歌、Anthropic及xAI签署最高2亿美元合同,将技术整合进军事系统。在国防部长皮特·赫格塞宣布Anthropic为供应链风险的当天,OpenAI与国防部达成协议,允许其技术用于机密军事系统。

与此同时,更强调国防合作的企业也在扩大影响力。国防科技公司Anduril与监控技术制造商Palantir将与国防部合作作为业务基础。报道提到,Palantir早在2010年代初就与军事情报部门合作,绘制阿富汗埋设炸弹地图。其首席执行官亚历克斯·卡普去年出版书籍,主张科技行业与美国军方及人工智能更紧密融合,并在书中批评2018年抗议谷歌的员工。2019年谷歌放弃Project Maven合同后,Palantir接手该项目。《华盛顿邮报》报道称,Maven目前也是军方人员访问Anthropic Claude的机密系统名称。
尽管Anthropic在对峙中获得一定公众关注,其联合创始人兼首席执行官达里奥·阿莫代仍强调公司与政府在许多方面目标一致。他上周四在博客中写道:“Anthropic与战争部(国防部)有更多共同点,而非分歧。”
白宫曾指责Anthropic是“激进左翼、觉醒公司”。不过,阿莫代对人工智能在冲突中的使用及其风险的表述并非以反战立场为核心。今年1月,他发表长文警告人工智能可能带来的危害,包括制造致命生物武器以及中国恶意使用该技术的威胁,并主张应为民主政府和军队配备最先进的人工智能以对抗专制对手。他表示更关注技术可靠性,以及自主无人机军队可能被极少数“手握按钮”的人集中控制的风险。
阿莫代在文章中也提及人工智能作为大规模监控工具的潜力,提出应防止技术被滥用,同时允许其用于国家防御,“除非那些用途会让我们变得更像我们的专制对手”。
在坚持红线的同时,阿莫代多次表示希望Anthropic继续与国防部合作。Anthropic对国防部的诉讼文件也显示,公司愿意在较大范围内与军方合作并调整产品以满足需求。Anthropic在加州的诉讼中称,“Anthropic对军方使用Claude的限制不及对民用客户严格”,并表示Claude Gov不太可能拒绝在民用环境中被禁止的请求,例如处理机密文件、军事行动或威胁分析。
另据报道,政府已在针对伊朗的轰炸行动中使用Claude进行目标选择和分析,Anthropic对此未表示异议。阿莫代上周在公司网站博客中称,他不认为公司在军事行动决策中扮演角色,并表示Anthropic支持美国前线战士,致力于为其提供技术支持。他上周对CBS新闻表示,公司对国防部“98%或99%”的用例没有异议,仅有两个例外。
