美媒:美军在伊朗空袭中继续使用Anthropic系统,时点紧邻特朗普禁令

据《华尔街日报》援引知情人士报道,美国军方在对伊朗实施一次重大空袭行动时,使用了Anthropic公司开发的Claude人工智能系统,而这一时间点距离总统唐纳德·特朗普要求联邦机构停止使用该公司系统仅数小时。

报道指出,包括负责中东地区行动的美国中央司令部(CENTCOM)在内的军事指挥机构,依托Claude模型为行动提供支持。据称,该工具被用于情报分析、识别潜在打击目标以及进行战场模拟等环节。

知情人士表示,这一情况反映出先进人工智能系统已深度嵌入美国国防作战流程。即便在政府层面启动与相关供应商“切割”的指令时,相关系统仍在既有军事工作流中被继续使用。

根据报道,上周五,特朗普政府指示各联邦机构停止与Anthropic合作,并要求国防部将该公司视作潜在安全风险。该命令发布前,双方就一份合同进行的谈判已经破裂,原因是Anthropic拒绝允许军方在所有被视为合法的场景下对其人工智能进行不设限使用。

与五角大楼合同及早期行动

《华尔街日报》称,Anthropic此前与多家主要人工智能实验室一道,获得了美国国防部一份总额最高可达2亿美元的多年期合同。通过与Palantir和亚马逊云服务(AWS)的合作,Claude系统获准接入机密情报和作战相关工作流程。

报道还提到,据称Claude曾参与早期多项行动,其中包括今年1月在委内瑞拉的一次任务。知情人士称,该次行动最终导致委内瑞拉总统尼古拉斯·马杜罗被捕。

报道援引消息人士称,随着合作推进,紧张局势开始升温。美国国防部长皮特·赫格塞斯据报要求Anthropic允许军方在军事用途上对其模型进行不受限制的使用。Anthropic首席执行官达里奥·阿莫代拒绝了这一要求,表示某些用途触及公司不会逾越的伦理边界,即便因此失去政府订单。

在此背景下,五角大楼开始物色替代供应商,并与OpenAI达成协议,在机密军事网络上部署后者的人工智能模型。

公司立场与政府“供应链风险”认定

报道援引阿莫代在周六接受采访时的表述称,Anthropic反对将其人工智能模型用于大规模国内监控以及完全自主武器系统。此番表态被视为对美国政府近期决定的回应——政府已将该公司列为国防领域的“供应链风险”,并禁止承包商在相关项目中使用其产品。

阿莫代在采访中强调,某些应用场景触及“根本界限”,并表示军事决策应保持在人类控制之下,而不应完全交由机器自主作出。


分享:


发表评论

登录后才可评论。 去登录