美国国防部已正式将人工智能公司Anthropic及其产品列为供应链风险。据彭博社援引一名高级官员报道,五角大楼已就此通知Anthropic管理层。
这一决定出现在Anthropic与国防部就人工智能军事用途发生数周争议之后。报道指出,Anthropic首席执行官达里奥·阿莫代(Dario Amodei)拒绝允许军方将其人工智能系统用于针对美国人的大规模监控,或用于在无人干预的情况下执行目标锁定和开火决策的完全自主武器系统。国防部方面则认为,其对人工智能的使用不应受私人承包商设定的限制。
据介绍,“供应链风险”标签通常适用于被视为外国对手的实体。被列入该名单后,与五角大楼合作的公司或机构在相关项目中需证明未使用Anthropic的模型。
这一认定被认为可能对Anthropic的业务和运营构成威胁。报道提到,Anthropic是唯一拥有可用于机密级别系统的前沿人工智能实验室。美国军方目前在伊朗相关行动中依赖该公司开发的Claude人工智能,用于快速处理和管理作战数据。彭博社称,Claude是安装在Palantir公司Maven智能系统中的主要工具之一,中东地区的军事操作人员依赖该系统开展工作。
多名批评者认为,因与承包商在使用方式上的分歧而将其列为供应链风险,在国防部以往做法中并不常见。前特朗普白宫人工智能顾问迪恩·鲍尔(Dean Ball)在评论中称,这一指定是“美国共和国的垂死挣扎”,并指责政府放弃战略清晰和相互尊重,转而采取他所形容的“暴徒式”部落主义,对待国内创新者比对待外国对手更为严厉。

据报道,数百名来自OpenAI和谷歌的员工已呼吁国防部撤销对Anthropic的供应链风险认定,并呼吁国会关注这一被他们视为可能是不当使用政府权力对待美国科技企业的行为。这些员工同时敦促各自公司管理层保持一致立场,继续拒绝国防部提出的、将人工智能模型用于国内大规模监控以及“无人监督下自主杀人”的相关要求。
报道指出,TechCrunch已就此事联系Anthropic寻求置评。
在上述争议期间,OpenAI与国防部达成协议,允许军方将其人工智能系统用于“所有合法目的”。部分OpenAI员工对协议措辞表示担忧,认为其中的模糊空间可能为类似Anthropic所试图避免的用途打开大门。
阿莫代在此前表态中将国防部的做法形容为“报复性和惩罚性”。据报道,他拒绝公开赞扬或向特朗普总统捐款,被认为是其与五角大楼关系紧张的原因之一。报道还提到,OpenAI总裁格雷格·布罗克曼(Greg Brockman)是特朗普的坚定支持者,近期向MAGA Inc.超级政治行动委员会捐赠了2500万美元。