人工智能公司Anthropic首席执行官Dario Amodei近日就美国国防部和白宫有关限制其产品在军事合同中使用的决定作出公开回应。
据CBS新闻周六播出的采访内容,Amodei表示,Anthropic反对其人工智能模型被用于大规模国内监控,以及能够在无人干预情况下开火的全自动武器系统。他称,除上述两类用途外,公司对美国政府提出的其他人工智能使用场景“都表示认可”。
Amodei在采访中说,不被政府监视以及由军官而非机器作出战争决策,是“美国人的基本权利”。他同时表示,美国国防部将Anthropic列为“供应链风险”,并据此要求军事防务承包商不得在国防合同工作中使用Anthropic产品,这一做法“前所未有”且具有“惩罚性”。
在谈及未来技术发展时,Amodei补充称,他并不原则性反对其他国家军队未来可能发展全自动武器,但认为以当前技术水平,人工智能尚不足以在军事环境中实现可靠的自主运行。

Amodei还指出,现行法律尚未跟上人工智能快速发展的步伐,并呼吁美国国会制定相应“护栏”,以防止人工智能被用于国内大规模监控项目。
此前一天,美国“战争部长”Pete Hegseth宣布,Anthropic被认定为“国家安全的供应链风险”。他表示,即刻起,任何与美国军方有业务往来的承包商、供应商或合作伙伴不得与Anthropic开展任何商业活动。
在相关决定公布数小时后,竞争对手人工智能公司OpenAI与美国国防部达成合同,将其人工智能模型部署至军事网络。OpenAI首席执行官Sam Altman宣布这一交易后,在网络上引发批评。有批评者指出,将人工智能用于大规模国内监控和破坏个人隐私,被视为不可逾越的“红线”。
Amodei在采访中还表示,据其了解,Anthropic是首家在美国军方机密云网络上部署其人工智能模型的企业。