美国国防部与Anthropic就AI安全限制争执升级,折射军用场景伦理与管控分歧

richlovec 1500_400 (1)
 

Anthropic与美国国防部围绕其人工智能模型可施加的安全限制持续拉锯,引发科技行业对人工智能在战争与国家安全场景中使用边界的关注。争议焦点之一是,Anthropic拒绝允许联邦政府将其Claude模型用于国内大规模监控或致命自主武器系统。

本周,五角大楼宣布,因Anthropic拒绝接受政府条款,该公司被视为“供应链风险”。Anthropic则表示将通过法律途径挑战这一认定。

据《卫报》报道,康奈尔大学科技政策研究所所长、曾在美国空军服役并参与新技术开发与采购的Sarah Kreps在受访时表示,当消费级或商用技术被快速整合进机密与军事用途时,往往会暴露出军方需求与企业安全治理理念之间的结构性差异。她称,军方对相关工具的需求具有紧迫性,难以等待“军用级版本”成熟;与此同时,企业尤其是以“安全优先”定位的人工智能公司,可能在文化与治理方式上与军方产生摩擦。

Kreps指出,Anthropic一方面强调安全优先,另一方面又与五角大楼及Palantir等机构或企业开展合作,这种组合在外界看来可能与其品牌叙事存在张力。她提到,Anthropic似乎对技术的广泛应用保持开放,但对国内大规模监控与致命自主武器划定红线。

在Kreps看来,争执背后还涉及“合法使用”的界定分歧,以及国家安全决策中私营科技公司应扮演何种角色的问题。她转述五角大楼的部分观点称,在国家防御议题上,军方不希望在每次使用相关技术时都需要向企业负责人寻求批准。

Kreps并将此类矛盾与2016年“圣贝纳迪诺枪手iPhone解锁”事件类比:当技术一旦交付并进入国家安全体系,企业对其后续用途的约束能力可能显著下降。她表示,与硬件不同,软件在交付后可能被重新用途化,甚至以国家安全为由在原协议边界之外使用;在机密系统与封闭行动环境中,企业也可能难以获知其技术的具体使用方式。

谈及人工智能在军事场景的现实用途,Kreps表示,情报工作面临的挑战往往不是信息不足,而是“信号与噪声”的比例失衡:数据量巨大但线索难以串联,而人工智能在从海量信息中提取模式、辅助识别关键线索方面具备优势。她举例称,在较为具体的目标识别任务中,人工智能可依据预设特征进行识别,例如识别特定海军舰艇等。

不过,她也指出,更具争议与不确定性的情形出现在反恐等任务中:地面目标个体可能缺乏清晰可辨的特征,战斗人员与平民的区分更为困难,需要更高强度的核验流程。她表示,美国方面称不会让人工智能“完全自主”地用于致命决策,但如何确保“有人类参与”的具体机制仍不清晰,而这类问题随着技术进步与冲突需求的叠加而被加速推到台前。


分享:


发表评论

登录后才可评论。 去登录