Anthropic与美国国防部围绕其人工智能模型可施加的安全限制持续拉锯,引发科技行业关注。外界将这场争执视为人工智能在战争与国家安全领域如何使用、以及政府在采购与合规要求上对企业施加影响力的一次关键检验。
争议焦点之一在于,Anthropic拒绝允许联邦政府将其Claude人工智能用于国内大规模监控或致命自主武器系统。美国国防部本周宣布将Anthropic认定为“供应链风险”,理由是该公司拒绝同意政府提出的相关条款;Anthropic则表示将通过法律途径挑战这一认定。
《卫报》就此采访了康奈尔大学科技政策研究所所长Sarah Kreps。Kreps曾在美国空军服役,并长期研究“军民两用技术”议题。她表示,军方在引入商业技术时面临现实压力:相关工具“非常有用”,难以等待专门的军用版本成熟,因此需要快速部署;但军方文化与一家强调“安全优先”定位的人工智能公司之间,容易在使用边界与风险控制上出现分歧。
Kreps指出,Anthropic一方面强调安全形象,另一方面又与军方签署协议,这使得公司对当前局面感到意外在她看来“在某种程度上令人意外”。她提到,Anthropic此前似乎更倾向于企业市场路径,意味着其业务更依赖与各类组织合作,而非面向个人用户销售订阅。
在她看来,Anthropic与五角大楼及Palantir的合作也引发外界观感上的张力。她称,Palantir被一些人视为可能将人工智能用于有争议目的的企业,因此相关合作与Anthropic试图塑造的品牌形象之间存在反差。
对于Anthropic在技术使用上“开放”但对国内大规模监控与致命自主武器划出红线的做法,Kreps提出了多种可能解释,包括公司内部人员与特朗普政府之间关系变化导致信任受损,以及围绕委内瑞拉局势、移民与海关执法局(ICE)相关活动所引发的政治争议。她表示,围绕“合法使用”的定义可能存在分歧,不同主体对何为合法的理解并不一致。

Kreps还转述了五角大楼的部分立场:在国家防御议题上,政府不希望每次使用都需要向企业负责人寻求批准。她认为,这触及一个更现实的问题——私营科技公司在国家安全决策中应扮演何种角色。
她并将此与2016年“圣贝纳迪诺枪手iPhone”事件类比:当时联邦调查局要求苹果为嫌疑人手机开后门,苹果以隐私为由拒绝,联邦调查局随后寻求第三方破解设备。Kreps强调,与硬件不同,软件一旦进入军方体系,可能被重新用途化并在国家安全理由下扩展使用方式,从而使企业对用途的约束能力下降。
在Kreps看来,一旦相关系统进入机密环境,企业甚至可能无法得知其技术被用于何种用途。她称,这不仅是“黑箱”,还可能进入更封闭的机密系统与行动体系。
谈及人工智能在军事中的现实用途,Kreps表示,其在情报工作中可用于提高“信号与噪声”的识别效率:面对海量信息,人工智能擅长从大量数据中生成输出,帮助识别关键线索与模式。她举例称,在模式识别任务中,系统可按设定特征识别特定目标,例如识别伊朗海军舰艇;在她看来,这类目标相对具体,争议相对较小。
她同时指出,更引发不安的场景出现在反恐打击等任务中:地面个体缺乏足够可识别特征,误判风险更高,需要更严格的多重确认机制。在这类情境下,目标可能是战斗人员也可能是平民,难以像识别海军舰艇或地对空导弹那样将错误率控制在较低水平。
Kreps还提到,围绕致命自主武器的长期争议正在集中显现,关键挑战在于如何确认是否确有“人类参与”。她表示,美国称不会完全自主使用人工智能,但如何确保这一点的具体过程仍不明确。
