卫报:伊朗冲突凸显人工智能军事应用加速,监管与监督争议升温

richlovec 1500_400 (1)
 

联合国秘书长安东尼奥·古特雷斯本周表示,“未来我们再也不会像现在这样缓慢行动”,并以此强调塑造人工智能使用规则的紧迫性。英国《卫报》在一篇文章中称,技术发展速度与地缘政治动荡正在缩短从讨论到行动的距离,而围绕美国军方人工智能能力的政治争议,正与其在伊朗危机中的使用同步出现。

报道提到,人工智能公司Anthropic表示,无法移除其产品中用于防止美国国防部将相关技术用于国内大规模监控或自主致命武器的安全措施。五角大楼则称对这类用途不感兴趣,但同时认为此类决定不应由企业单方面作出。文章称,政府随后解雇了Anthropic,并将其列入供应链风险黑名单。

据报道,OpenAI随后介入相关合作,并表示其仍遵守Anthropic所称的“红线”。不过,在面对用户与员工反弹的内部回应中,OpenAI首席执行官萨姆·奥特曼承认,公司无法控制五角大楼对其产品的使用,并称该交易的处理方式让OpenAI显得“机会主义且草率”。

“停止杀手机器人”(Stop Killer Robots)组织执行董事妮可·范·鲁伊恩对《卫报》表示,问题不仅在于这些武器是否会被使用,更在于其前身系统已在改变战争方式,并警告“人类控制”存在沦为事后考虑或仅停留在形式上的风险。

《卫报》文章称,相关“范式转变”已经开始。尽管存在争议,据报道Anthropic的Claude被用于推动一场“大规模且日益激烈的攻势”,迄今在伊朗造成估计超过1000名平民死亡。报道援引专家说法称,战争正在进入一个“比思维速度更快的轰炸”时代,人工智能被用于识别并优先排序目标、推荐武器,并评估打击的法律依据。

文章同时指出,人工智能并非造成平民死亡、军事错误或问责不足的前提。报道提到,美国国防部长皮特·赫格塞斯曾“吹嘘放宽交战规则”,并称五角大楼人员回避了外界对2月28日疑似美国对伊朗一所学校打击事件的质询;该事件据称造成165名女学生死亡。

在谈及人工智能在战争中的影响时,报道援引一名以色列情报人士关于加沙战争的说法称,“目标永远不会结束。还有另外36000个等待着。”另有一名人士表示,他花20秒评估每个目标,并称“作为人类,我没有任何附加价值,除了作为批准的印章”。文章称,这种流程变化使大规模杀戮在操作层面被简化,并伴随更强的道德与情感疏离以及问责减少。

《卫报》文章认为,民主监督与多边约束至关重要,不应将关键决策交由企业家与国防部门自行决定。报道提到,在伊朗遭受轰炸之际,各国在日内瓦会晤讨论致命自主武器系统,相关草案文本被视为未来条约的基础。文章称,多数政府希望获得关于军事使用人工智能的明确指导;尽管主要参与方持抵制态度,但仍参与了讨论。

报道还称,人工智能驱动的战争节奏可能使谨慎被视为“将控制权交给对手”,但一些技术工作者与军方官员也意识到,失控扩张带来的风险更大。


分享:


发表评论

登录后才可评论。 去登录