据《华盛顿邮报》报道,美国军方在近期对伊朗的军事行动中,在首个24小时内打击了约1000个目标,其中部分行动依托人工智能系统完成情报处理和目标筛选。报道提到,美军在相关行动中结合使用了Anthropic开发的AI工具Claude以及Palantir的Maven系统,用于支持在伊朗和委内瑞拉方向的作战行动,实现对潜在目标的实时定位和优先级排序。
佐治亚理工学院网络安全与隐私及国际事务副教授、曾任美国海军情报官员的Jon R. Lindsay表示,类似Claude的系统虽然问世时间不长,但美军在作战中运用人工智能的能力并非短期形成,而是建立在长期基础设施建设和人员训练之上。他认为,数字系统的效能高度依赖使用它们的组织,一些组织可能无法充分发挥先进技术的潜力,而另一些则可以通过组织能力弥补技术局限。
军事AI以决策支持系统为主
Lindsay指出,公众对军事人工智能的认知常受科幻作品影响,关于“杀手机器人”和无人机集群的讨论往往夸大了系统的自主性,忽视了人类在作战中的核心作用。现实中,军事AI大致可分为自动武器系统和决策支持系统两类,其中后者已成为多数现代军队的关键组成部分。
自动武器系统具备在一定条件下自主选择或攻击目标的能力,因其潜在风险而备受争议。而决策支持系统则主要为人员提供情报分析和作战规划信息,被广泛用于情报处理、战役筹划、战斗管理、通信、后勤、行政和网络安全等领域。Lindsay指出,包括当前及近期中东地区的多项军事AI应用,主要属于决策支持系统,而非直接武器系统。
据介绍,Claude在美军体系中被嵌入到Maven智能系统内。Maven利用AI算法从卫星及其他情报来源中识别潜在目标,Claude则协助作战筹划人员整理信息、梳理目标清单并进行优先级排序。Lindsay称,以色列在加沙及其他地区使用的Lavender和Gospel系统同样属于决策支持系统,这些系统提供分析和规划支持,但最终是否实施打击以及如何打击,仍由人类人员决定。
自动化技术在军事领域已应用逾百年
Lindsay回顾称,具备一定自主能力的武器在战争中已存在逾百年。19世纪的海军水雷可在触碰后自动引爆,二战时期德国导弹使用陀螺仪进行制导,自导鱼雷和红外制导导弹则能够修正航向以拦截机动目标。以色列“铁穹”和美国“爱国者”等防空系统长期具备全自动作战模式。
进入21世纪,无人机在陆、海、空及轨道等多种环境中被广泛用于执行侦察和打击任务。美国MQ-9“死神”和以色列Hermes 900等远程遥控无人机可以在空中长时间盘旋,执行情报收集和精确打击。俄乌冲突中,双方大量使用第一人称视角无人机作为自杀式弹药,其中部分平台在电子干扰环境下依赖AI进行目标获取和飞行控制。
在Lindsay看来,自动化侦察和打击系统只是军事自动化的一部分。随着侦察范围扩大和打击节奏加快,军队需要处理的信息量急剧上升,这推动了决策支持系统的发展。他将自动武器比作军队的“眼睛”和“手臂”,而决策支持系统则被视为增强“脑力”的工具。
他指出,冷战时期的指挥控制系统已初步体现现代决策支持系统的特征。例如,以色列的AI辅助战斗管理系统Tzayad,美国在20世纪50年代部署的半自动地面环境系统(SAGE),以及越战时期集中处理情报数据、协调对北越补给线空袭的Igloo White系统。美国国防高级研究计划局在20世纪80年代推进的“战略计算”项目,也被认为推动了半导体和专家系统的发展。Lindsay表示,国防资金在人工智能早期发展中发挥了重要作用。
组织能力决定AI作战成效
Lindsay认为,自动武器和决策支持系统的有效运用依赖相应的组织创新。从越战时期的“电子战场”,到冷战末期的空地一体战理论,再到后来的“网络中心战”概念,美国军方持续调整作战理念和组织结构,以适应自动化和数字化技术。

他特别提到,美国在全球反恐战争期间形成的新型特种作战模式。AI辅助的决策支持系统在追踪恐怖分子、规划突袭行动以及分析行动中获取的情报方面逐渐成为关键工具,Maven等系统在这一过程中作用突出。
在他看来,美国在委内瑞拉和伊朗方向展示的作战方式,是数十年反复试验和流程打磨的结果。美军在多源情报收集、目标系统分析、打击方案评估、联合行动协调以及战果评估等环节形成了复杂流程,AI技术贯穿整个“目标锁定周期”,但其运转依赖大量人员在后台支撑。
Lindsay同时指出,AI在军事领域的应用引发了对“自动化偏见”的担忧,即人员可能过度依赖自动化系统给出的判断,尤其是在目标选择方面。他表示,这类问题并非首次出现。越战时期,Igloo White系统曾被越南方面的诱饵误导;1988年,一艘装备先进宙斯盾系统的美国巡洋舰误击一架伊朗民航客机;1999年,情报错误导致美国隐形轰炸机误炸位于贝尔格莱德的中国大使馆。
他还提到,许多伊拉克和阿富汗平民死于美军内部分析失误和文化偏见。近期有证据显示,一枚战斧巡航导弹击中了伊朗一处海军基地附近的一所女子学校,造成约175人死亡,其中大多数为学生。Lindsay认为,这一事件很可能与美国情报失误有关。
人工智能无法替代人类判断
在Lindsay看来,决策支持系统在战争中的表现更多取决于组织因素,而非单纯技术水平。AI可以提高组织效率,也可能放大既有偏见。他指出,在讨论加沙地带平民伤亡问题时,外界有时将责任集中归因于Lavender等系统,但以色列的交战规则宽严程度,可能比自动化偏见本身更具决定性。
他强调,顾名思义,决策支持系统的功能是“支持”而非“替代”决策。人类人员仍在系统设计、运行管理、结果解释、信息核查、效果评估以及系统维护和防护等环节发挥关键作用,指挥官依然掌握最终决策权。
从经济学角度看,Lindsay将AI概括为一种“提升预测能力”的工具,即基于现有数据生成新的预测数据。但他指出,预测只是决策过程的一部分,真正的决策仍由人类完成。人类负责确定需要什么样的预测、如何使用这些预测,并在此基础上作出与偏好、价值观和现实后果相关的选择,而AI系统本身并不具备这些属性。
Lindsay据此认为,随着AI在军事领域的应用不断扩大,人类在战争中的重要性并未降低,反而在某些方面有所增强。
(本文根据The Conversation网站刊载的Jon R. Lindsay文章整理。)