以色列军方曾在第二次巴勒斯坦起义期间使用一种被称为“迷雾程序”的做法:在能见度低的条件下,守卫哨所的士兵被要求向黑暗中连射枪火,以应对可能存在但无法确认的威胁。相关讨论认为,这种在信息不充分情况下以“威慑”为名实施武力的逻辑,正在随着人工智能被引入战场而被系统化、自动化。
在加沙冲突中,以色列的作战方式被部分报道描述为首场“人工智能战争”。报道指出,人工智能系统在生成针对哈马斯与伊斯兰圣战组织成员的目标名单中发挥核心作用:系统处理数十亿数据点,对个人是否为战斗人员进行概率评估,并据此形成排序名单。相关观点认为,与地形导致的“看不清”不同,算法层面的不透明与信息缺口在一定程度上源于系统设计与流程安排。
围绕伊朗战事,文中提及一处发生在伊朗南部米纳卜(Minab)的打击事件:Shajareh Tayyebeh小学遭袭,至少168人死亡,死者多数为7至12岁的女童。弹药专家被引述称打击“极其准确”,多栋建筑被分别命中。文中同时称,问题焦点不在武器执行精度,而在目标情报与识别流程:该校与邻近革命卫队基地之间有围栏隔开,且学校在近十年前已改作民用,但这一信息在目标识别链条的某个环节似乎未被更新。
对于人工智能在米纳卜事件中的具体作用,文中称尚无官方确认。但文中指出,相关目标识别基础设施缺乏可靠机制来标记基础情报已过时多年。文中还称,为在伊朗战役前24小时内打击1000个目标,美军依赖人工智能系统以人类团队难以复制的速度生成、优先排序并排名目标名单。
在“当人工智能致命时,谁来负责?”这一争议上,文中回溯了2014年7月加沙海滩巴克尔家族四名男孩(伊斯梅尔、扎卡里亚、阿赫德和穆罕默德,9至11岁)遇袭身亡事件,并强调该事件并未涉及人工智能。文中称,该地点此前被归类为哈马斯海军基地,男孩的行动被套入“可疑目标模板”;第一枚导弹击中后,幸存者逃跑,无人机跟踪并再次开火。一名军官后来作证称,从垂直空中视角难以识别儿童,该袭击被记录为目标错误。
关于加沙平民伤亡比例,文中援引《卫报》、+972杂志与Local Call审阅的一份以色列机密军事数据库称:在加沙记录的超过53000人死亡中,被点名的哈马斯与伊斯兰圣战战斗人员约占17%,其余83%为平民。文中同时提到,以色列国防军否认《卫报》文章中提出的数据,但未具体指出哪些数据存在问题。
文中认为,人工智能目标系统并非创造上述逻辑,而是将其编码并扩大到超出有效人工核查的规模。文中描述称,在加沙,一套算法处理当地所有人的数据(包括电话记录、移动模式、社交关系与行为信号),生成排名名单并为每个名字分配概率分数。文中称,核查环节中人工操作员平均审查每个名字约20秒,主要用于确认目标为男性并签字批准;单一系统在战争初期数周内产生超过37000个目标,另一系统每天可生成100个潜在轰炸地点。
在伊朗战事方面,文中称两名消息人士向NBC新闻确认,Palantir的人工智能系统部分基于大型语言模型技术用于识别目标。文中还提到,Palantir首席执行官亚历克斯·卡普在CNBC被问及此事时表示“不能透露细节”,但称Claude仍集成在Palantir用于伊朗战争的系统中。另据文中引述,美国中央司令部负责人布拉德·库珀表示军方在伊朗使用人工智能“秒级筛选海量数据”,以“比敌人反应更快做出更智能决策”。

围绕企业角色与监管,文中将Palantir、Anthropic、谷歌、亚马逊、微软、Anduril与OpenAI等公司置于讨论中心。文中称,Palantir成立时获得中央情报局早期资金支持,目前是美国军方主要的人工智能基础设施供应商;其系统部分依赖Anthropic的Claude大型语言模型。文中还称,Anthropic曾试图抵制五角大楼要求取消其用于目标识别的伦理限制,五角大楼则威胁切断合作并转向OpenAI等公司。
在云服务与合同方面,文中提到谷歌在内部员工抗议背景下仍签署了价值逾10亿美元的Project Nimbus云计算与人工智能合同,为以色列政府和军方提供服务;亚马逊为该项目共同签署方。文中还称,微软在2024年部分撤出以色列军事系统集成后,相关数据在数日内迁移至亚马逊云服务。
在武器系统与条款变化方面,文中称由帕尔默·拉基创立的Anduril专门制造用于致命打击的自主武器系统;OpenAI此前在服务条款中禁止军事用途,但在2024年初取消该限制,随后寻求五角大楼合同。
文中指出,传统军工企业通常存在较明确的问责链条与监管安排(包括出口管制、国会监督与采购条件),而编写目标识别算法的企业所受监管相对薄弱。文中还提到游说活动:Palantir在2024年游说华盛顿近600万美元,且在2023年某季度的游说支出超过诺斯罗普·格鲁曼;并称Palantir、Anduril、OpenAI、SpaceX与Scale AI组成联盟,参与者将其描述为向美国政府供应“新一代国防承包商”的项目。
在制度层面,文中提到欧盟《人工智能法案》将军事与国家安全应用排除在外,理由是国际人道法更为适用;同时指出美国2025年国防授权法案中的人工智能条款并未对军事人工智能设限,而是指示机构采用更多人工智能。文中还称,2026年1月发布的皮特·赫格塞斯人工智能战略将相关问题框定为竞赛,要求五角大楼以战时速度推进。
关于可能的监管方向,文中提出用于目标识别的人工智能系统应具备可解释性,不应仅输出概率分数,而应提供可供法律审计的推理;并称人工智能辅助战役的累计平民代价应进行整体评估,责任不应止于操作员,还应延伸至明知系统不透明仍将其销售用于武装冲突的供应链企业。文中同时提到,国际法院关于巴勒斯坦权利的咨询意见被认为为相关企业在重视国际法的司法辖区面临潜在责任提供了框架。
文末指出,随着人工智能更深度进入目标识别与打击链条,围绕核查程序、透明度与责任归属的争议仍在扩大,而相关企业在现代战争体系中的定位与监管边界,正成为各方关注的焦点。
文中作者信息:Avner Gvaryahu为牛津大学布拉瓦特尼克政府学院博士研究员,曾任以色列退伍军人维权组织“打破沉默”执行董事。
