一张显示大量新挖墓穴的航拍照片近日在社交媒体广泛流传。画面中,墓穴整齐排列,每排约20个,现场已挖出60多个墓穴,地面还标注出更多矩形轮廓,挖掘机在旁作业,多人聚集在周围。
这张照片被部分网民称为伊朗米纳卜(Minab)墓地,拍摄时间为当地准备安葬100多名年轻女孩之际,并被视为美以对伊朗战争相关报道中呈现平民伤亡的一张标志性影像。随着传播扩大,照片真实性也引发争议。
在核实过程中,谷歌支持的AI服务Gemini给出否定结论,称该图像并非来自伊朗,而是“2023年7.8级地震后土耳其卡赫拉曼马拉什的大规模墓地”,并表示该航拍视角曾在灾难报道中广泛传播。与此同时,一些用户在X平台向AI助手Grok求证,Grok同样否认照片来自伊朗,但给出的说法不同:该图像“来自印度尼西亚雅加达罗罗坦墓地”,并称其为“2021年7月新冠疫情大规模安葬的库存照片”。
不过,研究人员在追溯Gemini与Grok所提供的“来源”线索时表示,相关链接或指向不存在的新闻报道,或无法找到对应原始图片。尽管两款AI工具的回答语气确定,并提供了可供核查的细节,但结论被指为错误。
多名研究人员随后通过卫星影像对地点进行交叉验证,并将该航拍画面与从不同角度拍摄的数十张同一地点照片及视频资料进行比对。专家称,这些材料之间能够相互印证,且未发现篡改或数字处理迹象。据此,研究人员认为该墓地照片为真实影像。
事实核查人员指出,围绕伊朗战争的信息传播中,除伪造图片外,还出现了大量由生成式AI推动的“AI垃圾”内容,包括虚构事实、错误分析以及伪造图像,不仅消耗调查时间,也可能在舆论层面引发对已发生事件的否认。
BBC Verify团队高级记者Shayan Sardarizadeh表示,该团队在核查中看到的生成式AI相关错误信息占比正在上升。其举例称,网络上曾流传一张据称显示美国雷达在卡塔尔被摧毁的卫星图像,后被揭露为基于旧谷歌地球图片生成的AI伪造,破绽之一是车辆位置与两年前画面完全一致。另有一张“哈梅内伊遗体从废墟中被拉出”的图片中,救援人员出现重复肢体等异常。
Sardarizadeh还提到,一张声称显示伊朗高级指挥官在德黑兰伪装成女性以避免暗杀的假图,背景街道与建筑看似真实,增加了误导性。他表示,与加沙或乌克兰战争初期常见的旧视频、无关视频或游戏画面再利用不同,如今“几乎一半甚至更多的病毒性谣言”来自生成式AI。

核查人员认为,变化不仅来自生成工具更易获得,也与公众越来越多使用AI来获取信息有关。文中提到,谷歌AI摘要与Grok在2024年中期面向国际公众推出后迅速普及:65%的人表示经常看到AI新闻摘要,过去一年使用生成式AI获取信息的人数翻了一番。与此同时,AI摘要的准确性问题也受到关注:2025年一项国际研究发现,约一半AI生成摘要存在至少一个重大来源或准确性问题,其中谷歌Gemini界面相关比例高达76%。
在伊朗战争相关案例中,核查人员还提到其他误导性内容:例如Grok曾向X用户错误暗示一段德黑兰火灾视频实际拍摄于2017年洛杉矶;另有用户引用“AI分析”错误识别米纳卜学校附近拍摄的导弹。文中称,多位军火专家将其认定为美国“战斧”导弹,这一结论得到现场发现的碎片以及美国内部轰炸简报的支持。
Sardarizadeh表示,事实核查人员如今常常需要同时应对虚假帖子本身,以及聊天机器人围绕该帖子给出的误导性说法。
开源情报分析师兼媒体素养教育者Tal Hagin指出,大型语言模型本质上是概率语言模型,逐词生成最可能的表达方式,输出看似权威并不等同于对材料完成了真实分析。他表示,AI常被视为“无所不知、无情感的实体”,从而更容易获得信任,但“你使用的实际上是一个非常先进的概率机器,而不是一个真理盒子”。
文中还提到,AI以“报告”形式呈现结果时,往往会生成包含姓名、日期、引用与来源的细节,增强可信度,但这些内容可能并不存在。《卫报》在质疑Gemini对米纳卜照片的判断并要求其“再搜索一次”后,Gemini多次修改答案,却先后给出加沙、疫情期间德黑兰、伊朗南部地震等不同说法,仍未能提供准确溯源。
截至发稿,X与谷歌未回应置评请求。两家平台的AI服务细则均提示可能产生不准确结果。
独立开源调查员Chris Osieck表示,研究人员的时间正被大量用于识别与拆解AI生成材料,例如核查AI视频往往需要逐帧检查视觉差异。他称,这些时间原本可以用于记录战争对卷入冲突人群的影响。
研究人员同时担忧,即便在证据链较为充分的案例中,大量AI生成内容也可能在公众心中制造怀疑,使真实暴行的影像被误认为伪造。Sardarizadeh称,他已在加沙与乌克兰冲突中见过类似情况。Osieck则表示,错误信息与猜疑可能掩盖追责努力,也会伤害遇难者家属,“想象一下失去孩子后,却看到AI在网上宣称事件根本未发生”。
