“看起来像真的”:政治深度伪造数量攀升,研究称即便明知虚假仍具影响力

richlovec 1500_400 (1)
 

网络内容创作者正越来越多地利用生成式人工智能制作政治相关的虚假图像与视频,既用于吸引流量和变现,也可能服务于宣传目的。多位研究人员表示,这类内容在社交平台上扩散后,即便受众知道其并非真实记录,仍可能对观感与态度产生影响。

普渡大学技术政策助理教授、治理与负责任人工智能实验室(Grail)联合主任丹尼尔·希夫(Daniel Schiff)表示,生成式AI的发展正在“模糊政治漫画与现实之间的界限”,不少人会觉得这些图像、视频或其叙事“感觉是真实的”。

Grail数据库显示,政治深度伪造数量近年显著上升。该组织称,自2025年初以来,已记录超过1000条英文社交媒体帖子,内容包含知名政治人物以及具有政治重要性的社会议题和事件的假图像或视频;而在此前八年内,相关记录总计为1344起。希夫将增长主要归因于生成式AI技术进步,使此类内容能够被快速制作。

致力于人权与打击欺骗性AI的组织Witness执行董事萨姆·格雷戈里(Sam Gregory)表示,如今“生成看起来相当逼真的场景变得极其简单,并能将真实个体置入场景中”。他同时指出,模仿普通人、而非知名人物的虚构形象传播,带来的是另一类风险。

虚构军装形象引流变现

据《快公司》报道,2025年12月,一个名为“杰西卡·福斯特”(Jessica Foster)的Instagram账户上线,展示一名由AI生成的金发女性形象,常身着美国军装。该账户发布的内容包括在军营上下铺床上的照片、坐在办公椅上将双脚搭在桌上的照片,以及穿高跟鞋在停机坪上与唐纳德·特朗普并肩行走的画面,创作者刻意突出鞋子与脚部。

报道指出,“福斯特”并非真实人物,但其Instagram粉丝数超过100万。随后,这些帖子被引导至OnlyFans账户,访客可购买据称为“福斯特”的脚部照片。《华盛顿邮报》提到,有用户在Instagram上询问该账户“为什么从不回复”。该账户近日已被删除。

格雷戈里表示,大量AI生成内容的主要目的在于获取点击与收益,或将受众导向“更有利可图的地方”。

从引流到政治用途

研究人员称,同样的工具也可能被用于政治传播。英国广播公司报道称,在伊朗战争期间,社交媒体出现大量假冒女性伊朗士兵的视频,视频中她们说“亲爱的,来伊朗吧”。报道指出,其中一个明显破绽在于伊朗禁止女性担任战斗岗位。

此外,创作者还制作了一个AI生成的女性警察形象,在TikTok上拥有超过2.6万粉丝。其一段视频中,该形象微笑并配文称:“特朗普总统驱逐了超过250万人出境。这是你投票支持的吗?是的。”该视频获得200多个点赞和23条评论,其中包括“绝对是的”。

Grail数据库还显示,2024年大选期间,特朗普曾分享描绘泰勒·斯威夫特粉丝支持他的AI生成图像。自2024年以来,特朗普及白宫在社交媒体上至少分享过18个深度伪造作品。

相关现象并不局限于右翼阵营。加州州长加文·纽森(Gavin Newsom)也开始分享针对特朗普的深度伪造内容,其中包括一张显示特朗普总统对杰弗里·爱泼斯坦全息影像微笑的图像。

研究:明知虚假仍可能“有效”

研究人员表示,政治深度伪造的影响力并不完全取决于受众是否相信其为真。格雷戈里以“福斯特”内容为例称,该形象穿高跟鞋、军装与军徽细节存在明显错误,也没有合理理由与特朗普总统及尼古拉斯·马杜罗同框;这些内容经不起推敲,但受众未必在寻找真实记录,而是在寻找能够代表自身信念的符号。

布鲁金斯学会人工智能与新兴技术项目研究员瓦莱丽·维尔查夫特(Valerie Wirtschafter)表示,深度伪造可能降低人们重新审视既有观点的可能性,更多是在强化其原本认为真实的信念。

标注与溯源机制推进,但执行不一

研究人员担忧,相关情况可能进一步恶化。《科学》杂志近期一项研究提到,用于制作上述虚构形象的技术也可能被用于构建所谓“AI群体”,其特征包括“自主协调、渗透社区并高效制造共识”。维尔查夫特将其形容为“有点像水军,但不再需要真正的人”。

在应对层面,内容来源与真实性联盟(Content Provenance and Authenticity Alliance)表示,其正在开发一项技术标准,用于为出版者、创作者与消费者建立数字内容来源与编辑记录。格雷戈里介绍,该技术可嵌入相机拍摄的照片或由AI工具创建、编辑的内容中,并在平台分发时携带加密签名的元数据,供平台据此标注内容是否包含AI生成元素。

多家平台已承诺对AI生成内容进行标注,包括LinkedIn、Pinterest、TikTok和YouTube。但媒体机构Indicator的一名调查员近期在这些平台发布200张AI生成图像与视频进行测试,结果显示,表现相对积极的LinkedIn和Pinterest也仅标注了67%的内容;Instagram在105张假图像中仅标注15张。

Meta监督委员会近期也表示,担忧该公司在执行联盟标准方面存在不一致,甚至对自家AI工具生成的内容亦如此,只有部分内容得到适当标注。格雷戈里认为,标注不一致与大型科技公司高层“政治意愿的缺失”有关,并称无需放弃辨别真实与合成内容的能力,但需要迅速行动。


分享:


发表评论

登录后才可评论。 去登录