随着生成式技术的普及,利用人工智能制造和放大错误信息的案例正在快速增多,引发学界和媒体对信息生态的持续关注。
麻省理工学院一支团队近期在《时代》杂志报道中被提及。该团队维护着一个在线门户网站,用于记录近年来各类“有害AI事件”的增长情况。相关记录显示,无论是出于故意还是无意,借助AI造成伤害的事件在过去几年显著上升,范围从简单错误到蓄意违规不等。其中,与错误信息和恶意行为者相关的广泛类别增幅最大。
研究者指出,这一趋势在逻辑上并不意外:试图误导公众、散布虚假信息或实施诈骗的行为者,正获得前所未有的技术工具。
媒体揭露能力与错误信息扩散的落差
在部分高调案例中,新闻机构仍在发挥“纠错”作用。例如,美国联邦通信委员会(FCC)曾披露,涉及美国总统拜登的AI“深度伪造”机器人电话事件,引发舆论关注并迅速被媒体揭穿。类似事件通常会在短时间内被识别和报道。
不过,业内人士指出,这类广受关注的案例只是少数。现有数据表明,规模较小、隐蔽性更强的错误信息事件正在快速累积,例如利用大量伪造网站实施诈骗等。与此同时,新闻行业岗位数量持续减少,留在一线的记者可投入核查的时间和资源有限,难以对所有信息进行逐一验证。
在此背景下,部分从业者开始尝试借助工具进行初步筛查。例如,有用户在收到陌生机构推介融资服务的邮件后,通过一款内置AI助手的浏览器进行核查。该助手在数秒内指出,邮件缺少成熟机构通常会提供的关键信息,发件人域名不存在,且未能在LinkedIn上找到对应资料,从而提示邮件存在可疑之处。
研究:接触AI错误信息削弱整体媒体信任
国家经济研究局(NBER)去年发布的一篇论文显示,接触由AI驱动的错误信息,会导致受众对媒体整体信任度下降。研究认为,随着AI错误信息扩散,公众对所读、所见、所闻内容的怀疑情绪明显上升。
业内观点认为,单纯的怀疑并不足以构成有效应对策略。记者和媒体机构难以也不可能逐一揭穿每一则深度伪造或骗局,这在现实中是一场“必败的战斗”。更具可行性的路径,是通过报道和实践,帮助受众学会如何“正确使用怀疑”,并掌握基本的验证方法。
将AI视作“怀疑助手”而非权威
目前,各类验证工具已更易为公众获取,包括可快速核查来源、分析陈述、检索支持证据的在线服务。业内人士强调,这并不意味着应当无条件信任任何AI系统对新闻事件的回答,而是应将其视为辅助工具。

在上述邮件核查案例中,浏览器助手在短时间内完成了人工需要数分钟才能完成的工作:检索背景信息、标记不一致之处,并提示进一步追问的方向。这类用法被认为与传统新闻工作中的核查原则相契合,即通过系统性提问和交叉验证,帮助用户在不陷入全面否定的前提下识别错误信息。
有观点提出,关键在于将AI定位为“怀疑的助手”,而非信息“最终裁决者”。在此框架下,工具用于放大和组织人的怀疑,而不是替代人的判断。
建立“AI验证层”的三项实用习惯
围绕“良好的AI验证层应如何运作”这一问题,部分新闻从业者基于传统采访与核查原则,总结出几项适用于各类AI工具的操作习惯:
-
同一问题换角度再问一遍
多起AI相关伤害事件显示,用户往往是在不知不觉中被引向信息“兔子洞”。一种做法是就同一问题以不同表述或角度向工具提问两次,对比答案,并对明显不一致之处进行追问。 -
要求具体细节
当AI给出宽泛主张或结论时,建议要求其具体说明:这一主张基于哪些事实?涉及哪些主体?时间、地点和基础证据为何?若回答始终停留在模糊层面,可视作潜在风险信号。 -
抽查关键来源
若回答引用了网络链接或外部来源,用户可在一两分钟内对部分关键链接进行抽查。若在合理时间内无法验证,应提高警惕。同时,也需意识到,部分真实信息可能因匿名消息源等原因难以完全公开验证。
在怀疑与愤世嫉俗之间划清界限
在AI“幻觉”、蓄意虚假信息以及流行文化内容大量涌现的环境中,公众对信息持更高怀疑态度被认为是可以理解的。但业内人士提醒,如果缺乏相应原则和习惯来引导信息获取,怀疑情绪容易演变为全面否定和愤世嫉俗。
在新闻机构资源有限、无法验证所有信息的现实条件下,新闻职业原则和方法论被视为仍具价值的“公共产品”。通过将这些原则转化为面向普通用户的实用习惯,有望在更大范围内提升信息辨别能力,为应对AI时代的错误信息扩散提供一层必要的“验证防线”。
