新研究警示慈善机构勿走“AI同理心捷径”

东英吉利大学(UEA)最新发布的一份研究报告指出,慈善机构在宣传活动中采用人工智能(AI)生成图像,可能带来比许多组织预期更复杂的声誉风险。在人道主义预算趋紧、内容制作压力上升的背景下,慈善机构和非政府组织因AI在速度、成本效率与创意灵活性方面的优势而加速尝试相关工具,但研究认为,这类“高科技捷径”可能削弱公众信任。

报告称,尽管AI为制作宣传视觉材料提供了更便宜、更快速的路径,但其副作用可能是破坏慈善机构与公众之间的基本信任纽带。研究团队表示,当受众开始质疑所见内容是否真实时,支撑捐助与支持的情感连接会受到影响。

这份题为《人工真实性》的报告分析了171张AI生成图像,并梳理了围绕17个组织宣传活动的400多条公众评论。被纳入分析的组织包括国际特赦组织、国际计划组织、世界卫生组织(WHO)和世界自然基金会(WWF)等。

研究发现,在使用AI图像的情境下,公众讨论的重心出现变化:人道主义议题本身在讨论中被弱化,互动更多转向对技术与真实性的质疑。UEA全球发展学院联合作者David Girling表示,慈善机构的存在基础在于公众对他人的关切,而当观众质疑内容真实性时,驱动支持的情感联系将面临威胁。他同时指出,围绕AI伦理的讨论日益两极化,AI本身并非错误,但若其掩盖慈善工作的核心人文叙事,组织在信任层面的损失可能超过效率收益。

报告列出的主要发现包括:近70%的AI图像被设计为逼真照片风格;在主题分布上,贫困相关内容占比最高,约三分之一(171张中51张),且多以儿童为主体,其次为环境主题(35张)与人权主题(32张)。

在透明披露方面,研究称85%的图像明确标注为AI生成,但即便如此,仍未能使相关事业与组织免于公众反弹。对于未披露使用AI的活动,评论区更常出现“调查性语气”,受众不再评估慈善工作本身,而是将注意力集中在图像是否为人工合成。

研究还提到“信息与媒介不匹配”会引发显著反弹。例如,丹麦世界自然基金会因使用高能耗的AI工具推广可持续发展而遭到批评,有评论者将其称为“生态杀手”。

与此同时,报告也记录了更为复杂的公众态度:部分人认可模拟视觉可在叙事与尊严保护之间取得平衡,减少受助者在拍摄或录制宣传材料过程中可能遭遇的二次创伤;但研究显示,捐赠者往往拒绝这些被视为“假”的图像,更强调自身对“真实见证”的需求,而非受益者隐私权。

在对评论内容的统计中,研究团队称,讨论往往从公益议题转向技术与信任争论:141条评论聚焦AI伦理与真实性问题,122条批评技术执行与视觉质量,仅80条(不足20%)真正涉及人道主义议题本身。研究还指出,在癌症、饥荒等情感敏感的宣传场景中,AI更容易被批评为分散对解决方案的关注。

联合作者、前UEA全球发展学院硕士生、现为媒体、传播与发展顾问的Deborah Adesina表示,慈善叙事的走向不仅取决于技术能力,也取决于组织能否在受众媒介素养提升且更趋怀疑的环境中维持合法性、透明度与道德一致性。她同时提到,对于将生成式AI纳入工作流程的传播团队,开展“伦理提示工程”培训有助于降低声誉损害与无意偏见的风险。

报告《人工真实性:人工智能生成图像在慈善与发展传播中的兴起》在梳理现有实践的同时,也提出若干建议,包括与技术供应商及AI公司合作,开发面向慈善行业的专用工具,并在其中加入偏见检测、刻板印象警示以及针对人道主义表达的伦理防护措施。

研究还建议,若组织选择使用AI生成图像,应与当地社区共同创作,邀请其参与创意过程,包括生成提示词与最终图像审批,以提升图像准确性并符合文化规范。


分享:


发表评论

登录后才可评论。 去登录