用AI与逝者对话:数字幽灵是安慰良方,还是危险幻觉?——苏黎世大学提出伦理准则

richlovec 1500_400 (1)
 

利用AI重建逝者形象、与之对话的技术,正以“数字幽灵(digital ghosts)”的名义快速走入现实。针对这一趋势,苏黎世大学的研究者系统梳理了相关伦理问题,并提出在何种条件下,这类技术才应被视为可以接受。

研究指出,基于故人生前数据构建的对话式AI,一方面可能为深陷悲痛的人带来慰藉;另一方面,也可能制造危险的心理幻觉,模糊现实与虚构的界限,并侵犯逝者的尊严与隐私。

相关成果发表在论文《The Making of Digital Ghosts: Designing Ethical AI Afterlives》中,由苏黎世大学的 Giovanni Spitale 与 Federico Germani 等人撰写。论文从技术与社会实践的现状出发,系统分析了“AI死后人格”的伦理边界。

什么是“数字幽灵”?AI重建逝者人格

所谓“数字幽灵”,是指基于逝者生前留下的各类数字足迹,构建出的AI人格。常被使用的数据包括:

  • 社交媒体上的发帖与评论
  • 邮件、聊天记录等文字交流
  • 照片与视频资料
  • 语音、录音等声音数据

通过对这些数据进行训练,AI可以在语言风格、表达习惯乃至人格特征上模仿逝者,从而在对话中营造出“仿佛本人在说话”的体验。具体形态可能是文字聊天机器人、语音克隆系统,甚至是具备表情与动作的虚拟影像化身。

研究者将这类技术统称为基于AI的“死后再现技术”,在学术与业界中也常被称为“deadbots”“griefbots”“postmortem avatars”等。

从概念到现实:数字幽灵已成商业服务

论文指出,数字幽灵并非科幻设想,而是已经在现实世界中开始应用。

早在2016年,就有人基于已故友人的聊天记录,制作出可对话的聊天机器人“Roman bot”,引发广泛讨论。此后,在线服务“Project December”也曾被媒体报道:有人利用该平台,将逝去的恋人“重建”为AI,与之持续对话。

近几年,相关商业服务愈发多样化,例如:

  • HereAfter AI:通过生前的深度访谈,生成可与后人对话的语音AI
  • StoryFile:利用视频访谈,构建可交互的影像档案
  • 中国的AI追思服务:仅凭一张照片,就能生成可对话的虚拟头像

这些案例表明,一个由AI支撑的“数字死后世界”正在成形,并逐步商业化。

安慰与幻觉:数字幽灵带来的心理张力

研究团队认为,数字幽灵技术在伦理上存在强烈的张力。

一方面,它可能成为维系“与逝者持续联结”的新方式,有助于缓解丧亲之痛。心理学研究早已表明,人们常通过梦境、在墓前说话、保留遗物等方式,与逝者维持一种心理上的持续关系。AI对话在某种意义上,可能被视为这类行为的技术延伸。

但另一方面,与“数字幽灵”的互动也可能带来严重风险:

  • 用户可能将AI当作真正的“人格”来对待
  • 延缓对死亡事实的接受与哀伤的自然进程
  • 对AI产生情感依赖,难以从丧失中抽离

这些都可能对心理健康造成负面影响,尤其是对情绪脆弱或处于强烈悲痛中的人群。

核心难题:生前同意与“死后隐私”

在众多伦理议题中,研究者特别强调了“同意”与“死后隐私”的关键性。

现实中,许多数字幽灵的构建,并未获得当事人在生前的明确授权。将逝者的社交媒体内容、聊天记录等数据用于训练AI人格,可能构成对其死后隐私与人格尊严的侵犯。

更进一步,AI在生成回复时必然会创造出逝者从未说过的新内容。这意味着,系统可能以逝者的“口吻”表达其生前并不持有的观点,从而扭曲其真实人格与价值观。

如何让数字幽灵“合乎伦理”?研究提出的条件

针对上述风险,论文提出了一套“伦理上可接受的数字幽灵”设计原则,作为未来技术开发与监管的参考。主要包括:

  • 生前明确同意(premortem intent):当事人在生前以清晰方式授权,允许在其去世后使用相关数据构建AI。
  • 相关方双向同意:不仅需要逝者生前的意愿,也应取得家属、亲密关系人等使用方的同意。
  • 数据使用透明:清楚说明收集了哪些数据、如何训练模型、系统具备哪些能力与限制。
  • 明确标示“这是AI”:在交互界面与体验中,始终让用户清楚意识到自己面对的是AI系统,而非真正的逝者。
  • 限定用途:将使用范围限制在追思、纪念、帮助记忆等目的,避免被用于操纵、营销或其他与悼念无关的场景。
  • 访问权限控制:明确谁可以在什么条件下访问数字幽灵,防止被随意传播或公开。
  • 由家属或遗产管理人负责管理:在逝者生前意愿的基础上,由合法的继承人或指定管理人负责后续决策。
  • 限制商业化利用:避免将数字幽灵作为牟利工具,尤其是通过订阅、广告等方式从悲伤中获利。
  • 弱化AI的“自主人格”设定:系统不应被设计成具有强行动主体性的“替代人格”,而应是帮助回忆的辅助工具。

研究者强调,数字幽灵不应被视作逝者的“替身”或“复活”,而应被严格限定为协助记忆与悼念的技术手段。

AI时代的“死后人格”:社会必须回答的问题

数字幽灵引发的争议,远不止技术层面,而是直指社会与文化对“死后人格”的基本看法:

  • 逝者的数字数据应由谁管理、如何管理?
  • 在多大程度上“重建”一个人的人格才是可接受的?
  • AI带来的“陪伴”与“欺骗”之间,界线应画在何处?

研究团队并不主张简单地全面禁止此类技术,而是认为应通过制定清晰的伦理指引与监管框架,将其用途限定在支持记忆与悼念的范围内,尽量降低对个人尊严、隐私与心理健康的伤害。

在AI快速融入日常生活的当下,如何对待“数字化的死后存在”,正在成为一个无法回避的公共议题。


分享:


发表评论

登录后才可评论。 去登录