AI“数字来世”服务兴起:可在身后生成“数字孪生”,法律身份与权利边界待厘清

richlovec 1500_400 (1)
 

生成式人工智能的发展,正推动一种被称为“数字来世”的新型服务进入公众视野。相关产品常被称为“悲伤机器人”或“死亡机器人”,通常以已故者的数据为训练基础,生成可互动的声音、视频化身或文本聊天机器人,供亲友在其去世后继续“对话”。

在这一被归入“悲伤科技”的产业中,数字化身多由丧亲者在亲人去世后创建,用作哀悼过程的一部分。与此同时,也有服务允许用户在生前建立自己的“数字孪生”,并在身后由亲友继续使用。围绕这种“数字永生”的实践,版权、隐私、数据处置与责任承担等法律问题随之浮现,但不少关键问题仍缺乏明确答案。

生前授权创建“数字孪生”的流程与风险

按照相关服务的常见做法,用户可通过注册平台并回答一系列问题,提交用于刻画个人身份与经历的数据;也可录制自己的声音,讲述故事、记忆与想法,甚至上传图像或视频素材。平台随后利用这些训练数据生成数字复制品。在用户去世后,当公司获知死亡信息,亲友便可与该数字孪生进行互动。

与在当事人无法同意的情况下“复现”逝者不同,生前创建数字孪生的模式通常建立在当事人主动授权数据并签署合同的基础上,即在去世前有意识地为身后使用而生成或提供数据。但在此过程中,用户也将一定程度的代理权交由服务提供方,由其在身后继续运行并呈现AI模拟。

围绕这一安排,仍存在多项现实疑问:训练数据与生成内容的权利如何界定;隐私如何保障;技术迭代或平台倒闭时数据如何处置;数据是否可能被出售或再利用;数字孪生是否会被终止以及对丧亲者可能造成的影响等。

澳大利亚法律框架下的权利边界

在法律层面,文章以澳大利亚为例指出,现行澳大利亚法律并不直接保护个人的身份、声音、存在感、价值观或个性。与美国不同,澳大利亚并不存在一般性的公开权或人格权安排。这意味着,澳大利亚公民目前并没有一项明确的法律权利可以“拥有或控制”自身身份要素的使用,包括声音、形象或肖像。

在版权法语境下,“存在感”或“自我概念”被视为抽象概念,类似于“想法”,并不属于版权保护对象。版权通常要求作品落入特定类别并以有形形式呈现,例如书籍或照片。

不过,提交给AI训练的文字回答或语音录音属于有形材料,因此用于训练数字孪生的数据本身很可能受到保护。相较之下,完全由AI自主生成的输出内容则不太可能享有版权。按照现行澳大利亚法律逻辑,这类作品可能被视为缺乏作者的作品,因为其并非源自人类的“独立智力劳动”,而是机器生成。

文章同时提到,版权中的道德权利主要用于保护创作者声誉,防止错误署名或对作品的贬损,但这些权利仅附着于人类作者创作的实际作品,并不适用于AI生成输出。因此,数字孪生在权利归属上的地位仍不清晰。

在实践中,服务提供方可能通过条款与条件主张对AI生成数据的所有权,或仅向用户授予使用权,或保留广泛的再利用权。文章提示,用户需要关注合同条款对权利与使用范围的具体约定。

伦理与责任问题仍待回应

除法律权利外,利用AI制作活人或死者的数字复制品也带来伦理风险。即便训练数据在用户去世后被锁定,未来仍可能有人通过与数字孪生互动而间接触及相关信息。若系统错误呈现已故者的道德与伦理观念,或因算法偏差导致回应扭曲,相关影响如何处理仍缺乏清晰路径。

文章指出,AI输出基于概率与算法,存在偏差与“漂移”风险,随着时间推移,死亡机器人可能逐渐偏离原人物特征。一旦出现这种情况,丧亲者未必拥有明确的救济途径。

对于悲伤科技的效果,文章称目前主要仍属轶事层面的观察,仍需更多研究。同时,丧亲者可能对AI版本的亲人产生依赖,而非以更健康的方式处理悲伤。若相关输出引发痛苦,应如何管理、由谁承担责任,也仍是待解问题。

文章认为,现行法律状况显示这一新兴产业需要更多监管。即便用户同意在身后使用其数据创建数字孪生,也难以预见未来技术变化将如何改变数据的使用方式。文章并提醒,若决定创建数字来世,应仔细阅读服务条款与条件,因为用户将受其所签署合同的约束。


本文内容据《对话》网站文章改写,原文链接:https://theconversation.com/an-ai-afterlife-is-now-a-real-option-but-what-becomes-of-your-legal-status-274021


分享:


发表评论

登录后才可评论。 去登录