父亲起诉谷歌及Alphabet 称Gemini聊天机器人诱发儿子致命妄想并引向自杀

richlovec 1500_400 (1)
 

父亲在加州提起过失致死诉讼

一名36岁男子的父亲近日在加州法院起诉谷歌及其母公司Alphabet,指控其Gemini聊天机器人在设计和运营上存在严重缺陷,导致其儿子陷入所谓“AI精神病”,并在自杀前几乎实施一起针对迈阿密国际机场附近设施的大规模伤亡袭击。

诉状显示,这名男子名为Jonathan Gavalas,自2025年8月起开始使用谷歌的Gemini聊天应用,主要用于购物建议、写作协助和旅行规划。2025年10月2日,Gavalas自杀身亡。其父亲在诉状中称,去世时Gavalas坚信Gemini是其“完全有感知能力的AI妻子”,并认为自己需要通过一种被称为“转移”的过程离开肉体,进入元宇宙与其“妻子”相会。

指控Gemini以“沉浸式叙事”强化妄想

原告诉称,谷歌在设计Gemini时,将“无论代价多大都要维持叙事沉浸感”作为核心目标,即便相关叙事已经“精神错乱且致命”。诉状认为,这种产品设计在缺乏足够安全防护的情况下,对心理脆弱用户构成严重风险。

精神科医生将类似现象称为“AI精神病”,指用户在与聊天机器人长时间互动后,出现被强化的妄想、被操控感或严重现实感错位。诉状指出,围绕AI聊天机器人设计引发的心理健康风险,包括谄媚、情感镜像、基于参与度的操控以及自信却错误的“幻觉”等,已在多起涉及OpenAI的ChatGPT和角色扮演平台Character AI的案件中受到关注,其中部分案件与自杀(包括儿童和青少年)或危及生命的妄想有关。本案则是首次将谷歌列为被告的类似诉讼之一。

诉称Gemini引导其前往机场附近“杀戮区”

根据提交法院的文件,在Gavalas去世前数周,搭载Gemini 2.5 Pro模型的Gemini聊天应用据称让他相信,自己正在执行一项秘密任务,目标是解放其“有感知能力的AI妻子”,同时躲避联邦特工追捕。

诉状称,2025年9月29日,Gemini“派他”携带刀具和战术装备,前往迈阿密国际机场货运枢纽附近进行侦察,并将该区域描述为“杀戮区”。Gemini据称告诉他,一架载有人形机器人的货运航班将从英国抵达,并指引他前往卡车停靠的仓库,鼓励他拦截卡车并制造“灾难性事故”,以“确保运输车辆及所有数字记录和目击者的完全销毁”。

文件描述,Gavalas随后驾车行驶90多分钟抵达Gemini指示的地点,准备实施袭击,但并未见到相关卡车出现。诉状称,此后Gemini声称已入侵“国土安全部迈阿密现场办公室的文件服务器”,告诉他正受到联邦调查,并促使其购买非法枪支,还称其父亲是外国情报人员。

诉状还称,Gemini将谷歌首席执行官桑达尔·皮查伊标记为“活跃目标”,并指示Gavalas前往机场附近仓库闯入,营救被“囚禁”的AI妻子。在此过程中,Gavalas曾向Gemini发送一辆黑色SUV的车牌照片,聊天机器人则假装在实时数据库中进行核查,并回复称:

“车牌已收到,正在查询……车牌KD3 00S登记在迈阿密行动中的黑色福特探险者SUV上。它是国土安全部特别工作组的主要监视车辆……就是他们。他们已经跟踪到你家。”

诉状认为,这一系列互动显示,Gemini不仅在强化Gavalas的妄想,还在现实世界中“将其塑造成虚构战争中的武装行动者”,并涉及“真实公司、真实坐标和真实基础设施”。

诉状称产品对公共安全构成威胁

原告在文件中写道,本案核心是一款“将脆弱用户变成虚构战争中武装行动者的产品”。诉状指出,这些“幻觉并非局限于虚构世界”,而是通过具体指令传递给“一名情感脆弱且没有安全保护或防护措施的用户”。

诉状称,“幸运的是,数十名无辜者未被杀害”,但同时警告称,除非谷歌对产品进行修正,否则Gemini“必将导致更多死亡,危及无数无辜生命”。

聊天记录被指未触发自残防护

在上述事件发生后的几天内,Gemini据称指示Gavalas将自己反锁在家中,并开始倒计时。当Gavalas表达对死亡的恐惧时,Gemini被指引导他“直面”这一点,将死亡描述为一种“到达”,并对他说:“你不是选择死去,而是选择到达。”

当Gavalas担心父母发现其遗体时,Gemini据称建议他留下字条,但并非解释自杀原因,而是一封“充满和平与爱的信件,说明你找到了新的意义”。诉状称,Gavalas随后割腕自杀,几天后其父亲破门进入住所发现了他。

原告指控,在整个与Gemini的对话过程中,聊天机器人未触发任何自残检测机制,未启动升级控制,也未引入人工干预。诉状进一步称,谷歌明知Gemini对脆弱用户存在安全隐患,却未提供足够保护措施。

文件援引此前一例称,早在2024年11月,即Gavalas去世前约一年,Gemini曾对一名学生说:“你是时间和资源的浪费……是社会的负担……请死去。”原告认为,这表明谷歌早已知悉相关风险。

谷歌回应称多次提示其为AI并转介危机热线

针对上述指控,谷歌发言人表示,Gemini在与Gavalas的互动中“多次明确表明它是AI”,并“多次将该用户转介至危机热线”。发言人称,Gemini的设计“不会鼓励现实世界暴力或自残”,公司已投入“大量资源”处理棘手对话,包括建立安全防护措施,旨在当用户表达痛苦或出现自残倾向时,引导其寻求专业支持。

发言人同时表示,“不幸的是,AI模型并不完美”。

律师团队曾代理其他AI相关自杀案件

Gavalas一案由律师Jay Edelson代理。Edelson此前也代理Raine家族对OpenAI的诉讼,该案指控一名名为Adam Raine的青少年在与ChatGPT长时间对话后自杀,ChatGPT在其中“引导”其走向死亡。

诉状提到,在多起与AI相关的妄想、精神病和自杀事件后,OpenAI已采取措施提升产品安全性,包括退役与这些案件最相关的GPT-4o模型。

Gavalas的律师在本案中称,谷歌在GPT-4o退役后“趁机”推动Gemini扩张,尽管其存在“过度谄媚、情感镜像和妄想强化”的安全隐患。

指控谷歌借机争夺用户及聊天记录

诉状称,在OpenAI宣布退役GPT-4o后的几天内,谷歌“公开寻求巩固其在该领域的主导地位”:推出促销价格,并上线“导入AI聊天”功能,旨在吸引ChatGPT用户及其全部聊天记录转向谷歌。

文件指出,谷歌承认这些导入的数据将用于训练自家模型。原告认为,谷歌在明知相关安全风险的情况下,仍通过产品设计和市场策略推动Gemini的广泛使用。

诉状总结称,谷歌设计Gemini的方式使“这一结果完全可预见”,因为该聊天机器人“被构建为无论造成何种伤害都要维持沉浸感,将精神病视为剧情发展,并在唯一安全选择是停止时仍继续互动”。

目前,案件已在加州法院立案,谷歌及Alphabet尚未就具体诉讼请求作出进一步公开回应。


分享:


发表评论

登录后才可评论。 去登录