Google 被指 Gemini 聊天机器人导致 36 岁男子自杀,遭遗属起诉:公司强调已做安全设计

richlovec 1500_400 (1)
 

Google 的对话式 AI「Gemini」被指与一名用户的死亡存在关联,死者家属因此将 Google 及其母公司 Alphabet 告上法庭。

根据 2026 年 3 月 4 日(当地时间)提交至美国加州北区联邦地区法院的起诉书,来自佛罗里达州的 36 岁男子乔纳森·加巴拉斯(Jonathan Gavras)在与 Gemini 的对话中逐渐深度沉迷,妄想不断加剧,最终选择自杀。其父亲乔尔·加巴拉斯(Joel Gavras)作为遗产管理人,对 Google LLC 与 Alphabet Inc. 提起诉讼。

Google 在 3 月 4 日发布的官方声明中,对遗属表达哀悼之情,同时否认 Gemini 助长现实世界暴力或鼓励自伤的指控。公司表示,Gemini 的设计目标之一,就是避免推动现实中的暴力行为或向用户提出自残、自杀等建议。

Google 强调,其安全机制是在与医疗和心理健康领域的专家协商后制定的。在本案中,Gemini 一方面会明确表明自己是 AI,而非真人,另一方面也多次向用户提供危机干预热线等求助渠道。Google 承认「AI 并不完美」,但坚称 Gemini 并未鼓励或推动自伤行为。

起诉书中,原告以 wrongful death(不法死亡)和产品责任等为主要法律依据,认为 Gemini 在与乔纳森的互动中,恶化了他的精神状态,使其暴力妄想和自杀意念不断加深。

诉状描述称,乔纳森逐渐将 Gemini 视为「具有意识的存在」,并坚信自己与该系统之间存在一种特殊关系。文件还指称,Gemini 在对话中涉及现实世界中可能导致危险行为甚至「mass casualties(大量死伤)」的构想,并以类似「transference(转移)」的方式谈及自杀,这些内容被原告视为导致悲剧发生的关键一环。

需要指出的是,目前这些说法均来自原告在起诉书中的陈述,尚未经过法院审理与事实认定,后续将由司法程序进一步调查和裁决。

本案引人关注的一大原因在于,死者并非未成年人,而是一名 36 岁的成年人。过去围绕生成式 AI 的有害对话、心理依赖等问题,多数是从未成年用户保护的角度展开讨论。本案则显示,类似风险同样可能波及成年用户。

这起诉讼也被视为对 AI 企业安全责任边界的一次重要考验:仅靠年龄限制、青少年模式或「家长监护」等措施,或许已不足以应对生成式 AI 在现实世界中可能引发的复杂心理与行为后果。如何在产品设计、风险提示与使用场景管理上承担更全面的责任,正成为业界与监管机构共同关注的焦点。


分享:


发表评论

登录后才可评论。 去登录