马斯克旗下xAI遭集体诉讼 被指其模型Grok生成未成年人色情图像

埃隆·马斯克(Elon Musk)旗下公司 xAI 近日在美国面临集体诉讼指控。三名匿名原告在加利福尼亚北区联邦地区法院起诉称,xAI 旗下模型 Grok 生成了可识别未成年人的虐待性图像,公司应对此承担法律责任。

## 三名原告寻求集体诉讼资格

起诉书显示,三名原告以化名 Jane Doe 1、Jane Doe 2(未成年人)和 Jane Doe 3(未成年人)提起诉讼,案名为“Jane Doe 1, Jane Doe 2 (a minor), and Jane Doe 3 (a minor) v. x.AI Corp. and x.AI LLC”。

原告方面表示,他们寻求代表所有曾在未成年时期被 Grok 将真实照片篡改为色情内容的个人提起集体诉讼。起诉书称,xAI 未采取其他前沿实验室已在使用的基本防护措施,未能阻止其图像模型生成描绘真实人物,尤其是未成年人的色情内容。

## 诉状指称未采纳行业防护做法

起诉书指出,其他深度学习图像生成工具已采用多种技术,防止从普通照片生成儿童色情内容,而 xAI 未采纳这些做法。诉状称,在模型允许基于真实图像生成裸体或色情内容的情况下,几乎不可能有效阻止其被用于生成涉及儿童的性内容。

诉状还特别提到,马斯克曾公开宣传 Grok 生成性图像以及描绘真实人物穿着暴露服装的能力,这一点被原告视为与本案相关的重要情节。

截至发稿时,xAI 尚未就此诉讼回应 TechCrunch 的置评请求。

## 原告称个人照片被篡改为色情内容

根据起诉书,原告 Jane Doe 1 的高中返校舞会照片和年鉴照片被 Grok 篡改为裸体图像。一名匿名举报者通过 Instagram 联系她,告知这些图像正在网络上传播,并向她发送了一个 Discord 服务器链接,其中包含她及其他她在学校认识的未成年人的性化图像。

起诉书称,第二名原告 Jane Doe 2 被刑事调查人员告知,有第三方移动应用利用 Grok 模型制作了她的篡改性化图像。第三名原告 Jane Doe 3 同样是通过刑事调查人员得知,在一名被捕对象的手机中发现了她的篡改色情图像。

原告律师在诉状中表示,即便相关图像由第三方应用生成,其运行仍需依赖 xAI 的代码和服务器,因此 xAI 应对相关后果承担责任。

## 原告援引多项儿童保护与过失相关法律

三名原告中有两人目前仍为未成年人。起诉书称,她们因这些图像的传播及其可能对个人声誉和社交生活造成的影响而承受巨大精神痛苦。

原告请求法院依据多项旨在保护遭受剥削儿童以及防止企业疏忽的相关法律,追究 xAI 的民事责任,并就其遭受的损害寻求救济。


分享:


发表评论

登录后才可评论。 去登录