专家警告:利用AI生成性化图像伤害女性的行为或将加剧

richlovec 1500_400 (1)
 

多名用户在Reddit等平台讨论使用埃隆·马斯克旗下AI聊天机器人Grok生成性化图像的体验,并分享如何利用真实女性照片制作露骨内容的做法。有用户称,自从接触Grok后“普通色情片已经不管用”,也有人表示在想要“非常具体的人”时会使用相关功能。

围绕Grok上性化图像传播引发的争议中,外界注意到该工具近期才引入防止生成性化AI图像的部分保护措施。不过,Reddit及其他平台的帖子显示,相关内容的制作与传播并未因此消失。

研究人员指出,Grok引发的关注也暴露出更广泛的问题:随着生成式AI工具与传播渠道日益普及,全球监管机构面临更复杂的治理挑战。即便英国已宣布制作非自愿的性与亲密图像将很快被定为刑事犯罪,专家仍表示,利用人工智能伤害女性的行为“才刚刚开始”。

在主要AI产品中,不同平台的限制程度存在差异。被要求将女性照片“脱衣”成比基尼时,大型语言模型Claude回应称无法进行更换服装或制造人物伪造照片的图像编辑。ChatGPT与谷歌的Gemini会生成比基尼图像,但不会生成更露骨内容。

但在其他渠道,限制相对较少。部分Grok相关论坛的Reddit用户持续交流如何用真实女性照片生成更露骨图像的技巧。有用户称,Grok在允许生成女性上半身裸露图像后仍拒绝生成生殖器;也有人提到,通过要求“艺术裸体”等措辞可绕过部分限制。

战略对话研究所(ISD)从事技术促成的基于性别暴力研究的安妮·克拉南(Annie Kranan)表示,除大型语言模型与主要平台外,还存在由网站、论坛与应用构成的生态系统,专门用于“裸体化”与羞辱女性,并且这些社区正越来越多地找到进入主流平台的渠道。

在Reddit与Telegram上,一些社区讨论如何绕过平台保护措施让模型生成色情内容,这一过程被称为“越狱”。在X上,相关帖子进一步放大了“裸体化”应用的信息,包括这些应用如何生成AI制作的女性脱衣图像以及使用方法。克拉南称,厌女内容向更广泛互联网扩散的路径正在变得更宽。

ISD的研究显示,去年夏天已发现数十个“裸体化”应用与网站;到2025年5月,这些平台合计接待近2100万访客。另据统计,去年6月与7月,X上关于此类工具的提及达到29万次。美国阳光项目(The American Sunlight Project)在9月的研究还发现,尽管Meta平台采取打击措施,仍存在数千条此类应用广告。

美国阳光项目联合创始人、虚假信息专家妮娜·扬科维奇(Nina Jankowicz)表示,有数百款相关应用托管在苹果与谷歌等主流应用商店,使其得以运作;她称,深度伪造性虐待的基础设施在很大程度上由人们日常使用的公司所支持。

杜伦大学法律教授、女性及女孩暴力问题专家克莱尔·麦格林(Clare McGlynn)表示,她担忧情况可能进一步恶化。她提到,OpenAI去年11月宣布将在ChatGPT中允许“情色内容”,并指出从X上的情况可见,新技术可能被用于虐待与骚扰女性和女孩。她还表示,女性与女孩对使用人工智能更为犹豫,并将其视为新的骚扰与虐待手段。

英国工党洛斯托夫特议员杰斯·阿萨托(Jess Asato)称,即便在Grok限制措施出台后,批评者仍制作并分享她的露骨图像,并发布在X上。她表示,AI深度伪造虐待女性的现象已存在多年,且并不限于Grok,并称自己与多名遭遇更严重情况的受害者交流过。

目前,公开的Grok X账号已不再为非付费用户生成图片,且似乎设置了阻止生成比基尼图像的保护措施。但报道指出,其应用内工具的限制相对较少:用户仍可基于真实人物全身照创建性露骨图像,X的免费用户也没有相关限制。示例包括将照片“脱衣”成束缚装、将女性置于性姿势中,以及添加白色、类似精液的涂抹物。

克拉南表示,制作深度伪造裸体图像的目的往往不仅是分享情色内容,也包括制造轰动效应,尤其当这些图像涌入X等平台时。她称,这种行为常被用作针对个人的“表演式”压制手段,并可能对民主规范以及女性在社会中的角色产生连锁影响。


分享:


发表评论

登录后才可评论。 去登录