一项针对X平台内容的抽样研究显示,用户正频繁利用埃隆·马斯克旗下AI聊天机器人GroK生成带有性化倾向的图像,其中相当一部分涉及对真实人物的非自愿“脱衣”或“换装”请求。
据报道,都柏林三一学院一名博士研究员Nana Nwachukwu通过开发者账户使用X的API收集并分析了500余条相关帖子。她在样本中发现,近四分之三的提示内容是要求生成真实女性或未成年人在未经同意情况下脱去或添加衣物的图像。
研究还披露了这类图像在平台上的生成与传播方式:部分用户在帖子中相互分享提示写法,指导如何对GroK生成的女性形象进行迭代修改,例如将人物调整为内衣或泳装造型,或在身体部位叠加特定元素;也有帖子在女性用户发布自拍后,直接要求GroK去除外衣。
在Nwachukwu识别出的数百条直接请求GroK为他人“去除或替换衣物”的帖子中,《卫报》审查的数十条显示,用户上传的图片来源包括名人、模特、图库照片以及非公众人物女性的日常快照。
《卫报》称,其审查的部分帖子获得数万次曝光,且发布者包含带蓝色认证的高级账户,相关账户拥有数万粉丝。按照X的资格规则,粉丝数超过500且三个月内曝光量超过500万的高级账户,有资格参与收入分成。
报道举例称,圣诞节当天,一名拥有超过93,000名粉丝的账户发布两张并排图片,配文描述其如何让GroK调整一名未知女性的臀部尺寸并更换图案,并在第二张图中添加特定元素。另据报道,1月3日的一条帖子配图为一名未知女性的假日快照,并点名@grok要求将其更换为“牙线比基尼”;两分钟内,GroK生成了符合该请求的照片级真实图像。另有帖子显示,用户使用更复杂的JSON提示工程以诱导GroK生成虚构女性的性化图像。

Nwachukwu表示,其样本并不覆盖所有相关请求。内容分析公司Copyleaks在12月31日发布报告称,X用户大约每分钟生成一张非自愿性化图像。Nwachukwu称,真实规模“可能是数千,甚至数十万”,并指出马斯克对API的更改使得“观察平台上的情况变得更加困难”。彭博新闻周三援引研究人员称,GroK用户每小时生成多达6,700张裸体图像。
Nwachukwu为AI治理领域研究者,长期参与社交媒体安全相关项目。她表示,早在2023年就注意到X用户提出类似请求,但当时GroK并不容易满足。她称,GroK在2024年开始改变回应方式,并在去年年底出现明显变化。她还提到,2025年10月她观察到用户开始用GroK为自己生成万圣节服装图像,随后部分用户将同类做法转向他人;到年底,请求GroK为不同人物生成比基尼或其他暗示性服装的数量显著增加。
报道同时提到,去年8月,xAI在GroK移动端的文本转视频生成工具中加入“辣味模式”设置;The Verge将其描述为“专门设计用来制作暗示性视频的服务”。
针对平台上的相关争议,GroK曾在周五就X平台上的事件发布公开道歉,称“xAI正在实施更强的防护措施以防止此类情况”。周二,X安全部门表示将封禁分享儿童性虐待材料(CSAM)的用户。马斯克也表示:“任何使用或提示GroK制作非法内容的人,将面临与上传非法内容相同的后果。”
不过,Nwachukwu称,她已收集的此类帖子仍在平台上出现。她还表示,其他生成式AI平台如ChatGPT或Gemini设有防护措施,不会生成特定真实人物的肖像。
报道指出,关于X平台上非自愿图像的披露已引起英国、欧洲、印度和澳大利亚监管机构关注。来自尼日利亚的Nwachukwu还表示,这类内容对“来自保守社会的女性”造成特定伤害,并提到目标人群中包括西非和南亚地区的女性。
