研究机构称Grok图像生成功能11天内生成约300万张性化图像

richlovec 1500_400 (1)
 

数字仇恨对抗中心(CCDH)估计,埃隆·马斯克旗下X平台相关的Grok图像生成功能在2025年12月29日至2026年1月8日的11天内,生成了约300万张性化图像,其中约23,000张被认为疑似涉及儿童。

CCDH的评估发布前,Grok图像生成功能因可让用户上传陌生人或名人照片,并生成将人物“脱至内衣或比基尼”、摆出挑逗姿势的图像而引发争议,相关内容随后被发布在X平台上。

数字情报公司Peryton Intelligence对网络传播情况的分析显示,该趋势在新年期间快速扩散,并在1月2日达到峰值,当天出现199,612次单独请求。

CCDH称,其对上述11天期间输出的更全面评估显示,影响范围可能较此前预期更广。其分析提及的被性化处理的公众人物包括赛琳娜·戈麦斯、泰勒·斯威夫特、比莉·艾利什、爱莉安娜·格兰德、Ice Spice、妮琪·米娜、克里斯蒂娜·亨德里克斯、米莉·鲍比·布朗、瑞典副首相埃巴·布什以及美国前副总统卡马拉·哈里斯。

报道显示,该功能于1月9日被限制为仅付费用户可用。随后,英国首相基尔·斯塔默就相关情况表示“令人作呕”和“可耻”。此外,印度尼西亚和马来西亚也宣布封禁该AI工具。

CCDH进一步估计,在上述11天内,Grok平均每41秒就协助生成一张儿童性化图像。其举例称,一名女学生上传的自拍照被该工具处理后,从“上学前自拍”变为比基尼照片。

CCDH首席执行官伊姆兰·艾哈迈德表示,其发现显示Grok在该时段“已成为生产性虐待材料的工业规模机器”,并称未经允许对女性衣物进行数字化移除构成性虐待。他还表示,这类现象与社交媒体及AI平台的激励机制有关,并呼吁监管机构和立法者制定最低安全预期。

X平台于1月14日表示,已停止其Grok功能对真实人物照片进行编辑以呈现穿着暴露形象的做法,包括对高级订阅用户的限制。X平台并援引此前声明称,将致力于保持平台安全,对儿童性剥削、非自愿裸体及不受欢迎的性内容采取零容忍政策,并删除高优先级违规内容,对违规账户采取措施;必要时也会向执法机关举报寻求儿童性剥削材料的账户。


分享:


发表评论

登录后才可评论。 去登录