在埃隆·马斯克接管X平台并将其姊妹公司的生成式人工智能工具Grok整合进平台后,X被定位为一个更为宽松、强调“言论自由极致主义”的社交媒体环境。但近期用户被曝利用Grok生成未经当事人同意的露骨图像,其中包括疑涉未成年儿童的内容,引发多方监管警示。
过去一周内,一些用户开始将Grok的图像生成功能用于针对性骚扰:他们从X平台上选取多为女性用户发布的普通、无害内容,将其作为素材或灵感,生成带有性暗示甚至露骨性质的合成图像。此类用法迅速引起监管机构注意。
英国通信监管机构Ofcom表示,已就相关图像问题与X平台展开“紧急联系”。欧盟方面则将利用Grok生成此类图像的行为形容为“令人震惊”和“令人厌恶”。
自三年前ChatGPT推出以来,生成式人工智能在全球范围内面临多项监管挑战,其中包括围绕训练数据使用的版权侵权诉讼等。此次Grok被指被用于针对女性和未成年少女生成不当图像,被一些研究者视为该技术在性别与权力议题上面临的重大伦理考验之一。
长期研究社交媒体平台、算法与人工智能对用户伤害的英国学者卡罗琳娜·阿雷指出,这类行为的核心不只是“裸体”本身,而是通过技术手段贬低女性、展示权力不对等,并从未经同意的情境中获取刺激。“这关乎谁掌控一切,以及如何在不经同意的前提下从中获得快感,”她表示。
X平台方面则强调,针对利用Grok生成非法内容的行为,将比照上传非法内容的用户进行处理。平台声明称:“任何使用或提示Grok制作非法内容的人,将面临与上传非法内容相同的后果。”这一表态与马斯克在1月3日公开发布的相关言论一致。
阿雷认为,Grok能够生成此类图像本身,显示出在生成式AI中削弱或取消安全防护、允许用户“为所欲为”的做法存在严重风险。她表示,这一现象再次凸显社交媒体时代在权力结构、不平等与双重标准方面的巨大落差,也反映出部分科技企业在监管不足环境下的“有恃无恐”。
既有问题的延续
尽管此次事件因生成式AI的规模和技术能力而备受关注,一些专家认为,这并非人工智能首次在伦理层面遭遇严峻质疑。
加州大学欧文分校法学教授阿里·沃尔德曼表示,广义上的AI技术长期以来已被用作歧视和仇恨的工具,包括厌女症、恐同症和恐跨症等,并在现实中造成直接伤害,例如鼓励自杀、诱发抑郁和身体形象障碍等。“制作女性和女孩的深度伪造图像当然极其可怕,但这并不是AI第一次被用于在道德上令人谴责的用途,”他说。
在法律责任方面,专家指出,谁应为这些图像的生成与传播承担责任,远比马斯克的公开表态更为复杂。

圣克拉拉大学法学院教授埃里克·戈德曼提到,美国近期通过的《删除法案》(Delete Act)要求平台在未来数月内建立机制,在48小时内删除非法或侵权内容。该法案新增了针对“亲密视觉描绘”的刑事条款,其中包括AI生成的图像。但他指出,目前尚不清楚该法是否涵盖Grok大量生成的比基尼类图像。
“这项法律尚未经过法院检验,但利用Grok制作合成性内容,正是立法者试图遏制的行为类型之一,”戈德曼表示。他同时认为,在尚未确认《删除法案》是否足以应对当前问题的情况下,是否需要进一步立法仍存争议。
哈佛法学院第一修正案学者丽贝卡·塔什内特则认为,现有法律框架在原则上已具备应对能力。“问题在于如何真正追责违法者,尤其是那些拥有强大政治影响力或公开蔑视法律的人,”她说。
乔治华盛顿大学法学院知识产权与技术专家玛丽·安妮·弗兰克斯指出,美国近年来已通过多项针对深度伪造和限制露骨图像传播的新法规,其中包括一项惩罚传播性数字伪造作品的联邦法律。但她认为,Grok相关事态表明现有措施仍显不足。
“我们需要开始像对待其他危险产品制造商那样对待技术开发者:对于他们未能且本应防止的产品造成的伤害承担责任,”弗兰克斯表示。
平台与开发者的责任边界
在责任归属问题上,Grok及其背后公司的法律风险仍不明朗。戈德曼指出,更棘手的问题在于,Grok在促成“亲密视觉描绘”生成过程中可能承担的责任范围。他提到,企业通常会在信任与安全政策框架下设置某些“自愿”保护措施,但根据美国法律,这些措施是否能够减轻或免除责任尚无定论。
“如果一个模型明显缺乏保护措施,其法律责任是否会因此增加,目前也没有明确答案,”戈德曼补充说。
沃尔德曼则主张,美国国会应考虑通过立法,明确要求公司对设计和构建能够生成儿童色情内容,或针对女性及女孩制作色情深度伪造图像的AI工具承担法律责任。“目前,科技公司的法律责任仍处在争论之中,”他说。
他同时提到,尽管美国联邦贸易委员会(FTC)拥有相关执法权,但他担心该机构不会在这一领域采取积极行动。“AI公司已经与总统站在同一阵线,而FTC似乎并未真正履行其消费者保护职责,”沃尔德曼表示。
在监管机构、法律学者和权益倡导者的多重压力下,围绕Grok及类似生成式AI工具的合规边界、平台义务以及技术开发者的责任,预计将在未来一段时间内继续成为争议焦点。
