多名美国联邦参议员近日向多家大型科技平台发出联名信,要求这些公司就平台上非自愿性、性化深度伪造内容的扩散情况作出说明,并提供其已采取保护措施的具体证据。
信函收件方包括X、Meta、Alphabet、Snap、Reddit和TikTok的管理层。参议员在信中表示,希望这些公司证明其已建立“强有力的保护和政策”,并解释如何遏制平台上性化深度伪造内容的增长。
要求保留与性化深度伪造相关资料
参议员在信中要求,上述公司保留所有与性化、由人工智能生成图像的创建、检测、审核和变现相关的文件和信息,以及任何相关内部政策文件。这些资料被要求完整保存,以备进一步审查。
信函发出数小时后,X宣布更新其旗下工具Grok的相关规则,称将禁止对真实人物进行穿着暴露服装的图像编辑,并把通过Grok进行图像生成和编辑的权限限制在付费订阅用户范围内。Grok由与X同属一家公司旗下的xAI开发。
参议员在信中援引媒体报道称,Grok被指能够轻易且频繁生成女性和儿童的性化及裸体图像,认为这表明平台防止用户发布非自愿性、性化图像的防护措施可能不足。
信中写道,许多公司虽然已制定反对非自愿亲密图像和性剥削的政策,许多AI系统也声称能够屏蔽露骨色情内容,但用户正在找到绕过这些防护措施的方法,或者相关防护本身存在失效情况。
多平台被点名 涉及名人、儿童与公众人物
除X及Grok外,其他平台也被点名涉及性化深度伪造问题。深度伪造内容最早在Reddit上走红,当时一个展示名人合成色情视频的页面曾在平台上病毒式传播,直至2018年被删除。针对名人和政治人物的性化深度伪造内容此后在TikTok和YouTube上大量出现,尽管这些内容往往源自其他渠道。
Meta方面,其监督委员会去年曾公开两起涉及女性公众人物的露骨AI图像案例。报道还提到,曾有“裸体化”应用在Meta平台上投放广告,Meta随后对一家名为CrushAI的公司提起诉讼。
Snapchat上则被曝出现多起未成年人传播同龄人深度伪造内容的案例。Telegram虽然未列入此次参议员信函的对象,但因托管可对女性照片进行“脱衣”处理的机器人而多次受到外界关注。
在被问及参议员信函时,X方面提及其关于Grok更新的公告。Reddit发言人在一份电邮声明中表示,平台不允许也不会允许任何非自愿亲密媒体(NCIM)出现在Reddit上,不提供制作此类内容的工具,并采取积极措施查找并删除相关内容。声明称,Reddit严格禁止NCIM,包括伪造或AI生成的描绘,同时禁止索取此类内容、分享“裸体化”应用链接或讨论如何在其他平台创建此类内容。

Alphabet、Snap、TikTok和Meta尚未就此立即回应置评请求。
参议员提出的具体信息清单
信函要求各公司在多个方面提供详细信息和政策说明,包括但不限于:
- 公司对“深度伪造”“非自愿亲密图像”等相关术语的政策性定义;
- 针对非自愿AI深度伪造人体、非裸体图片、服装更改及“虚拟脱衣”等情形的政策及执行方式;
- 当前关于编辑媒体和露骨内容的内容政策,以及提供给内容审核人员的内部指导;
- 现行政策如何管理与暗示性或亲密内容相关的AI工具和图像生成器;
- 已实施哪些过滤器、防护措施或技术手段,以防止深度伪造内容的生成和传播;
- 用于识别深度伪造内容并防止其被重新上传的机制;
- 如何防止用户从此类内容中获利;
- 平台如何避免自身从非自愿AI生成内容中获利;
- 服务条款如何支持对发布深度伪造内容用户的禁令或账号暂停措施;
- 公司如何通知非自愿性性化深度伪造内容的受害者。
该信函由多名民主党籍参议员签署,包括Lisa Blunt Rochester(特拉华州)、Tammy Baldwin(威斯康星州)、Richard Blumenthal(康涅狄格州)、Kirsten Gillibrand(纽约州)、Mark Kelly(亚利桑那州)、Ben Ray Luján(新墨西哥州)、Brian Schatz(夏威夷州)以及来自加利福尼亚州的Adam Schiff。
与xAI及Grok相关的监管压力
此次行动发生在xAI所有者埃隆·马斯克公开表示“未发现Grok生成任何裸体未成年图像”的次日。其后,加利福尼亚州总检察长宣布对xAI的聊天机器人展开调查。此前,多国政府已就Grok被指缺乏防护措施一事向相关方施压。
xAI方面表示,已采取措施删除X平台上的“非法内容,包括儿童性虐待材料(CSAM)和非自愿裸体”,但公司及马斯克尚未就Grok为何最初被允许生成相关内容的问题作出回应。
深度伪造问题延伸至更多AI图像与视频工具
报道指出,问题并不限于非自愿操控的性化图像。并非所有基于AI的图像生成和编辑服务都允许用户进行“脱衣”操作,但这些工具在技术上为深度伪造内容的生成提供了便利。
例如,有报道称,OpenAI的Sora 2被指允许用户生成涉及儿童的露骨视频;Google的Nano Banana似乎生成了美国评论员查理·柯克被枪击的图像;使用Google AI视频模型制作的种族主义视频也在社交媒体上获得数百万次观看。
当中国的图像和视频生成器参与其中时,相关问题进一步复杂化。多家中国科技公司及应用,尤其是与字节跳动相关的产品,被指提供便捷的面部、声音和视频编辑功能,这些内容随后流入西方社交平台。报道提到,中国对合成内容有更严格的标识要求,而美国在联邦层面尚无类似规定,公众主要依赖各平台自身分散且执行力度不一的政策。
立法进展与州层面举措
在监管层面,美国立法者已通过部分法律试图遏制深度伪造色情内容,但效果被认为有限。今年5月生效的《删除法案》旨在将非自愿性、性化图像的制作和传播定为犯罪。不过,法律中的多项条款使得追究图像生成平台责任变得困难,主要将审查焦点放在个人用户身上。
与此同时,多州正尝试自行采取措施,以保护消费者和选举安全。本周,纽约州州长凯西·霍楚尔提出立法建议,要求AI生成内容必须标明身份,并禁止在选举前特定时期内发布非自愿深度伪造内容,其中包括针对反对派候选人的相关描绘。
