印度收紧深度伪造监管 社交平台最短两小时内须下架违规内容

richlovec 1500_400 (1)
 

印度政府近日修订信息技术监管框架,要求社交媒体平台加快处理深度伪造及其他合成内容的下架请求,并将相关内容正式纳入监管范围。业内人士认为,此举可能影响全球科技公司在印度这一重要互联网市场的内容审核安排。

根据周二公布的《2021年信息技术规则》修正案(PDF),允许用户上传或分享音视频内容的平台,须对深度伪造等人工智能生成的合成内容实施标识和可追溯管理。规则大幅压缩平台的合规时限:对官方下架命令的执行期限缩短为三小时,对某些紧急用户投诉的处理窗口则缩短至两小时。

印度拥有逾十亿互联网用户,人口结构以年轻人为主,是Meta和YouTube等大型平台的重要市场。报道指出,印度在内容监管方面采取的做法,可能对相关企业的全球产品设计和内容审核实践产生外溢影响。

修订后的规则要求,社交媒体平台必须:

  • 要求用户在上传或分享音视频时披露内容是否为合成生成;
  • 部署技术工具核验用户披露信息;
  • 对深度伪造内容进行清晰标注,并嵌入可追溯的来源数据。

规则同时明确禁止若干类别的合成内容,包括欺骗性冒充、未经同意的亲密影像以及与严重犯罪相关的材料。规则指出,在当局或用户提出举报的情况下,如平台未能遵守要求,可能失去依据印度法律享有的“安全港”保护,从而面临更高法律责任。

新规高度依赖自动化系统来履行上述义务。平台被预期将使用技术工具验证用户披露、识别和标注深度伪造内容,并阻止被禁止的合成内容的生成或传播。

新德里政策咨询机构The Quantum Hub创始合伙人Rohit Kumar表示,修订后的信息技术规则体现出对人工智能生成深度伪造内容更为“精准”的监管方式。他指出,两至三小时的下架时限将“实质性增加合规负担”,并称这一变化值得密切关注,尤其是在不合规可能导致失去安全港保护的情况下。

印度律师事务所AZB & Partners合伙人Aprajita Rana表示,新规目前主要聚焦于人工智能生成的音视频内容,而非所有在线信息,并对日常、表面或效率相关的人工智能使用作出例外安排。但她指出,要求中介在“知晓内容后三小时内删除”的规定,偏离了既有的言论自由原则。

Rana称,法律仍要求中介在“知晓或获得实际知识后,三小时内删除内容”。她补充说,标注义务将适用于所有格式,旨在遏制儿童性虐待材料和欺骗性内容的传播。

新德里数字权利倡导组织互联网自由基金会则对修订内容表示担忧。该组织在社交平台X上发文称,大幅压缩下架时限“几乎消除了任何有意义的人工复核空间”,可能推动平台过度依赖自动化删除机制。该组织还对被禁止内容类别的扩大,以及允许平台在缺乏司法监督的情况下向私人投诉人披露用户身份的条款表示关切,认为这些变化可能削弱言论自由保护和正当程序。

两名行业消息人士对TechCrunch表示,修订过程中的外部咨询有限,最终规则仅采纳了少数建议。消息人士称,政府似乎接受了将监管范围聚焦于人工智能生成音视频、而非所有在线材料的提议,但未采纳其他意见。他们认为,草案与最终文本之间的差异幅度,应促使监管部门启动新一轮咨询,以便为企业提供更明确的合规指引。

政府在内容下架方面的权力长期在印度国内引发争议。社交媒体平台和民间团体多次批评相关删除命令的范围和透明度。此前,Elon Musk旗下的X曾在印度法院对新德里方面的下架指令提出挑战,认为相关命令权力过大且缺乏充分保障。

Meta、Google、Snap、X以及印度电子与信息技术部均未就此置评。

此次规则修订距离印度政府在2025年10月缩减获授权发出下架命令的官员人数仅过去数月。此前的调整与X就下架权范围和透明度发起的法律挑战有关。

修订后的规则将于2月20日正式生效,留给平台调整合规系统的时间有限。规则落地时间与印度在2月16日至20日于新德里举办的“AI影响峰会”重叠,预计该峰会将吸引全球科技企业高管及政策制定者出席。


分享:


发表评论

登录后才可评论。 去登录