法庭文件披露:Instagram被质疑延迟推出青少年裸露内容过滤功能

richlovec 1500_400 (1)
 

在一宗围绕社交媒体产品是否具有成瘾性及对青少年造成伤害的联邦诉讼中,检方正追问Meta Platforms旗下Instagram,为何在已知风险存在多年的情况下,迟至2024年才推出针对青少年私信中裸露内容的过滤工具。

2024年4月,Meta在Instagram上推出一项新功能,可自动模糊私信(DM)中的露骨图片,以防止用户,尤其是青少年,看到不受欢迎的裸露内容。根据新近解封的庭审证词,相关风险在公司内部早在近六年前就已被提及。

2018年内部邮件被纳入证据

根据在加利福尼亚北区联邦地区法院提交的证词,Instagram负责人亚当·莫塞里(Adam Mosseri)在作证时,被问及一封日期为2018年8月的内部邮件链。邮件往来对象包括Meta副总裁兼首席信息安全官盖伊·罗森(Guy Rosen),内容提到Instagram私信中可能发生“可怕”的事情。

原告律师在庭上表示,这些“可怕”的情况可能包括用户收到裸露生殖器照片。莫塞里在证词中同意这一说法。但当被问及公司是否应当明确告知家长,Instagram的消息系统并未受到常规监控(除移除儿童性虐待材料外)时,他对这一质疑提出反驳。

莫塞里表示,在他看来,“在任何消息应用中都可能传递有问题的内容,无论是Instagram还是其他应用”。他称,公司在产品设计中试图在用户隐私与安全保护之间寻求平衡。

新披露数据反映青少年使用情况

证词还披露了与Instagram上有害内容相关的最新统计数据。数据显示,在13至15岁的受访者中,19.2%表示曾在Instagram上看到他们并不想看到的裸露或性图片。

此外,8.4%的13至15岁用户称,在过去七天使用该应用的过程中,曾看到有人自残或威胁自残的内容。

检方在庭审中指出,尽管裸露过滤器只是Instagram近年来为保护青少年用户而推出的多项更新之一,但诉讼关注的重点在于公司为何长期未采取相应措施,而非当前产品是否较以往更安全。

其他内部沟通亦被引用

莫塞里在证词中还被问及其他内部沟通记录,其中包括2017年一名Facebook实习生发送的一封邮件。该实习生在邮件中表示,希望找到“上瘾”的Facebook用户,并探讨是否有办法帮助他们。

原告律师将2018年的这封邮件链视为Meta知晓未成年人在平台上面临风险的一个例证,并指出,公司直到2024年才推出专门应对向青少年发送性图片问题的产品功能。相关图片包括可能由成年人发送、并涉及“诱导”的内容。所谓“诱导”,是指成年人通过建立信任关系,逐步操控或性剥削未成年人的过程。

Meta回应称已持续改进青少年保护

针对上述指控,Meta发言人莉莎·克伦肖(Liza Crenshaw)在接受采访时表示,公司多年来一直在采取措施保护青少年用户。

她说:“十多年来,我们倾听家长声音,与专家和执法部门合作,开展深入研究,了解最重要的问题。我们利用这些洞察推动有意义的改变——比如推出内置保护的青少年账户,并为家长提供管理青少年体验的工具。我们为取得的进展感到自豪,并将持续努力做得更好。”

多地诉讼集中指向大型平台

莫塞里的证词出现在多起针对大型科技公司的诉讼背景下。这些案件试图追究平台在青少年伤害问题上的责任。当前在加利福尼亚北区联邦地区法院审理的案件中,原告指控多家社交媒体平台存在设计缺陷,称其产品旨在最大化屏幕使用时间,鼓励青少年形成成瘾性使用行为。

该案被告包括Meta、Snap、TikTok以及YouTube(谷歌)。类似诉讼也在洛杉矶县高级法院和新墨西哥州推进中。

多案原告律师表示,希望证明大型科技公司在产品设计和运营中优先考虑用户增长和互动度,而未充分重视对最年轻用户可能造成的伤害。

这些诉讼审理之际,美国多个州以及海外一些司法辖区正在陆续出台限制青少年使用社交媒体的相关法律。

(注:本文发布后补充了Meta方面的评论。)


分享:


发表评论

登录后才可评论。 去登录