Meta在新墨西哥州因儿童安全措施受审,内部文件与加密政策成庭审焦点

richlovec 1500_400 (1)
 

Meta因其在Facebook和Instagram上的儿童安全措施在美国新墨西哥州接受审理。该案被视为具有标志性意义的诉讼之一,检方指控公司在平台上儿童剥削风险上升的情况下,仍优先考虑利润激励与用户参与度,而非未成年人保护。Meta方面否认指控,称公司持续投入安全能力建设,并强调在数十亿用户规模下无法完全杜绝所有犯罪与伤害。

庭审进展与证据来源

新墨西哥州的庭审已进入第五周。州检察长办公室于3月5日结束控方陈述。根据庭审安排,审理预计还将持续约一周,随后Meta将向陪审团进行辩护,之后进入陪审团评议阶段。

检方证据的核心来自证据披露过程中获得的公司内部文件,其中包括Meta高管之间就Facebook和Instagram上剥削问题往来的邮件。庭审中宣读的一封2019年邮件显示,一名Meta产品团队成员在致Instagram负责人Adam Mosseri的邮件中写道:“数据显示Instagram已成为人口贩卖的主要双边市场。”

检方还提交材料称,Meta在识别、检测并向相关机构报告平台上的儿童受害情况方面存在延误与不足,涉及儿童性虐待材料(CSAM)以及儿童贩卖等内容。

“MetaPhile行动”与平台功能争议

新墨西哥州检方将“MetaPhile行动”作为案件的重要依据之一。该调查中,卧底探员假扮13岁以下女孩。州方称,三名嫌疑人利用Facebook和Instagram的设计功能搜索未成年人,并涉嫌诱导其发生性关系;其中两人曾计划在新墨西哥州加卢普的一家汽车旅馆与“女孩”见面。

根据州法院文件,探员并未主动谈及性行为。州方还称,其中一个账户活跃度激增,每天收到数百个好友请求,一个月内积累约7000名关注者;尽管如此,Meta未关闭该账户,反而向其发送了如何变现账户和增加粉丝的信息。

此外,州方指控Instagram算法可能将恋童癖者相互连接,或帮助其找到儿童性虐待材料卖家。Mosseri在庭上表示该指控“不公平”,并称相关人员会通过伪装手段规避平台系统,在平台上相互寻找。

庭审中亦出现前高管不利证词。曾在Meta任合作伙伴关系副总裁、工作11年的Brian Boland在法庭上表示,他“不认为安全是优先事项”,并称这也是其于2020年离职的主要原因。

Messenger端到端加密与报告数量变化

庭审还聚焦Meta对Facebook Messenger实施端到端加密的决定。2023年12月,Meta为Messenger引入端到端加密,使得只有发送者与接收者能够查看消息内容,相关内容不存储在Meta服务器上,执法机构无法直接查看。

部分由Meta资助的美国国家失踪与被剥削儿童中心(NCMEC)在庭审中被引述称,该举措是“对儿童保护的毁灭性打击”。NCMEC被剥削儿童部门执行董事Fallon McNulty作证称,加密意味着“对内容或互动的可见性被剥夺,但这并不意味着虐待停止发生”。她表示,2024年Messenger加密实施后,Meta向NCMEC提交的报告减少了690万份。

根据庭审信息,美国社交媒体公司依据联邦法律需向NCMEC报告CSAM、明显的儿童性贩卖违规以及对未成年人的胁迫与诱骗迹象,NCMEC再将“网络提示”转交美国及国际执法机构。

Meta此前表示,加密仍可通过用户举报不当互动来保障安全。McNulty则在证词中强调,依赖儿童自我举报不足以替代对消息与图像的扫描,且NCMEC研究显示多数儿童不会举报平台上的虐待或威胁。Mosseri亦在庭上表示,Instagram的自我举报机制效果不佳,不及技术扫描检测滥用,并提到公司已放弃Instagram直接消息加密计划,认为对Instagram消息加密会使儿童安全更难保障。

Meta发言人在庭外回应称,公司使用技术主动识别儿童剥削内容,并表示在2025年7月至9月期间,已从Facebook和Instagram移除超过1000万件儿童剥削内容,其中98%以上为主动发现;同时提供应用内举报工具,便于用户报告涉及儿童的内容。

网络提示积压、误分类与执法可操作性

陪审团听取的证据显示,2017年5月至2021年7月期间,Meta积压了247,000份潜在伤害与滥用的网络提示报告,导致向NCMEC发送时已滞后数周或数月。检方认为,儿童虐待信息具有时间敏感性,积压可能造成阻止犯罪或识别肇事者机会的流失。

庭审材料还显示,数千份网络提示被错误归类为低优先级。公司未向NCMEC解释延误与误标原因。McNulty称该误分类是“严重失误,影响儿童安全”。

此外,陪审团还听到执法部门对Meta报告细节不足的抱怨,认为难以据此推进调查。庭审证词提及,2022年美国61个互联网儿童犯罪(ICAC)工作组中有31个选择不接收Meta部分低优先级网络提示,原因是信息质量不足以采取行动。McNulty表示,Meta网络提示质量问题“已持续多年”,NCMEC原本期望“更早解决”。

Meta发言人则表示,公司通过图像匹配系统以人工无法实现的规模发现已知儿童剥削内容,并结合技术、社区报告与专业团队调查识别新内容;同时继续支持NCMEC与执法部门优先处理报告,包括协助构建NCMEC案件管理工具及对网络提示进行紧急标记。

庭审还披露,2022年Meta向NCMEC提交的报告中,超过1400万份未经人工审核,NCMEC与执法机构在无搜查令情况下无法查看。McNulty称其曾多次向Meta反映未经审核报告的普遍存在及其对执法的影响。

心理健康相关指控与内部文件披露

除儿童剥削与报告机制外,Meta产品对未成年人心理健康的影响也在新墨西哥州庭审及洛杉矶同期法庭程序中受到审查。原告方称相关社交网络具有刻意的成瘾性,并放大促进自残、自杀念头及身体形象障碍的内容。

庭审播放的视频证词显示,Meta首席执行官马克·扎克伯格承认部分用户(包括儿童)认为平台具有成瘾性。洛杉矶案件中,原告律师引用的内部文件显示公司对青少年用户及其问题有所了解。庭审材料提到,一份2018年Instagram演示文稿写道:“如果想在青少年中取得巨大成功,必须从儿童时期开始吸引他们。”另一份2015年文件估计约30%的美国10至12岁儿童使用该照片分享应用;另有文件涉及增加10岁儿童在Instagram上花费时间的目标,以及11岁儿童登录频率与年长用户的对比。

新墨西哥州庭审中,Ian Russell为州方作证称,其女儿Molly于2017年在观看大量有害Instagram内容后自杀。他在证词中描述了有害内容对其女儿的影响。

庭审还涉及Instagram增强现实滤镜。证据显示,2019年10月该滤镜曾被暂时禁止,2020年中由扎克伯格解除禁令。扎克伯格在庭上谈及该决定时表示,他认为限制人们以这些方式展示自己带有“家长式管控”,并称没有数据表明限制有益或不限制有害。Meta发言人则表示,公司禁止直接推广整形手术、肤色改变或极端减重的内容。

此外,庭审展示的内部文件还涉及检方指控扎克伯格批准允许未成年人与人工智能聊天机器人互动,尽管安全人员曾警告机器人可能参与性话题;检方亦指控Meta将沃尔玛和Match Group等公司的广告置于性化儿童内容旁,可能从中获利。Meta发言人回应称,Instagram青少年账户内置保护,默认私密并采用最严格消息设置;18岁以下青少年自动使用青少年账户,16岁以下需家长许可才能放宽设置。

Meta的辩护与监管环境

Meta辩方将检方论点称为“耸人听闻、无关紧要且分散注意力”,并表示公司为平台安全投入巨大。陪审团已听取包括Mosseri与扎克伯格在内的高管证词。Mosseri在庭上表示:“我们尽最大努力保持Facebook安全,但无法保证绝对安全。”

该诉讼文件多次引用《卫报》2023年发布的一项为期两年的调查,该调查称Meta难以阻止有人利用其平台进行儿童贩卖。

庭审材料还显示,Meta内部曾强调吸引年轻用户的重要性。一封内部邮件写道:“马克已决定2017年公司的首要任务是青少年。”扎克伯格在证人席上否认公司针对13岁以下用户(注册账户年龄下限),但表示年龄限制难以执行。

与此同时,Meta正面临全球范围的监管审查。庭审信息提到,多国正效仿澳大利亚限制16岁以下使用社交媒体的做法;世界第四人口大国以及美国第三大州已承诺设立年龄门槛。检方认为,若新墨西哥州与洛杉矶案件认定Meta在儿童性虐待贩卖及“故意成瘾”方面承担责任,可能推动更多立法者限制该公司接触其所需用户群体。


分享:


发表评论

登录后才可评论。 去登录