Instagram取消私信端到端加密:儿童安全提升还是广告更精准?

截至 5 月 8 日,Instagram 的私信功能已不再支持端到端加密。

Meta 在宣布这一政策回撤时表示,原因是“几乎没有人使用”这一功能。但这一说法立刻引发质疑:这对用户隐私意味着什么?是否真的有助于提升平台上的儿童安全?

Instagram 长期处在网络安全讨论的中心——从身体形象焦虑、网络霸凌到性勒索,相关问题层出不穷。此次调整直接改变了私信内容在安全保护和内容监管上的处理方式。

这点尤为关键,因为研究显示,大约 23% 的澳大利亚性勒索受害者,是先在 Instagram 上被加害者联系到的。Instagram在这类案件中仅次于 Snapchat(50%),是第二常见的初始接触平台。

什么是端到端加密?

端到端加密是一种通信加密方式,只有消息的发送方和接收方设备可以解密和阅读内容,承载消息的服务平台(在这里是 Instagram)无法查看消息内容。

目前,WhatsApp、Signal、iMessage,以及自 2023 年底起的 Facebook Messenger,默认都采用端到端加密。

早在 2019 年,Meta 首席执行官马克·扎克伯格就提出,要在 Meta 的消息产品中全面推广端到端加密,并打出“未来是私密的”的口号。

Instagram 在 2021 年开始测试加密私信,并在 2023 年将其作为可选功能推出。

不过,这一功能从未成为默认设置,且选择开启的用户比例一直很低。Meta 以此为理由,决定彻底移除该选项。一位发言人对《卫报》表示:

“很少有人选择使用端到端加密的私信功能,所以我们决定从 Instagram 中移除这一选项。”

问题在于,这形成了一种循环逻辑:Meta 将一个本就隐藏得很深、绝大多数用户甚至不知道存在的功能下线,然后再以“使用率低”为依据取消它。

这对 Instagram 用户意味着什么?

现在,你在 Instagram 上发送的每一条私信,理论上都以 Meta 可以读取的形式在其系统中传输。

根据 Meta 的隐私政策,公司会收集用户发送和接收消息内容相关的数据。原则上,这些数据可以被用来:

  • 个性化产品功能;
  • 训练人工智能(AI)模型;
  • 提高广告投放的精准度。

Meta 公开承诺,不会在用户未主动分享的情况下,用私信内容来训练 AI 模型。但在广告定向方面,并没有做出同样明确的公开保证。

这意味着,未加密的 Instagram 私信有可能被用于广告定向。随着加密被取消,Meta 关于 AI 使用范围的承诺,更多依赖内部政策约束,而不再有技术层面的“看不见内容”的硬性限制。

与此前隐私承诺的明显背离

与扎克伯格七年前提出的“隐私优先”方向相比,这次调整可以说是一次明显的逆转。

多年来,Meta 一直承受来自执法机构、监管部门以及儿童保护组织的压力。这些机构认为,端到端加密会在平台上形成“盲区”,让儿童性剥削和诱导行为更难被发现和打击。澳大利亚 eSafety 专员就曾明确指出,部署端到端加密“并不免除服务提供者对托管或促成网络虐待或非法内容分享的责任”。

这一担忧并非空穴来风,相关危害真实存在,而且对年轻用户的影响尤为严重。

但性勒索研究也表明,加害者往往不会只停留在最初接触的平台。超过 50% 的性勒索受害者表示,对方会要求他们转移到其他平台继续联系。

与此同时,Meta 在 WhatsApp 和 Facebook Messenger 上仍然保留端到端加密。如果要真正从儿童安全角度出发,Meta 在不同产品上的安全策略理应保持一致。由于加害者常常要求受害者更换平台,Instagram 与这些端到端加密服务之间的安全策略必须协同考虑。

一个被误导的“二选一”

Meta 和部分隐私倡导者常把问题描述为:要么选择端到端加密,要么选择儿童安全,仿佛两者无法兼得。但这种说法本身就是一种错误的二元对立。

事实上,已经存在一些技术路径,可以在保持消息传输加密的前提下,对有害内容进行检测。关键在于检测发生的位置:

  • 在消息在用户设备上被加密并发送之前;
  • 或在接收方设备上解密之后。

这类“设备端”方案过去一直存在争议,任何实际部署都必须在设计上尽可能保护隐私。但科技公司也需要在反对声音与现实危害之间做权衡,探索真正“安全即设计”的方案。

苹果已经在 Messages、AirDrop 和 FaceTime 中部署了设备端的裸露内容检测,并在大规模环境下运行。2025 年的一项研究还展示了,如何利用 Meta 专为移动端部署设计的 AI 模型,实现高精度的诱导行为检测。

最近,苹果和谷歌也在部分司法辖区开始通过应用商店实施年龄验证措施。其中最具代表性的现实案例,是苹果在英国启用的设备级、注重隐私保护的年龄验证机制。

从社交媒体和私信服务,到操作系统提供商(微软、苹果、谷歌),各方都应在检测和遏制有害内容方面承担责任,而不应将是否采用端到端加密视为“是否保护儿童”的唯一分界线。

目前相关进展仍然缓慢,但从社会整体利益出发,我们有理由对这些公司提出更高要求。

本文转载自 The Conversation,依据知识共享许可协议发布。原文可在线查阅。


分享:


发表评论

登录后才可评论。 去登录