儿童如今在网络上极易接触到暴力、性、自残等各类有害内容。表面上看,这是内容审核不到位的结果,但更根本的驱动力,其实来自平台背后的经济与商业模式。
互联网的大部分服务,都是围绕“吸引并留住注意力”来设计的。推荐算法在运作时,并不会认真区分哪些内容是有益的、哪些是中性的、哪些可能有害。很多所谓“主题无关”的算法,唯一的目标就是让用户尽可能长时间地停留、观看、滑动和点击。
原因很直接:注意力可以转化为广告收入。
多数在线平台对用户来说看似免费,但其主要收入来源是广告。用户在线时间越长,看到的广告就越多,对广告主的价值也就越高。因此,平台的产品和功能设计,都深受“注意力经济”的逻辑影响——在这个系统中,人类的注意力被当作可以买卖的核心资源。
哈佛学者 Shoshana Zuboff 将这种模式称为“监控资本主义”:平台通过收集用户的行为数据,预测用户下一步可能做什么,并不断调整系统来影响这些行为,以此最大化利润。
这与有害内容的传播密切相关。大量研究表明,能激起强烈情绪的内容——例如引发恐惧、愤怒、焦虑或震惊的材料——往往能带来更高的互动率。对推荐系统的研究发现,算法排序会倾向于放大那些能持续激活用户情绪的内容,而不太在意这些内容在社会层面是否有价值。
对成年人而言,这种机制可能会扭曲公共讨论和政治话语。对儿童和青少年来说,影响则更为深远,因为他们的上网习惯、情绪调节能力和价值判断仍在形成中。年轻用户对社会比较、令人不安的叙事和情绪强烈的内容尤其敏感。当推荐系统发现某个年轻用户在此类内容上停留更久、搜索相关话题或频繁互动时,往往会进一步推送更多类似内容。
这就形成了媒体研究者所说的“反馈循环”:
- 用户的参与信号驱动推荐;
- 推荐带来更多曝光;
- 曝光又加深参与。
在这个过程中,用户并不是被某个具体的人“盯上”,而是被一整套为优化参与度而设计的算法所“锁定”。
公共讨论中,人们常把解决方案简单理解为“更快删除有害内容”。内容审核当然重要,但问题并不止于此。有害内容之所以不断扩散,是因为支撑平台运作的激励机制没有改变。

只要平台的收入依赖于注意力,系统就会自然地偏向那些最能抓住眼球的内容。即便删除了一些极端的帖子,只要推动参与的算法逻辑不变,整体效果就十分有限。
这也解释了为什么即使不断推出新的安全工具和政策,网络上关于有害内容的争议仍层出不穷;以及为什么单纯提出社交媒体禁令,难以真正触及问题根源。越来越多的平台治理研究者认为,要提升安全性,必须从系统设计和激励结构入手,而不能只盯着单条内容。
广告的角色:处在系统中心,却常被忽视
在公众关于网络安全的讨论中,广告往往不是焦点,但它实际上位于整个生态系统的核心。广告收入支撑着推荐系统的开发、数据收集的规模,以及各种用来提升参与度的策略。
这并不意味着广告主主动希望造成伤害。事实上,许多品牌并不清楚自己的广告在复杂的程序化广告链条中究竟会出现在什么内容旁边。然而,经济现实依旧存在:只要参与度能带来收益,那么包括对有害内容的参与在内,都会被转化为价值。
与此同时,外部审查正在加强。在英国,监管机构正推动实施《网络安全法》,国际上针对社交媒体危害的诉讼也在增加,研究者通过法律途径获取了更多平台内部文件。这些发展逐步打开了过去被称为平台决策“黑箱”的部分内部运作。
需要强调的是,数字环境并不是自然演化的结果,而是几十年来技术、经济和政治选择共同塑造的产物。既然是被设计出来的,就意味着也有机会被重新设计。
当前进入公众视野的讨论,已经不再只是“要不要禁手机”或“年轻人是否自律”这样的问题,而是转向对激励结构的追问:
- 现有商业模式到底在奖励什么样的网络环境?
- 有没有替代方案,既能支持技术创新,又能把用户福祉放在更优先的位置?
对于广告和科技行业的从业者来说,这一时刻尤为关键。随着公众理解的加深,“系统太复杂,外界无法真正影响”的说法越来越站不住脚。
如果目标是构建更安全的数字空间,讨论就必须超越单个帖子或单个账号,转而关注那些决定内容为何会被放大、为何会持续传播的底层结构。弄清广告、数据和算法之间如何相互作用,并不是技术细节上的小问题,而是打造一个优先保护儿童、而非单纯从儿童注意力中获利的互联网的关键前提。
本文内容根据《对话》(The Conversation)网站文章,在创意共享许可下改写整理。
