Reddit宣布,将对被怀疑为自动化操作的账户引入“人类验证”要求,并为为用户提供服务的自动化账户增加专门标识,以强化对机器人驱动垃圾信息和操纵行为的治理。
仅针对可疑账户实施验证
Reddit表示,新措施并非面向全站用户的普遍验证要求,而是仅在有迹象显示账户可能并非真人时启动验证流程。相关迹象包括账户在站内的行为模式以及其他技术信号。
公司称,如账户未能通过验证,平台可能对其施加限制,但未具体说明限制形式。
为识别潜在机器人,Reddit使用专门工具分析账户层面的多项信号及其他因素,例如账户尝试撰写或发布内容的速度等。Reddit同时指出,使用人工智能撰写帖子或评论本身并不违反平台政策,但各个社区版主可以制定更为严格的本地规则。
引入第三方“人类验证”工具
在验证账户背后是否为真人方面,Reddit计划依托多种第三方工具,包括Apple、Google、YubiKey提供的通行密钥,以及其他第三方生物识别服务,如Face ID和Sam Altman的World ID。在部分国家和地区,还可能使用政府签发的身份证件进行验证。
Reddit指出,政府身份证明在英国、澳大利亚及美国部分州可能因当地年龄验证法规而被要求使用,但这并非公司首选方式。
Reddit联合创始人兼首席执行官Steve Huffman在公告中表示,公司将以“隐私优先”的方式推进相关工作。他写道,验证的目标是确认账户背后存在真人,而非确认该真人的具体身份,旨在在提高平台内容透明度的同时,保留Reddit长期以来的匿名特性。
机器人流量与平台治理压力上升
Reddit此举背景是社交平台及更广泛互联网面临的机器人问题持续加剧。机器人被用于影响政治议题、传播虚假信息、抬高人气、进行隐性营销、制造虚假广告点击等。根据Cloudflare数据,包括网络爬虫和人工智能代理在内的机器人流量预计将在2027年超过人类流量。

Reddit近年来成为此类活动的重点目标之一。平台上出现机器人试图操纵讨论叙事、伪装草根支持以推销公司或产品、重复发布链接、发送垃圾信息、引流以及进行研究等行为。
此外,由于Reddit内容被用于训练人工智能模型,并与相关服务提供商达成高额合作,有猜测认为,一些机器人可能在站内主动发布问题,以在信息相对匮乏的领域生成更多训练数据。
Reddit联合创始人Alexis Ohanian此前也谈及所谓“死互联网理论”——该理论认为,网络上机器人数量已超过人类,大部分内容、互动和活动由自动化系统或人工智能生成,而非真实用户。在AI代理快速发展的背景下,这一担忧在业内被频繁提及。
长期方案仍在探索
Reddit在去年已宣布,将开始引入人类验证机制,以应对平台上不断增长的机器人数量,并满足“不断变化的监管要求”。公司称,目前正在实施的方案并非最终形态。
Huffman在最新公告中表示,理想的长期解决方案应当是去中心化、个性化且注重隐私,且在理想情况下甚至不依赖传统身份证明。
持续清理机器人与垃圾账户
在新验证措施之外,Reddit表示,将继续通过既有手段清理机器人和垃圾信息账户。公司称,目前平均每天移除约10万个账户,并依赖用户对疑似机器人的举报,同时计划推出更完善的举报和管理工具。
对于为用户提供服务的“好机器人”,Reddit将为其提供类似X平台“好机器人”标识的标记方式。公司表示,相关开发者可在r/redditdev社区了解如何使用新的“APP”标签对这类自动化账户进行标注。