Reddit推行“人类验证”机制应对可疑机器人账户

Reddit宣布,将对被怀疑为自动化操作的账户引入“人类验证”要求,并为为用户提供服务的自动化账户增加专门标识,以强化对机器人驱动垃圾信息和操纵行为的治理。

仅针对可疑账户实施验证

Reddit表示,新措施并非面向全站用户的普遍验证要求,而是仅在有迹象显示账户可能并非真人时启动验证流程。相关迹象包括账户在站内的行为模式以及其他技术信号。

公司称,如账户未能通过验证,平台可能对其施加限制,但未具体说明限制形式。

为识别潜在机器人,Reddit使用专门工具分析账户层面的多项信号及其他因素,例如账户尝试撰写或发布内容的速度等。Reddit同时指出,使用人工智能撰写帖子或评论本身并不违反平台政策,但各个社区版主可以制定更为严格的本地规则。

引入第三方“人类验证”工具

在验证账户背后是否为真人方面,Reddit计划依托多种第三方工具,包括Apple、Google、YubiKey提供的通行密钥,以及其他第三方生物识别服务,如Face ID和Sam Altman的World ID。在部分国家和地区,还可能使用政府签发的身份证件进行验证。

Reddit指出,政府身份证明在英国、澳大利亚及美国部分州可能因当地年龄验证法规而被要求使用,但这并非公司首选方式。

Reddit联合创始人兼首席执行官Steve Huffman在公告中表示,公司将以“隐私优先”的方式推进相关工作。他写道,验证的目标是确认账户背后存在真人,而非确认该真人的具体身份,旨在在提高平台内容透明度的同时,保留Reddit长期以来的匿名特性。

机器人流量与平台治理压力上升

Reddit此举背景是社交平台及更广泛互联网面临的机器人问题持续加剧。机器人被用于影响政治议题、传播虚假信息、抬高人气、进行隐性营销、制造虚假广告点击等。根据Cloudflare数据,包括网络爬虫和人工智能代理在内的机器人流量预计将在2027年超过人类流量。

Reddit近年来成为此类活动的重点目标之一。平台上出现机器人试图操纵讨论叙事、伪装草根支持以推销公司或产品、重复发布链接、发送垃圾信息、引流以及进行研究等行为。

此外,由于Reddit内容被用于训练人工智能模型,并与相关服务提供商达成高额合作,有猜测认为,一些机器人可能在站内主动发布问题,以在信息相对匮乏的领域生成更多训练数据。

Reddit联合创始人Alexis Ohanian此前也谈及所谓“死互联网理论”——该理论认为,网络上机器人数量已超过人类,大部分内容、互动和活动由自动化系统或人工智能生成,而非真实用户。在AI代理快速发展的背景下,这一担忧在业内被频繁提及。

长期方案仍在探索

Reddit在去年已宣布,将开始引入人类验证机制,以应对平台上不断增长的机器人数量,并满足“不断变化的监管要求”。公司称,目前正在实施的方案并非最终形态。

Huffman在最新公告中表示,理想的长期解决方案应当是去中心化、个性化且注重隐私,且在理想情况下甚至不依赖传统身份证明。

持续清理机器人与垃圾账户

在新验证措施之外,Reddit表示,将继续通过既有手段清理机器人和垃圾信息账户。公司称,目前平均每天移除约10万个账户,并依赖用户对疑似机器人的举报,同时计划推出更完善的举报和管理工具。

对于为用户提供服务的“好机器人”,Reddit将为其提供类似X平台“好机器人”标识的标记方式。公司表示,相关开发者可在r/redditdev社区了解如何使用新的“APP”标签对这类自动化账户进行标注。


分享:


发表评论

登录后才可评论。 去登录