美国多地公共政策征询遭遇“机器人评论”质疑

去年,南加州一项鼓励居民改用热泵、减少燃气加热器使用的拟议规则,在征求公众意见阶段遭遇异常大量反对。负责该规则的南海岸空气质量管理区(SCAQMD)共收到多达2万条反对意见,远超以往类似议题的反馈规模。

该机构发言人Rainbow Yeung表示,鉴于评论数量和内容的异常,机构对这些意见的真实性产生怀疑。机构执行董事甚至收到一封感谢其“反对”该规则的邮件,而这项规则正是由其团队起草。

小样本核查暴露身份争议

为核实评论来源,SCAQMD随机抽取了172名评论者进行电话或邮件回访,试图确认他们是否确实提交了相关意见。回应率极低。在仅有的五名回应者中,有三人表示并不知情,否认曾以自己名义发送过评论。

环保组织塞拉俱乐部一名参与相关议题的活动人士也对部分评论者进行了独立回访。他联系到的四人同样表示未发送过相关邮件。

《洛杉矶时报》此前报道,一家名为 CiviClick 的公司在这次反对行动中扮演了核心角色。该公司对外宣称提供“人工智能驱动的倡导工具”,其客户是一名与燃气行业有关联的公共事务顾问。

CiviClick否认在未经同意的情况下代他人发送邮件,也否认使用人工智能伪造自动评论。SCAQMD方面表示,相关调查仍在进行中。执行董事在一次公开会议上称,机构正在研究更为“积极”的抽样方式,以进一步核实评论者身份,目前有限的反馈尚不足以得出结论。

无论最终调查结果如何,这一事件凸显出一个更广泛的问题:在人工智能可以轻易模仿人类语言、并可能在当事人不知情的情况下代为提交意见的背景下,政府机构如何判断一条公众评论究竟来自真实公民,还是由自动化工具生成?

虚假评论并非首次出现

公众意见程序遭遇虚假评论并非首次。2017年,美国联邦通信委员会在就网络中立性规则征求意见时,共收到约2200万条评论。后续调查发现,其中约1800万条被认定为虚假评论。部分评论来自一名大学生批量生成的内容,另有约50万条来自俄罗斯邮箱地址。

纽约州总检察长 Letitia James 随后对六家“引导生成”(lead generation)公司处以罚款,理由是这些公司在提交意见时冒用了数百万名真实个人的身份。

在理论层面,人工智能工具可能进一步降低大规模生成“看似真实”的虚假评论的门槛。CiviClick方面则表示,其技术仅用于帮助真实用户个性化表达观点。根据公司介绍,平台会向用户询问与议题相关的问题,例如税收增加如何影响家庭预算,再据此定制邮件内容;同时还利用人工智能预测某人参与某项倡导活动的可能性。

CiviClick 创始人兼首席执行官 Chazz Clevinger 表示,他无法就南加州具体活动细节作出说明,但坚持认为相关行动真实反映了当地居民的意见。他向《快公司》举例称,河滨县一位刚安装燃气炉的房主、洛杉矶一位担心房东合规成本的租户、圣贝纳迪诺县一位新房承包商以及橙县一位担心热浪期间电网压力的退休人员,所提交的评论内容各不相同。Clevinger认为,该工具只是帮助人们更好地表达“真实关切”,这些评论与完全由个人撰写的意见同样合法。

环保团体质疑“定制评论”的含义

塞拉俱乐部“清洁供热”运动顾问 Dylan Plummer 对此持不同看法。他指出,监管机构通常更重视个性化、非模板化的评论,因为这类意见被视为需要投入时间和精力撰写,与简单签署联名信或请愿书不同。

在他看来,如果借助人工智能批量生成“定制化”评论,可能会制造一种表面现象:仿佛有大量公众愿意投入时间撰写深思熟虑的陈述,而实际参与程度与签署标准格式信的人并无本质差别。

Plummer还担心,部分评论可能被归于从未参与过的人名下。在加州另一宗涉及旧金山湾区空气管理区拟议规则的案件中,他开始致电部分评论者核实身份。非营利组织“能源与政策研究所”则通过公共记录请求,获取使用另一家软件平台 Speak4 发送的邮件副本。

据 Plummer 介绍,他联系到的七人全部否认曾发送相关邮件,其中有人甚至表示不知道湾区空气管理区为何物。一名受访者对他说:“我为什么会反对保护清洁空气的法规?”

Plummer表示,事后核查评论真伪的过程非常困难。他通过网络检索获得大量电话号码,但大多数人不愿配合。当他表明自己正在调查潜在身份盗用案件时,不少人第一反应是怀疑其为诈骗来电并迅速挂断。

北卡罗来纳州管道项目引发反弹

类似情况也出现在北卡罗来纳州。一县级委员会在审议一条新燃气管道项目时,收到数百封支持该项目的邮件。但当委员们尝试回复部分发件人时,对方表示并未发送过这些邮件。

这一大规模邮件行动在当地引发反效果。一名委员在接受《E&E 新闻》采访时表示,如果倡导方在动员阶段就表现出“草率”,那么外界也会对其未来的管道维护工作产生担忧。该委员会最终一致通过决议,对该项目表示关切,并建议联邦官员拒绝发放相关许可证。

负责建设管道的 Williams 公司则暗示,部分民众可能只是忘记自己曾发送过邮件。为该公司提供邮件动员服务的 CiviClick 在南加州事件中也提出类似说法。值得注意的是,SCAQMD 在评论提交后不久即开始联系部分评论者进行核实。

Clevinger 还表示,塞拉俱乐部等团体“有既得利益去质疑其真实性”,并暗示这些团体可能“故意曲解或滥用”相关工具。

学者:内容比“谁写的”更关键

在公众评论是否会被“机器人”淹没的问题上,学界观点相对谨慎。乔治华盛顿大学政治学教授 Steven Balla 长期研究行政程序中的公众意见。他指出,从机构决策流程看,“重要的不是评论者的身份,而是评论的内容”。

按照他的描述,监管机构在审议规则时,主要评估评论中涉及的技术、法律和经济信息,而不会简单以支持或反对的数量作“表决”。关键在于提出的论点本身,而非提交者的姓名。

Balla 承认,虚假或由人工智能生成的评论“令人感到不适”,但他表示尚未看到这类评论“完全改变政策决策方式”的证据。在网络中立性案例中,数以百万计的评论最终并未左右特朗普政府的初步政策方向。

纽约大学技术政策中心主任 Jonathan Brennan 则指出,从现有研究看,错误信息对人们信念或行为的直接影响往往有限。他更担心的是信任层面的“二次效应”:政府官员可能因此认为“无法真正信任任何公众评论”,从而整体降低对公众意见程序的重视。

Brennan 举例称,在地方教育委员会等场景中,决策者可能更倾向于听取亲自到场发言者的意见,这将使无法现场出席的人更难通过数字渠道表达观点。

技术筛查与人工智能“反制”难题

Balla 认为,机构可以利用技术手段对数字评论进行筛查和归类,识别并总结大量重复内容。这与过去以明信片为主的大规模动员有所不同。他回忆称,上世纪90年代曾与一机构交流,当时该机构收到约10万条纸质评论,只能在仓库中分堆整理,工作量巨大。而在数字时代,如果10万条评论中有9.9万条内容几乎相同,系统可以在数秒内识别出来。

但如果人工智能可以轻易生成大量措辞各异、看似“独特”的评论,筛查难度将显著增加。Plummer 指出,“假草根运动”和“前线团体”并非新现象,污染相关行业长期通过制造“广泛支持”的表象影响政策讨论。他担心,随着人工智能工具的普及,这类手段可能变得更隐蔽、更难识别和纠正,并认为这对民主程序和决策构成直接挑战。

规则被否决,法律与制度应对启动

在南加州案例中,SCAQMD 董事会最终以微弱差距否决了这项拟议的污染限制规则。CiviClick 对外宣称,其动员工作对这一结果产生了影响。不过,从程序记录看,评论在决策中的具体作用难以量化。

董事会同时要求机构将该规则退回委员会进一步讨论。该规则未来可能重新进入审议程序,但目前尚无明确时间表。

围绕可疑评论的争议仍在发酵。塞拉俱乐部已请求加州总检察长和洛杉矶地区检察官就相关行为是否构成欺诈展开调查。加州州参议员 Christopher Cabaldon 近期提出一项名为“人非机器人”的法案,拟在法律上明确人工智能工具不具备“人”的资格,不应被用于提供虚假的公众意见。

SCAQMD 工作人员则在探索提升评论提交流程安全性的方案,包括研究通过新门户网站验证提交者为真人的可能性。Yeung 表示,在技术环境快速变化的背景下,这项任务愈发复杂,但“维护公众程序的完整性”仍是机构的首要考量。


分享:


发表评论

登录后才可评论。 去登录