多名人工智能与网络错误信息领域的研究人员警告称,政治领导人可能在不久的将来动员模仿人类行为的“AI代理群体”,通过社交媒体与消息渠道重塑公众舆论,从而对民主制度构成风险。
这份警告发表于《科学》杂志。发起者包括诺贝尔和平奖获得者、言论自由倡导者玛丽亚·雷萨,以及来自伯克利、哈佛、牛津、剑桥和耶鲁等高校的人工智能与社会科学研究人员。他们组成的全球联盟指出,一种难以察觉的恶意“AI机器人群”正在社交媒体和信息传播渠道中滋生,成为新的“破坏性威胁”。
作者在文中表示,潜在的独裁者可能利用此类机器人群影响公众,促使民众接受取消选举或推翻选举结果等主张,并称到2028年美国总统选举时,这项技术可能已具备大规模部署条件。
研究人员呼吁开展协调一致的全球行动以降低风险,建议使用“机器人群扫描器”识别协作型机器人活动,并通过对内容加水印等方式抵制由AI操控的错误信息传播。文章同时提到,2024年台湾、印度和印度尼西亚的选举中已出现AI驱动影响行动的早期版本。
作者写道,“一个破坏性威胁正在出现:协作的恶意AI代理群体。”他们认为,这类系统能够自主协调、渗透社区并高效制造共识;通过适应性模仿人类社会互动方式,可能对民主构成威胁。
在对风险评估方面,宣传技术研究专家英加·特劳蒂格表示,政治人物不愿将竞选控制权交给AI,可能会减缓更先进技术的采用;此外,考虑到选民仍可能更受线下材料影响,使用非法技术的风险未必划算。
参与发出警告的专家还包括纽约大学的加里·马库斯,以及台湾首位数字部长唐凤。唐凤表示,“受权威力量雇佣者正在破坏选举进程,武器化AI并利用我们的社会优势对付我们。”其他作者包括康斯坦茨大学社会与行为数据科学教授大卫·加西亚、剑桥大学社会决策实验室主任桑德·范德林登,以及牛津大学认知神经科学教授、AI研究员克里斯托弗·萨默菲尔德。

研究人员称,政治领导人可能部署数量几乎无限的AI账号冒充网民,精准渗透特定社区,长期识别其弱点,并以更具说服力、更加定制化的虚假信息影响公众观点。作者认为,随着AI对语气与内容的把握能力提升,这类系统越来越能模仿人类互动特征,例如使用恰当俚语、采用不规则发帖节奏以降低被识别概率;而代理型AI的发展也意味着其具备自主规划与协同行动的能力。
奥斯陆Sintef研究所研究科学家丹尼尔·蒂洛·施罗德表示,这些AI不仅可能活跃于社交媒体,还可能根据目标选择消息渠道,甚至撰写博客或发送电子邮件。他称,在实验室条件下模拟机器人群时发现,“这些东西能轻易编写代码,组建小型机器人军团,能够在社交媒体平台和电子邮件中自如穿梭”。
挪威商学院传播学教授乔纳斯·库恩斯特则表示,如果机器人群体开始以集体形式进化、交换信息以解决问题,并以恶意目标为导向分析社区并寻找薄弱环节,协作将提升其准确性与效率,并称这是“预测将会实现的非常严重的威胁”。
在台湾相关观察方面,台湾民主进步党议员、反对中国虚假信息的活动人士熊猫申表示,过去两三个月,Threads与Facebook上AI账号与公民互动有所增加。在政治议题讨论中,这些账号往往提供“无法验证的大量信息”,造成“信息过载”,并可能引用有关“美国将放弃台湾”的虚假文章。他还提到,近期一些账号会向年轻人强调两岸争端“非常复杂”,并劝其“如果不了解情况,不要站队”。
《卫报》在报道中称,鉴于AI技术进展未如硅谷公司OpenAI和Anthropic所宣称的那样迅速,媒体邀请独立AI专家评估“机器人群”风险。特劳蒂格表示,在2024年这一选举密集年份,AI驱动的微定向能力已具备,但尚未出现学者预测的那种规模,多数政治宣传从业者仍在使用较旧技术。
牛津大学人工智能基础教授迈克尔·伍尔德里奇则表示,动员由大型语言模型驱动的“虚拟军队”干扰选举、操纵公众舆论在技术上“完全可行”,并指出相关技术持续进步且更易获取。
