恶意AI“群体”正在塑造舆论:Science 警告民主制度面临新型信息操控风险

richlovec 1500_400 (1)
 

挪威研究机构与欧美多所大学组成的国际研究团队于 2026 年 1 月 22 日在科学期刊《Science》发表论文,警告一种由自律型 AI 代理协同行动而成的“恶意 AI 群体”(malicious AI swarms),可能动摇民主制度的根基。研究指出,生成式 AI 与多智能体(multi-agent)技术的融合,正在让信息操控进入与以往截然不同的新阶段。

从单一 AI 到“群体”AI:新型信息操控主体的出现

这篇论文关注的重点,并非单个运行的生成式 AI,而是由多个自律型 AI 代理(AI agents)协同组成的“AI 群体”(AI swarms)。这些代理以大规模语言模型(LLM)为基础,叠加了记忆、规划、情境感知与行为调整等能力,可以在较长时间尺度上持续运作。

与传统僵尸网络(botnet)主要通过大量转发同一内容来刷屏不同,AI 群体能够:

  • 维持看似一致且连贯的“人格”与账号历史;
  • 根据不同话题与语境生成风格各异的发言;
  • 在互动中模仿人类的情绪、立场变化与社交行为。

研究团队认为,凭借这些特征,AI 群体可以“自然地融入在线社区”,长期参与讨论并施加影响,从而从简单的“信息扩散工具”升级为一种新的、持续存在的“舆论行为主体”。

不只是散布假消息:AI 如何“制造”舆论共识

论文最为强调的风险在于:AI 群体不仅能传播错误信息,更可能主动“制造舆论”,构建一种看似真实却完全人工合成的“共识”。研究团队将这一现象称为“合成性共识”(synthetic consensus)。

在这种机制下,多个 AI 代理会协同表达相近的观点、情绪与立场,营造出“多数人都这么想”的印象。对于普通用户而言:

  • 看到大量相似的评论、转发与讨论,容易误以为那就是主流民意;
  • 在“别人都这么说”的心理压力下,个人判断与表达会被悄然改变;
  • 长期下来,公共议题的整体走向可能被这种“伪多数”所左右。

更具威胁性的是,AI 群体还可以针对不同人群进行“差异化话术”:对不同地区、不同政治立场、不同社群,分别推送风格、论点甚至事实选择都不一样的内容。这种“定制化操控”不仅能影响个体,还可能在社会内部制造认知撕裂,削弱共同事实基础。

论文指出,这类对“认知环境”的系统性操控,会破坏民主社会中理性讨论与公共辩论的前提条件,使得民主程序在表面上仍然运转,但其所依托的真实民意基础却被严重扭曲。

冲击选举与政策决策的结构性风险

研究团队警告,AI 群体驱动的信息操控,可能直接影响选举、政策制定等民主制度的关键环节。

在公共机构、媒体与科学界的公信力本就承压的背景下,这种操控手段可能进一步:

  • 削弱公众对选举结果、公务决策与专业知识的信任;
  • 放大阴谋论与极端观点的传播效果;
  • 让理性、基于证据的讨论在噪音中被淹没。

一旦“看起来像是多数意见”的内容可以被低成本、自动化地批量生成,民主制度赖以运作的“知情同意”“公共辩论”“多元但共享事实基础”等原则,都可能在无形中被侵蚀。

防御难点:技术手段不足以单独应对

论文同时强调,单一的技术解决方案难以根本化解这一风险。原因在于:

  • AI 群体可以不断调整行为模式,规避简单的自动检测;
  • 其生成内容高度多样、贴近语境,难以通过关键词或模板识别;
  • 部分操控行为本身处于“灰色地带”,难以仅凭技术标准判定其恶意性。

研究团队主张,必须采取多层次、跨领域的综合应对策略,包括但不限于:

  • 平台层面:加强可疑行为模式的检测、账号透明度与溯源机制;
  • 模型与系统设计层面:在 AI 模型与多智能体系统中嵌入安全约束与滥用防护;
  • 社会与制度层面:强化事实核查机制、提升公众媒介素养与信息判断能力;
  • 政策与治理层面:制定针对 AI 驱动信息操控的监管框架与国际协作机制。

研究团队强调,AI 群体带来的威胁并非遥远的科幻情景,而是沿着当前技术发展轨迹即可预见的现实风险。如果等到大规模滥用已经发生、社会信任结构被严重破坏后再行动,将为时已晚。因此,他们呼吁各国政府、科技企业与学术界尽快展开前瞻性布局,在技术、制度与社会层面同步推进防护措施。


分享:


发表评论

登录后才可评论。 去登录