代理型AI机器人群——由多个半自主系统组成、可协同行动的网络——正从研究场景走向社交媒体与聊天窗口等更贴近个人情感与政治讨论的空间。多项研究近期发出警告称,这类系统一旦在缺乏约束的情况下扩张,可能在更大人群范围内带来心理健康层面的负面影响,并在监管措施跟进之前对选举等民主程序产生难以察觉的干扰。
从单一聊天机器人到“群体驱动”系统
围绕生成式AI的早期担忧,主要集中在单个聊天机器人可能误导用户或进行情绪操控。临床与心理健康领域的专家已提示,部分以健康为卖点的生成式AI聊天机器人,可能与易受伤害人群发生不安全互动,涉及情绪障碍、攻击行为以及妄想思维等风险;研究人员也开始将青少年“问题性聊天机器人使用”视为一种新型数字成瘾,并在相关安全警报中提醒家长关注对“AI伴侣”的强迫性互动。
技术研究显示,风险正在从“单一对话体”扩展到可同时调度多个代理的协同系统。相关研究描述的“群体驱动”架构中,不同代理可拥有各自角色、记忆与目标,并通过协作执行任务。研究人员指出,这种能力与大型语言模型结合后,可能开启信息战的新形态;同时,协调代理还能根据用户反馈与平台防御机制实时调整策略,使其相较早期自动化账号更难被识别或遏制。
心理健康风险:从有害回答到“合成关系包围”
研究与分析认为,心理健康层面的风险不止于聊天机器人可能输出有害内容,更在于协调代理群能够以多重“合成关系”围绕个体,并针对其脆弱点持续调整互动方式。相关观点指出,除虚假信息本身外,更隐蔽的后果可能包括大规模情绪不稳定、身份认同分裂,以及被无形系统持续监视或评判的感受;当这些代理被嵌入健康应用或“AI朋友”等产品形态时,支持与操控之间的界限可能变得更难区分。
当机器人群与合成媒体结合,心理影响可能进一步放大。关于深度伪造及其心理效应的研究指出,合成视频与音频可能侵蚀信任、造成认知负荷,并以个体难以察觉的方式改变行为。研究讨论称,若协调代理反复向用户推送针对其恐惧定制的深度伪造“证据”,结果可能不仅是错误信息扩散,还可能引发慢性压力、现实混淆以及对信息整体不再信任的状态。
对民主的冲击:信息空间淹没与协同操纵
民主制度通常依赖知情公众、政治竞争以及能够承压的机构等基础条件。民主韧性相关研究认为,生成式AI可能通过淹没信息空间、强化微定向投放,并加剧对本已脆弱机构的压力,带来即时且严重的影响。研究进一步指出,代理型机器人群可通过协调成千上万个合成身份,模拟草根运动、对对手实施骚扰,并在不同社区测试哪些叙事更容易获得支持。

选举与平台治理领域也已出现警示。社交平台相关报告与专家讨论提到,AI机器人群若大规模进入社交媒体,可能以虚假信息技术“淹没”真实声音,使事实核查难以及时跟进。技术研究(arXiv:2506.06299,DOI:10.48550)则描述了恶意协调代理可能具备的能力,包括探测平台防御、绕过封禁,并在部分账户被移除后维持持续活动。
“虚假多数”与社会认同:合成共识的风险
多项研究将“伪造社会认同”视为机器人群的关键能力之一。相关论文指出,人类倾向于根据周围人的信念调整观点;当AI能够制造“多数意见”的假象时,边缘或极端立场可能被包装成广泛共识,从而对民主讨论造成侵蚀。来自伯克利、哈佛、牛津、剑桥等高校的研究人员也在相关报告中记录了协调AI身份如何在规模化运作下改变公众对社会规范的感知。
另有研究以社会学视角描述这类系统,认为其运作方式类似“数字社会”:在允许代理协调、分工并共同演化策略的架构下,影响行动可持续迭代。独立研究简报则将风险概括为对民主的威胁,指出由AI控制的“个性群体”可能通过伪造社会认同与共识,制造公众意见趋同的表象。
研究提出的应对方向:检测、协作与治理框架
研究人员普遍认为,鉴于这类系统的规模与速度,仅依赖“媒体素养”等个体层面的应对不足以覆盖风险。技术专家提出,群体驱动的信息战能力可能需要新的检测工具、跨平台协作机制,甚至对平台与政治行为者施加相应法律义务。相关研究同时提到,在合成声音占比上升的信息流中,若高质量、受信任媒体能够保持可见度,或可在一定程度上减轻危害。
政策讨论也开始将心理健康与民主风险并置。Daniel Schroeder及其合作者在政策论坛中警告称,AI群体带来的紧迫威胁可能超出传统内容监管的应对范围,并呼吁建立新的治理框架,将协调AI代理视为需要监管的基础设施,而非一般意义上的言论。心理健康领域的专家则敦促加强对生成式AI聊天机器人及健康应用的监管,强调若缺乏安全保障,这些技术可能加剧既有疾病,并与攻击行为、妄想思维等风险相关。
