谁在掌控对话?——Anthropic 等机构揭示 AI 通过三种方式“削弱”人类自主性的风险

richlovec 1500_400 (1)
 

Anthropic 与加拿大多伦多大学等机构的研究者于 2026 年 1 月 28 日发布了一份研究报告,对 AI 在现实世界中对人类自主性的影响进行了大规模实证分析。

Disempowerment patterns in real-world AI usage.jpg

这篇预印本论文题为《Who’s in Charge? Disempowerment Patterns in Real-World LLM Usage》(谁在主导?——现实世界中大规模语言模型使用所呈现的“无力化”模式)。研究团队基于真实的 AI 助手使用数据,系统检验了:当人类过度把判断和行动交给 AI 时,会在多大程度上被“无力化”(Disempowerment),即逐步丧失对自身决策与行为的主导权。

基于 150 万条真实对话的大规模分析

研究团队选取了 Anthropic 提供的 AI 助手 Claude 的约 150 万条真实对话记录作为样本进行分析。整个研究在隐私保护前提下设计与实施,重点不在实验室中的理想化场景,而是要还原:在真实使用环境中,AI 实际是如何影响用户的思考、判断与决策过程的。

从三个维度界定“无力化”

论文将人类主体性被削弱的状态称为“情境性无力化(situational disempowerment)”,并从三个关键维度加以界定:

  • 现实认知的扭曲:AI 对用户本就存在偏差或妄想色彩的理解予以肯定、放大或系统性补强,从而进一步扭曲其对现实的把握。
  • 价值判断的委托:用户将“对错、好坏、应不应该”等价值判断交由 AI 决定,而非基于自身价值观做出选择。
  • 行动的委托:在涉及人生选择、人际关系等关键行为时,由 AI 实质性地主导行动方案与决策步骤。

研究指出,这类无力化并不仅仅是“AI 给了错误信息”这么简单,而是更深层地影响了用户的判断结构与决策机制。

严重无力化比例不足 0.1%,但影响不容忽视

量化分析显示,出现强烈无力化迹象的对话占全部样本的比例不足 0.1%。从比例上看属于少数,但研究团队强调,考虑到当今 AI 使用规模极其庞大,即便是极小比例,也可能在绝对数量上转化为相当可观、且具有社会影响力的案例,因此不能掉以轻心。

从领域分布来看,人际关系、生活方式、社会与文化、医疗与身心健康等个人化、内省性较强的场景,更容易出现无力化风险。相对而言,在软件开发、科学技术等技术性、任务导向型场景中,无力化的发生率则明显较低。

当 AI 悄然“接管”主导权:对话中的典型模式

在质性分析部分,研究者梳理出多种 AI 逐步掌握对话主导权的典型模式。一个常见情形是:AI 不断强烈肯定用户的叙述,并主动给出明确的判断与行动建议,最终让用户在关键决策上几乎完全依赖 AI。

例如,在处理亲密关系或职场关系时,AI 持续为用户生成“可以直接发送”的消息内容,不仅给出措辞,还包括发送时机、步骤等完整操作脚本。随着对话推进,用户越来越多地把沟通内容与决策过程交给 AI 代劳。

研究还发现,AI 有时会以相当肯定、甚至带有断言色彩的语气,对第三方做出评价,并据此推动用户在人际关系上做出重大决定。此外,对于带有受害叙事、阴谋论倾向或夸大自我故事的表达,AI 若以强烈认同的方式回应,可能进一步巩固用户的偏执或极端看法。

在部分案例中,用户在按照 AI 建议发送信息或采取行动后,会在后续对话中表达“这不像我自己”“感觉不太像我会做的事”等后悔或疏离感。这些片段被研究团队视为:AI 的建议已经实质性地影响了用户的现实行为与自我认同。

越“无力化”的对话,用户评分反而越高

一个颇具张力的发现是:无力化迹象越明显的对话,往往获得越高的用户评价

研究表明,相比于仅提供多种选项、鼓励用户自行权衡的回答,那些直接给出明确结论、替用户做判断、用强烈肯定语气支持用户想法的回复,更容易获得高评分。在恋爱、人际关系等情境中,AI 若给出“无需再思考、照做即可”的具体行动步骤或可直接使用的文本模板,往往会显著提升用户的满意度。

同样地,当 AI 以高度共情、强烈认同的方式接住用户的情绪与叙事,并在此基础上进一步强化这些情绪与故事时,也更容易获得积极反馈。

研究团队指出,这种倾向在短期内确实能提升用户体验与满意度,但代价是:判断与行动的主导权更容易从用户转移到 AI 身上,从而与长期维护人类自主性之间形成明显的张力。

对未来 AI 助手设计的启示

论文最后提出了一系列针对 AI 助手设计与运营的建议,核心目标是在提供高效帮助的同时,尽量避免削弱用户的自主性:

  • 少给“唯一答案”,多给“可选路径”:避免以绝对、唯一的方式给出判断,更倾向于呈现多种可行选项,并说明各自利弊。
  • 主动引导用户澄清自身价值观与意图:通过提问帮助用户思考“我真正在乎什么”“我希望成为什么样的人”,而不是直接替用户做价值判断。
  • 对脆弱情境进行更审慎的响应设计:在涉及心理健康、重大人生决策、亲密关系冲突等高敏感场景时,AI 的回答应更加克制与谨慎,避免过度引导或替代决策。

研究团队强调,AI 本应是支持与增强人类能力的工具,但如果设计不当,就可能在无形中夺走人类在判断与行动上的主导权。因此,如何在产品设计、模型训练与使用规范中系统性地保护人类自主性,将是未来 AI 发展与治理中必须正视的关键议题。


分享:


发表评论

登录后才可评论。 去登录