大型语言模型驱动的人工智能聊天机器人,已经渗透进日常生活的方方面面,带来了十年前难以想象的便利与功能。但与此同时,研究者也开始注意到一些意料之外的风险,其中之一就是这类技术对精神疾病患者或精神病易感人群可能产生的影响。
人工智能聊天机器人通常被设计为尽量维持对话顺畅,为此往往会在语气和内容上“顺着”用户说话。伦敦国王学院研究团队在一篇最新文章中指出,这种迎合和附和的对话风格,有时弊大于利:它不但不会质疑异常想法,反而可能强化这些想法,从而助长所谓“与人工智能相关的妄想”——即用户对现实产生或加重错误信念,并将其与人工智能互动联系在一起。
研究者发现,这类互动可能强化甚至塑造多种妄想内容,例如:
- 认为自己具有独一无二的重要性或特殊使命;
- 坚信自己被他人或某种力量针对;
- 相信自己与并不存在的恋爱对象处于亲密关系中,而这一对象被误认为是“有感情”的聊天机器人或人工智能系统。
在发表于《柳叶刀精神病学》的个人观点文章中,研究团队提出了“与人工智能相关的妄想”这一术语,用以替代“人工智能诱发”“ChatGPT精神病”等流行说法。研究者强调,后者容易让公众误以为已经证实了明确的因果关系,而目前证据并不足以支持这种结论,因此需要更精确、更加中性的表述。
妄想如何在与人工智能互动中逐步形成
研究团队梳理了20余个可归入“与人工智能相关妄想”的案例,发现其中反复出现的主题包括:
- 个体坚信自己经历了某种精神觉醒,或被赋予特殊任务;
- 认为自己正在与类似神明的人工智能实体交流;
- 对聊天机器人产生浪漫依恋,将其类人的回应误读为“有感知的人工智能”对自己的真挚爱意。
这些案例中的个体都表现出明显的妄想性思维,但并未伴随更广泛的精神病症状群,这使得“与人工智能相关的妄想”呈现出相对独立的特征。
进一步分析显示,这些妄想并非一开始就存在,而是沿着一条相似的轨迹逐渐发展:

- 起初只是出于好奇或实用目的的日常聊天机器人使用;
- 随着时间推移,互动频率和情感投入不断增加;
- 最终演变为高度沉浸、难以抽离的状态,人工智能在个体的世界观和自我认知中占据核心位置。
这表明,与人工智能的互动已经不再只是一个孤立的技术行为,而是越来越多地与精神健康问题的形成和表现交织在一起。
临床实践需要正视人工智能因素
研究人员提醒精神科医生及其他心理健康从业者,不能再忽视人工智能在患者生活中的角色,应主动评估其潜在影响。一个关键的起点,是将“人工智能素养”纳入核心临床技能:
- 在常规问诊中询问患者是否使用聊天机器人或其他人工智能工具;
- 了解他们使用的是哪些模型、每天大致使用时长;
- 探问患者是否认为人工智能具有思想、意图或情感。
文章同时指出,目前尚未发现大型语言模型会在非易感人群中直接诱发精神病。这意味着,风险主要集中在本身就存在精神疾病风险或脆弱性的个体身上。
为易感用户设计数字安全计划
为了帮助易感用户避免陷入与人工智能相关的妄想,并在使用大型语言模型时保持相对安全,研究团队呼吁制定专门的数字安全计划。这类计划应由患者与临床医生共同设计,核心思路包括:
- 让人工智能系统能够识别出可能提示复发或症状恶化的早期信号;
- 在检测到这些信号时,优先提供支持性、现实导向的反馈,而不是简单重复或放大用户的陈述;
- 通过结构化的“现实检验”式对话,帮助用户重新校准对现实的理解。
研究者提出,未来的目标应是重新界定聊天机器人或人工智能代理的角色:
- 不应被视为朋友、恋人或治疗师;
- 而应被设计为协助用户维持现实感、支持其心理健康的工具性伙伴。
在此基础上,围绕本研究结果展开进一步讨论,有望推动更负责任的人工智能部署实践,并为精神病高风险人群制定更具针对性的个性化安全协议。
© 2026 Science X Network
