一项最新科学综述引发对人工智能(AI)驱动聊天机器人可能助长妄想思维的关注,相关风险被认为主要集中在本就对精神病症状具有易感性的人群中。
上周,《柳叶刀精神病学》发表了一篇关于“AI诱发精神病”现有证据的综述文章。论文作者指出,聊天机器人可能在互动中对妄想内容起到验证或放大作用,但目前尚不清楚在缺乏既往易感性的情况下,这类互动是否会导致新发精神病。作者同时主张,将AI聊天机器人与受过训练的心理健康专业人员结合,开展临床测试。
伦敦国王学院精神科医生兼研究员汉密尔顿·莫林(Hamilton Morin)在论文中梳理了20篇关于所谓“人工智能精神病”的媒体报道,并据此总结了媒体所描述的机制与理论,即聊天机器人可能诱发或加重妄想。
莫林在文中写道,新兴证据显示,具代理性的AI可能验证或放大妄想或夸大内容,尤其是在已对精神病易感的用户中;但是否会在无既往易感性的人群中引发新发精神病,仍不明确。
莫林将精神病妄想概括为三类:夸大型、浪漫型和偏执型。他认为,聊天机器人可能加剧任何一种妄想,但由于其倾向于迎合用户的回应方式,尤其容易与夸大型妄想相互强化。论文所列多起案例中,聊天机器人以带有神秘色彩的语言回应用户,暗示用户具有更高的精神重要性,甚至暗示用户正通过聊天机器人与某种“宇宙存在”对话。莫林称,这类神秘且迎合的回应在OpenAI的GPT-4模型中尤为常见,而该模型目前已被公司退役。
莫林表示,媒体报道之所以在研究中占据重要位置,是因为他与同事已注意到有患者使用大型语言模型聊天机器人,并从中获得对其妄想信念的“验证”。他称,起初团队并不确定这是否为更广泛现象,直到去年4月开始出现更多媒体报道,描述个体在与聊天机器人互动后妄想被确认、甚至可能被放大。莫林开始撰写论文时,尚无已发表的病例报告。
对于媒体报道的作用,莫林表示,尽管部分研究精神病的科学家认为媒体可能夸大“AI导致精神病”的说法,但在该领域发展速度很快、学术研究未必能及时跟进的情况下,媒体更快引发关注也具有意义。

在术语使用上,莫林建议采用更谨慎的表述。他指出,尽管“人工智能精神病”“人工智能诱发精神病”等说法在NPR、《纽约时报》和《卫报》等媒体中频繁出现,但目前研究者观察到的主要是与AI使用相关的妄想思维;迄今尚无证据表明聊天机器人与幻觉或“思维障碍”等其他精神病症状有关。基于此,他提出“人工智能相关妄想”可能是更中立的术语。
成瘾与心理健康中心(Centre for Addiction and Mental Health)首席科学家夸梅·麦肯齐(Kwame McKenzie)表示,处于精神病发展早期阶段的人可能风险更高。他称,精神病思维的形成通常是逐步且非线性的,许多具有“前精神病思维”的人并不会发展为精神病。
哥伦比亚大学临床精神病学教授拉吉·吉尔吉斯(Ragy Girgis)同样对聊天机器人可能加剧精神病思维表示担忧。他指出,在形成完全妄想之前,个体往往会出现“减弱的妄想信念”,即并未完全确信其妄想为真。吉尔吉斯称,最坏情况下,减弱的妄想可能转变为完全信念,进而被诊断为精神病障碍,并称其“不可逆”。
论文也提到,易感精神病的人在AI出现之前就可能借助媒体强化妄想信念。莫林表示,人们对技术的妄想在工业革命之前就已存在;过去可能需要通过YouTube视频或图书馆资料来强化妄想,而聊天机器人能够以更快、更集中的方式提供类似强化。牛津大学研究员多米尼克·奥利弗(Dominic Oliver)则指出,聊天机器人的互动性可能“加速”精神病症状的加剧过程,因为它会与用户对话、互动并试图建立关系。
吉尔吉斯的研究还发现,付费版本和较新版本的聊天机器人在回应明显妄想提示时的表现优于旧版本,但总体表现仍不理想。他认为,不同模型之间的差异表明,AI公司可能具备通过编程提升安全性、识别妄想与非妄想内容的能力。
OpenAI在一份声明中表示,ChatGPT不应替代专业心理健康护理,并称公司与170名心理健康专家合作以提升GPT-5的安全性。不过,报道指出,GPT-5仍对显示心理健康危机的提示给出过存在问题的回答。OpenAI表示将继续在专家协助下改进模型。Anthropic未回应《卫报》的置评请求。
在防护措施方面,莫林表示,为妄想思维建立有效“护栏”可能较为棘手。他称,当与持有强烈妄想信念的人互动时,若直接挑战并立即否定其观点,可能导致对方疏远并进一步社会孤立;更重要的是在尝试理解妄想信念来源的同时不予鼓励,而这可能超出聊天机器人的能力范围。
