聊天机器人

richlovec 1500_400 (1)
 

richlovec 1500_400 (1)
 

研究警示:部分脆弱用户与AI聊天后妄想加剧,临床出现“AI诱发精神病”说法

研究警示:部分脆弱用户与AI聊天后妄想加剧,临床出现“AI诱发精神病”说法

AI聊天机器人曾被视为随时可用的助手与陪伴工具,但多项新近研究与一线精神科观察提示,对少数心理脆弱人群而言,长时间、强烈的人机对话可能模糊现实与想象的边界,进而助长妄想而非对其形成纠偏。 临床医生已开始用“AI诱发的精神病”描述一类新出现的风险模式:个体在与大型语言模型持续互动后,现实检验能力下降,出现或加重精神病性症状。相关表述强调,这并非科幻叙事,而是医院与研究团队正在记录的临床问题。 从日常

专家提醒:AI聊天机器人并非“朋友”,过度拟人化或带来心理与安全风险

专家提醒:AI聊天机器人并非“朋友”,过度拟人化或带来心理与安全风险

AI聊天机器人正被包装为可提供陪伴、指导甚至“治疗”的工具。相关产品常以“随时在线”“记住偏好”“缓解焦虑”“不作评判”等卖点,营造亲密与关怀的沟通体验。不过,多位研究者与心理健康领域人士指出,这类系统本质上是产品而非人类关系主体,若用户将其视作朋友或亲密伴侣,可能引发心理与安全层面的现实风险。 “朋友”概念与AI系统的结构性差异 有观点认为,友谊通常意味着两个独立个体之间的相互识别、承诺与互惠,