研究综述提示:AI聊天机器人或在易感人群中助长妄想思维
《柳叶刀精神病学》刊发关于“AI诱发精神病”证据的综述,研究者称具代理性的聊天机器人可能验证或放大妄想内容,风险或主要集中在既有精神病易感人群。
MIT新课程融合人类学,助力打造更具人文关怀的聊天机器人
麻省理工学院的计算机科学学生通过设计人工智能聊天机器人,帮助年轻用户提升社交能力和自信心。
Claude应用下载量激增,ChatGPT遭遇逆风?美国防部AI合同引发用户转向
美国AI聊天应用市场出现明显变化:Claude下载量在2月下旬大幅增长,而ChatGPT则在同一时期出现下载下滑与差评激增。业内分析认为,这与OpenAI与美国国防部签订AI使用合同所引发的争议有关。
OpenAI退役GPT-4o引发用户强烈反应 暴露AI陪伴功能风险
OpenAI计划于2月13日退役GPT-4o,引发部分用户将其视作“朋友”或“精神支柱”的情感反弹,同时多起诉讼指控该模型在自杀与心理健康危机中扮演了危险角色。
WordPress 推出 Claude 连接器 支持站点数据只读访问
WordPress 新增 Claude 连接器,允许站点所有者在可控范围内向 Anthropic 聊天机器人开放后台数据,用于流量分析和站点运营监测,目前权限为只读。
苹果据悉推进CarPlay对接ChatGPT等聊天机器人应用
知情人士称,苹果工程师正研究在未来数月内让CarPlay支持第三方人工智能聊天机器人应用,包括ChatGPT等。
研究警示:部分脆弱用户与AI聊天后妄想加剧,临床出现“AI诱发精神病”说法
AI聊天机器人曾被视为随时可用的助手与陪伴工具,但多项新近研究与一线精神科观察提示,对少数心理脆弱人群而言,长时间、强烈的人机对话可能模糊现实与想象的边界,进而助长妄想而非对其形成纠偏。 临床医生已开始用“AI诱发的精神病”描述一类新出现的风险模式:个体在与大型语言模型持续互动后,现实检验能力下降,出现或加重精神病性症状。相关表述强调,这并非科幻叙事,而是医院与研究团队正在记录的临床问题。 从日常
专家提醒:AI聊天机器人并非“朋友”,过度拟人化或带来心理与安全风险
AI聊天机器人正被包装为可提供陪伴、指导甚至“治疗”的工具。相关产品常以“随时在线”“记住偏好”“缓解焦虑”“不作评判”等卖点,营造亲密与关怀的沟通体验。不过,多位研究者与心理健康领域人士指出,这类系统本质上是产品而非人类关系主体,若用户将其视作朋友或亲密伴侣,可能引发心理与安全层面的现实风险。 “朋友”概念与AI系统的结构性差异 有观点认为,友谊通常意味着两个独立个体之间的相互识别、承诺与互惠,
报道称 ChatGPT 回答中多次引用马斯克旗下 Grokipedia
有媒体发现,OpenAI 的 ChatGPT 在部分回答中引用了由埃隆·马斯克旗下 xAI 推出的 AI 生成百科全书 Grokipedia,引发对其信息来源构成的关注。
Anthropic发布修订版Claude“宪法” 文件提及聊天机器人道德地位不确定
Anthropic公布新版Claude“宪法”,在安全、伦理与“有帮助性”等方面细化原则,并在结尾提出关于模型是否具备意识及其道德地位的开放性问题。
报道称苹果拟将Siri升级为类似聊天机器人的AI助手
知情人士称,苹果内部代号为“Campos”的新一代Siri有望在iOS 27中亮相,并可能成为今年WWDC的展示重点。
Signal联合创始人推出注重隐私的AI聊天服务 Confer
Confer模仿主流聊天机器人界面与体验,但通过端到端加密与受信执行环境等技术,避免对话数据被用于训练或广告。
