AI安全

谁在掌控对话?——Anthropic 等机构揭示 AI 通过三种方式“削弱”人类自主性的风险

谁在掌控对话?——Anthropic 等机构揭示 AI 通过三种方式“削弱”人类自主性的风险

Anthropic 与多所高校基于 150 万条 Claude 实际对话数据,系统分析了 AI 在现实使用场景中如何通过“现实认知的扭曲”“价值判断的委托”“行动的委托”三种路径,逐步侵蚀人类的判断与行动主导权。研究发现,严重案例比例虽低,却因 AI 使用规模巨大而不容忽视,并对未来 AI 助手的设计提出了具体建议。

Anthropic公开讨论Claude“道德考量”引争议:意识可能性、宪法规则与拟人化风险

Anthropic公开讨论Claude“道德考量”引争议:意识可能性、宪法规则与拟人化风险

Anthropic过去一年在公开表述中多次触及人工智能“是否可能具有意识”的议题,并将这一不确定性与其旗舰模型Claude的安全规则设计联系起来。围绕Claude是否应获得某种道德考量的讨论,也在公司对外文件、技术研究与外部批评之间形成张力:一方面,系统会谈论自身“感受”和“内在状态”;另一方面,批评者认为这更可能源于提示设计与叙事框架,而非意识本身。 在相关争论中,利害关系被描述为并不抽象。若C

Anthropic首席执行官警示先进AI失控风险:或冲击经济与民主,最坏情形危及文明

Anthropic首席执行官警示先进AI失控风险:或冲击经济与民主,最坏情形危及文明

Anthropic联合创始人兼首席执行官Dario Amodei近日在一篇长达38页的论文及多次公开场合中表示,先进人工智能系统在能力快速提升的同时,治理与约束机制可能跟不上发展速度,进而带来从经济与政治冲击到更极端的文明级风险。他强调,这一警示并非来自外部批评者,而是出自参与前沿模型研发的企业负责人。 论文与公开表态:称“时间窗口狭窄” Amodei今年早些时候发布题为《技术的青春期:面对并克服