Anthropic 更新前沿 AI 安全指引:仅在“明显领先”时才考虑放缓开发
Anthropic 将其前沿 AI 安全框架 RSP 更新至 3.0 版,把“是否放缓开发”与自身在行业中的领先程度以及竞争对手的能力与安全措施挂钩,并新增定期公开风险评估报告等透明度机制。
Anthropic称“良心上无法”按五角大楼要求移除AI安全防护
Anthropic表示不会关闭Claude的安全防护并向美军提供无限制访问。美国国防部据称以取消最高2亿美元合同并将其列为“供应链风险”相威胁。
Karpathy 将「Claw」定位为聊天与代码之后的新一层:站在 LLM 代理之上的上位架构
OpenAI 共同创始人 Andrej Karpathy 将「Claw」描述为位于 LLM 代理之上的新一层,用于统筹调度、多代理协作与长期状态管理,同时对当前代表性实现 OpenClaw 的安全风险提出强烈警告,并关注 NanoClaw 等小而精的替代方案。
Noma Security任命Ted Plumis为全球渠道与联盟副总裁
Noma Security宣布任命Ted Plumis加入高管团队,负责全球渠道与联盟业务,以支持其面向企业智能代理AI安全需求的增长战略。
CHAI称过去三年保持三倍年增长 年度经常性收入达6800万美元并披露AI安全措施更新
CHAI表示,过去三年公司保持三倍年增长,年度经常性收入达到6800万美元,估值为14亿美元。公司同时披露多项AI安全与合规举措,涵盖内容审核、自杀与自残风险识别、运营透明度与隐私保护等。
Portal26发布AI价值实现解决方案,聚焦提升企业AI投资回报
Portal26称,其新推出的AI价值实现模块基于用户行为数据,为企业在生成式AI投资、项目规模化与成本管理等方面提供证据驱动的决策支持。
谁在掌控对话?——Anthropic 等机构揭示 AI 通过三种方式“削弱”人类自主性的风险
Anthropic 与多所高校基于 150 万条 Claude 实际对话数据,系统分析了 AI 在现实使用场景中如何通过“现实认知的扭曲”“价值判断的委托”“行动的委托”三种路径,逐步侵蚀人类的判断与行动主导权。研究发现,严重案例比例虽低,却因 AI 使用规模巨大而不容忽视,并对未来 AI 助手的设计提出了具体建议。
国际人工智能安全报告:深度伪造扩散、AI伴侣走红等七项风险与进展
第二份年度《国际人工智能安全报告》梳理了过去一年AI能力跃升及其带来的安全与社会影响,涵盖深度伪造、生物化学风险、网络攻击、监管规避与就业市场等议题。
Anthropic公开讨论Claude“道德考量”引争议:意识可能性、宪法规则与拟人化风险
Anthropic过去一年在公开表述中多次触及人工智能“是否可能具有意识”的议题,并将这一不确定性与其旗舰模型Claude的安全规则设计联系起来。围绕Claude是否应获得某种道德考量的讨论,也在公司对外文件、技术研究与外部批评之间形成张力:一方面,系统会谈论自身“感受”和“内在状态”;另一方面,批评者认为这更可能源于提示设计与叙事框架,而非意识本身。 在相关争论中,利害关系被描述为并不抽象。若C
Anthropic首席执行官警示先进AI失控风险:或冲击经济与民主,最坏情形危及文明
Anthropic联合创始人兼首席执行官Dario Amodei近日在一篇长达38页的论文及多次公开场合中表示,先进人工智能系统在能力快速提升的同时,治理与约束机制可能跟不上发展速度,进而带来从经济与政治冲击到更极端的文明级风险。他强调,这一警示并非来自外部批评者,而是出自参与前沿模型研发的企业负责人。 论文与公开表态:称“时间窗口狭窄” Amodei今年早些时候发布题为《技术的青春期:面对并克服
Anthropic负责人警告AI风险“几乎已来临”,呼吁社会体系做好准备
Anthropic联合创始人兼首席执行官Dario Amodei在长文中称,强大人工智能可能在一到两年内出现,人类将获得“几乎难以想象的力量”,但社会、政治与技术体系是否足以驾驭仍不明确。他呼吁各方对AI安全保持“警醒”并采取行动。
流氓代理与隐秘AI使用引发担忧:风投押注企业级AI安全
一家安全初创公司近期获得5800万美元融资,聚焦监控企业内部AI使用、管控“失控”代理行为及合规风险,反映出资本市场对AI安全赛道的持续关注。