Anthropic或将在Claude Code中推出新「auto mode」,进一步自动化操作审批
Anthropic被曝计划在Claude Code中引入全新权限模式「auto mode」,以研究预览形式上线,在保持安全性的前提下减少人工审批中断长时间任务。
Anthropic与美国国防部就AI军用问题重启谈判:在坚持安全红线下寻找合作空间
美国AI公司Anthropic在与美国国防部就其AI模型的军事实用范围发生僵局后,近期重新展开沟通,试图在维持自身安全原则的前提下,探索可行的合作方式。
美国防部AI合同现分歧:Anthropic谈判破裂,OpenAI以安全条款达成协议
特朗普下令联邦机构全面停用Anthropic技术之际,OpenAI与美国防部就机密环境中的AI部署达成协议,并将“安全红线”写入合同条款与技术架构。围绕“任何合法用途”如何界定,两家公司走出了截然不同的路径。
Anthropic 更新前沿 AI 安全指引:仅在“明显领先”时才考虑放缓开发
Anthropic 将其前沿 AI 安全框架 RSP 更新至 3.0 版,把“是否放缓开发”与自身在行业中的领先程度以及竞争对手的能力与安全措施挂钩,并新增定期公开风险评估报告等透明度机制。
Anthropic称“良心上无法”按五角大楼要求移除AI安全防护
Anthropic表示不会关闭Claude的安全防护并向美军提供无限制访问。美国国防部据称以取消最高2亿美元合同并将其列为“供应链风险”相威胁。
Karpathy 将「Claw」定位为聊天与代码之后的新一层:站在 LLM 代理之上的上位架构
OpenAI 共同创始人 Andrej Karpathy 将「Claw」描述为位于 LLM 代理之上的新一层,用于统筹调度、多代理协作与长期状态管理,同时对当前代表性实现 OpenClaw 的安全风险提出强烈警告,并关注 NanoClaw 等小而精的替代方案。
Noma Security任命Ted Plumis为全球渠道与联盟副总裁
Noma Security宣布任命Ted Plumis加入高管团队,负责全球渠道与联盟业务,以支持其面向企业智能代理AI安全需求的增长战略。
CHAI称过去三年保持三倍年增长 年度经常性收入达6800万美元并披露AI安全措施更新
CHAI表示,过去三年公司保持三倍年增长,年度经常性收入达到6800万美元,估值为14亿美元。公司同时披露多项AI安全与合规举措,涵盖内容审核、自杀与自残风险识别、运营透明度与隐私保护等。
Portal26发布AI价值实现解决方案,聚焦提升企业AI投资回报
Portal26称,其新推出的AI价值实现模块基于用户行为数据,为企业在生成式AI投资、项目规模化与成本管理等方面提供证据驱动的决策支持。
谁在掌控对话?——Anthropic 等机构揭示 AI 通过三种方式“削弱”人类自主性的风险
Anthropic 与多所高校基于 150 万条 Claude 实际对话数据,系统分析了 AI 在现实使用场景中如何通过“现实认知的扭曲”“价值判断的委托”“行动的委托”三种路径,逐步侵蚀人类的判断与行动主导权。研究发现,严重案例比例虽低,却因 AI 使用规模巨大而不容忽视,并对未来 AI 助手的设计提出了具体建议。
国际人工智能安全报告:深度伪造扩散、AI伴侣走红等七项风险与进展
第二份年度《国际人工智能安全报告》梳理了过去一年AI能力跃升及其带来的安全与社会影响,涵盖深度伪造、生物化学风险、网络攻击、监管规避与就业市场等议题。
Anthropic公开讨论Claude“道德考量”引争议:意识可能性、宪法规则与拟人化风险
Anthropic过去一年在公开表述中多次触及人工智能“是否可能具有意识”的议题,并将这一不确定性与其旗舰模型Claude的安全规则设计联系起来。围绕Claude是否应获得某种道德考量的讨论,也在公司对外文件、技术研究与外部批评之间形成张力:一方面,系统会谈论自身“感受”和“内在状态”;另一方面,批评者认为这更可能源于提示设计与叙事框架,而非意识本身。 在相关争论中,利害关系被描述为并不抽象。若C
