人工智能公司 OpenAI 周二表示,其最新的网络安全模型将只向有限数量的合作伙伴开放使用。这一做法与竞争对手 Anthropic 近期对其新系统采取的限制性发布策略类似——Anthropic 的模型此前已在广泛使用的软件中发现了数千个安全漏洞。
这两家头部 AI 公司选择谨慎发布,折射出业界对“防御者 vs 黑客”之间可能爆发 AI 军备竞赛的担忧:同样强大的工具既能帮助守方加固系统,也可能被攻击者用来制造更大规模的破坏。
OpenAI 在博客文章中写道,其目标是在“防止滥用的前提下,让这些工具尽可能广泛地为防御者所用”。
上周,Anthropic 将其最新的 Claude Mythos 模型提供给约 40 家大型科技公司试用,该计划被称为 Project Glasswing。尽管 Mythos 并非专门为网络安全场景训练,但它在主流软件中挖掘出大量漏洞,让不少网络安全专家感到震惊,其中部分问题甚至已被忽视多年乃至数十年。
OpenAI 此次推出的 GPT-5.4-Cyber 将面向其“网络可信访问”(Trusted Access for Cyber,TAC)计划中“最高级别”的个人和机构开放。公司介绍称,该计划目前涵盖“数千名经过验证的个人防御者,以及数百个负责关键软件安全的团队”,但并未披露具体合作伙伴名单。
媒体此前报道,美国多家大型银行高管已于上周五会见美国财政部长斯科特·贝森特和美联储主席杰罗姆·鲍威尔,讨论 Anthropic 系统可能给金融行业带来的风险。

Mythos 的亮相,正值硅谷对生成式 AI 在编写和审查计算机代码方面能力快速提升而高度兴奋的阶段。这类能力一方面能帮助开发者更高效地发现可被利用的漏洞和安全缺陷,另一方面也加剧了人们对其被用于恶意攻击的担心。为此,多家模型开发方都尝试通过安全策略和技术手段,让公开可用的模型拒绝明显的恶意请求。
OpenAI 表示,GPT-5.4-Cyber 被“训练为网络许可型”(cyber-permissive),目的是让防御者在测试自身系统安全性时,尽量减少不必要的拒绝响应,从而更有效地发现潜在漏洞。
Anthropic 在发布 Mythos 时则强调,其严格的访问限制是为了给防御方争取时间,在攻击者利用这些新发现的漏洞之前完成修复。
OpenAI 周二进一步指出:“我们认为,由某个中央机构来决定谁有权进行自我防御,既不现实也不合适。”
公司表示,其目标是通过“能够以更自动化、更客观的方式验证可信用户和用例的系统”,让尽可能多的合法防御者受益,同时降低工具被滥用的风险。
© 2026 法新社