Anthropic本周表示,将限制其最新大型语言模型Mythos的对外发布,理由是该模型在发现广泛使用的软件安全漏洞方面能力过强,可能带来互联网安全风险。
与以往面向更广泛开发者和用户的开放策略不同,Anthropic此次并未向公众全面开放Mythos,而是选择仅向少数运营关键在线基础设施的大型机构提供访问权限,其中包括亚马逊网络服务(Amazon Web Services)和摩根大通(JPMorgan Chase)。
据报道,OpenAI也在考虑对其下一款网络安全工具采取类似的有限发布安排。相关表述显示,这类策略的直接目标是让大型基础设施运营方在潜在恶意行为者之前掌握更先进的安全检测能力,以应对可能利用前沿大型语言模型渗透安全系统的攻击。
不过,围绕这一策略的讨论并未止步于网络安全层面。一些业内人士认为,将“安全风险”置于叙事中心,可能同时在为其他考量提供掩护。
AI网络安全实验室Irregular首席执行官Dan Lahav在3月接受TechCrunch采访时表示,AI工具发现漏洞固然重要,但漏洞本身的实际攻击价值取决于多种因素,包括它们如何被组合利用。
Lahav说:“我心中一直有个问题:他们发现的漏洞,是否能以非常有意义的方式被利用,无论是单独利用还是作为链条的一部分?”
Anthropic方面称,Mythos在利用漏洞方面的能力较其此前的模型Opus更强。不过,目前尚无公开信息表明Mythos已在网络安全领域形成压倒性优势。AI网络安全初创公司Aisle表示,其团队使用更小的开源模型,复现了Anthropic所称Mythos实现的许多成果。Aisle认为,这些结果显示,网络安全并不存在单一“终极”深度学习模型,效果更多取决于具体任务和模型组合。
在Opus已被部分业内视为网络安全领域的重要进展背景下,有观点认为,Anthropic将Mythos主要提供给大型机构,可能还出于商业和技术保护方面的考量。有限发布有助于推动高价值企业合同,同时提高竞争对手通过“蒸馏”技术复制其模型能力的难度。

所谓蒸馏,是指利用前沿模型的输出,以相对较低成本训练新的大型语言模型。软件工程师、初创公司exe.dev首席执行官David Crawshaw在社交媒体上表示,这类以安全为名的限制访问策略,实际上也为“顶级模型通过企业协议锁定,不再向小型实验室开放以供蒸馏”提供了营销层面的掩护。
Crawshaw称:“等到你我能用上Mythos时,企业专用的新一代顶级模型又会出现。这个循环帮助保持企业资金流(占大部分资金),同时将蒸馏公司降为次级。”
这一看法与当前AI生态中的部分趋势相呼应:一方面,前沿实验室竞相开发规模更大、性能更强的模型;另一方面,像Aisle这样的公司则采用多模型策略,依托开源大型语言模型(其中不少来自中国,且据称通过蒸馏方式开发)寻求成本优势。
今年以来,多家前沿实验室在应对蒸馏问题上态度趋于强硬。Anthropic曾公开披露其所称中国公司试图复制其模型的行为;据彭博社报道,Anthropic、谷歌和OpenAI三家领先实验室已联手识别并阻止蒸馏者。
在这些实验室看来,蒸馏对其商业模式构成威胁,因为蒸馏可能削弱依靠大规模资本投入和算力扩展所形成的领先优势。因此,阻止蒸馏本身被视为一项重要工作,而通过选择性发布和企业定制化产品,也为这些实验室在盈利部署阶段提供了差异化空间。
至于Mythos或其他新模型是否会对互联网安全构成实质性威胁,目前仍有待观察。业内普遍认为,在缺乏更多公开数据的情况下,谨慎推出相关技术本身符合审慎原则。
截至发稿时,Anthropic尚未回应关于其限制Mythos发布是否同时出于防止蒸馏等考虑的询问。外界关注的焦点在于,该公司此次策略在多大程度上同时兼顾了网络安全与自身商业利益。