Anthropic称多家中国AI公司大规模“蒸馏”其模型Claude

人工智能公司Anthropic近日表示,已发现多家中国人工智能企业大规模利用其大型语言模型Claude进行所谓“蒸馏”训练,并通过虚假账户实施大规模抓取。

Anthropic在周日发布的博客文章中称,其识别出DeepSeek、Moonshot和MiniMax三家公司涉嫌参与相关行为。根据该公司披露的信息,这些行为通过约2.4万个虚假账户对Claude发起了超过1600万次交互。

据介绍,“蒸馏”是一种利用更强大的模型输出训练较弱模型的技术。Anthropic在文章中指出,这一方法在行业内被广泛采用,且在许多场景下是合法做法,例如前沿实验室常用蒸馏技术将自身模型压缩为更小、更低成本的版本,以便向客户提供服务。

Anthropic同时强调,蒸馏技术也可能被用于不当目的。该公司表示,竞争对手可以借此在远低于独立研发所需时间和成本的情况下,快速获得其他实验室的能力水平,从而引发知识产权和安全方面的担忧。

Anthropic称,此次发现的攻击活动主要集中在抓取Claude在多类任务上的表现,包括代理推理、编码与数据分析、基于评分标准的评分任务以及计算机视觉等。该公司表示,每一轮攻击均针对其认为最具差异化的能力领域,即代理推理、工具使用和编码。

在识别相关行为主体方面,Anthropic表示,其依据包括IP地址关联、请求元数据、基础设施指标,以及部分来自行业合作伙伴的佐证信息。该公司称,这些合作伙伴在自身平台上观察到了相同的行为者及类似行为。

Anthropic指出,被指涉的DeepSeek、Moonshot和MiniMax均为中国AI公司,三者估值均达数十亿美元,其中DeepSeek在国际市场上知名度较高。

除知识产权层面的影响外,Anthropic在博客中还提到来自外国竞争对手的蒸馏攻击可能带来的地缘政治风险。该公司表示,外国实验室在蒸馏美国模型后,可能将这些未受保护的能力应用于军事、情报和监控系统,从而使专制政府能够在进攻性网络行动、虚假信息活动以及大规模监控中部署前沿人工智能技术。

针对后续应对措施,Anthropic表示,将通过强化检测系统以识别可疑流量、共享威胁情报以及收紧访问控制等方式加强防护。该公司同时呼吁美国国内行业参与者和立法机构加强协作,以阻止外国AI公司针对美国企业发起类似攻击。

Anthropic在文章结尾写道,单一公司难以独自应对此类大规模蒸馏攻击,AI行业、云服务提供商及政策制定者之间需要协调行动。该公司表示,公开相关信息的目的是让各方利益相关者能够获取相关证据,从而推动更广泛的行业和政策响应。


分享:


发表评论

登录后才可评论。 去登录