Meta与NVIDIA达成多年期基础设施合作:将部署数百万颗Blackwell与Rubin GPU

richlovec 1500_400 (1)
 

Meta与NVIDIA于2026年2月17日宣布达成一项为期多年的长期基础设施合作协议。根据双方公布的内容,Meta将为扩展其AI优化数据中心,在未来数年内部署数量达到数百万级的NVIDIA Blackwell和Rubin GPU。这一合作框架跨越多个硬件世代,并延伸至CPU、网络以及机密计算等全栈基础设施层面。

明确覆盖“多代产品”的长期合作

在官方表述中,双方将此次合作定位为“multi-year(多年期)”且“multigenerational(跨多代)”的伙伴关系。也就是说,这并非只针对单一一代GPU的采购,而是围绕Meta的长期AI基础设施路线图展开的整体规划。

在GPU方面,合作范围不仅包括当前的Blackwell架构,还提前将其后继的Rubin架构纳入计划。根据NVIDIA的说明,Meta计划在未来几年内部署数百万颗Blackwell与Rubin GPU,用于大规模AI训练与推理。

在CPU方面,Meta将大规模采用基于Arm架构的Grace CPU,并在更长远的规划中,将下一代Vera CPU也纳入评估与部署视野,以构建更高效的异构计算平台。

不止是GPU采购:构建全栈AI基础设施

此次合作并不仅仅是GPU供货协议,而是覆盖CPU、GPU、网络与软件在内的全栈协同设计与优化。

在网络层面,Meta将把NVIDIA的Spectrum-X以太网技术引入其数据中心基础设施。Spectrum-X旨在提供低延迟与高吞吐的网络环境,以支撑大规模AI训练和推理任务,提高整体集群利用率与性能表现。

双方还提到,将在Meta自建数据中心与NVIDIA Cloud Partner(NCP)生态之间,探索统一的架构设计。这意味着,无论是在本地数据中心还是在合作云环境中,Meta都可以在相对一致的技术栈上部署和扩展AI工作负载。

WhatsApp引入机密计算能力

在安全与隐私保护方面,Meta将把NVIDIA的机密计算(Confidential Computing)技术应用于WhatsApp的“private processing(私密处理)”场景。

通过在计算过程中对数据进行硬件级保护,Meta希望在引入更多AI功能的同时,确保用户数据的机密性与完整性。双方也表示,未来不排除将机密计算能力扩展到其他类型的工作负载中,以满足更广泛的隐私与合规需求。

强调“共同设计”的协同优化

Meta与NVIDIA均强调,这次合作的核心不只是硬件部署,而是围绕最前沿(SOTA)AI模型性能进行的“共同设计(co-design)”。

双方将从CPU、GPU、网络到软件栈进行端到端的联合优化,包括模型训练框架、推理服务架构以及集群调度与管理等,以在Meta这样超大规模的应用场景下,最大化硬件与软件的整体效能。

NVIDIA首席执行官黄仁勋表示,与Meta的合作将有助于构建能够匹配其业务规模的AI基础设施,为下一阶段的AI应用奠定基础。Meta首席执行官马克·扎克伯格则指出,通过采用新一代平台和技术,Meta将持续推进其长期AI战略,在社交、内容生成和智能助理等领域加速创新。

支撑Meta数百亿美元级别的AI投资

双方并未公开此次合作的具体金额。不过,Meta此前已经对外披露,计划在2025年投入最高650亿美元(约合10万亿日元级别)用于AI基础设施建设,其中包括大规模GPU集群与新一代数据中心的建设。

在这一背景下,与NVIDIA围绕Blackwell、Rubin以及未来Vera世代产品达成的多代合作框架,被视为Meta落实其AI基础设施投资路线图的关键一环。通过在硬件与软件层面进行深度整合,Meta试图构建一个可持续演进、可跨多代升级的长期AI基础设施平台。


分享:


发表评论

登录后才可评论。 去登录