微软推出新一代自研人工智能加速器Maia 200系列,试图在数据中心AI算力竞争中进一步向英伟达发起挑战。微软将该产品定位为更快、成本更低的推理硬件,并强调其意义不仅在于芯片本身,还在于与Azure基础设施及AI服务的深度耦合,以构建更垂直整合的技术栈,削弱英伟达在大型模型训练与部署环节的CUDA软件生态优势。
Maia 200:面向大规模推理的第二代加速器
微软表示,Maia 200是面向大规模AI工作负载的第二代推理加速器,采用台积电3纳米工艺制造,目标是在相同功耗范围内提升性能与能效。该芯片主要面向生产环境中的大语言模型与视觉模型推理场景,微软称推理成本与时延是影响经济效益的关键因素。
在规模指标上,微软称Maia 200集成超过1400亿个晶体管,并将高密度设计描述为提升单卡计算能力与内存带宽、使大型模型更易常驻设备的关键。微软认为,这将帮助云端部署减少所需服务器数量,并在Azure不同区域扩展时获得更可预测的性能表现。
性能与成本:微软强调推理经济性
微软在发布中强调Maia 200在推理密集型工作负载上的性能提升。公司称,相比第一代Maia设计,新一代产品在内部基准测试中处理AI工作负载的速度显著更快,并指出这类提升对对话助手、代码生成、推荐引擎等实时应用尤为重要。
成本方面,Azure高管Scott Guthrie表示,这款面向推理优化的芯片“比市场上任何其他人工智能芯片便宜30%”。微软同时提到推理工作负载可受益于其宣称的7TB/s带宽,以支持大型模型运行并减少瓶颈。
以Azure整合对冲CUDA锁定效应
尽管Maia 200是一款硬件产品,微软在对外表述中将其置于更广泛的平台竞争框架之下。报道指出,微软希望通过将Maia 200深度整合进Azure,从编排、网络到模型托管与微调等AI服务环节,为客户提供高性能能力,同时降低对底层编程模型的关注度。

相关报道援引分析人士观点称,除英伟达之外的选择正在增多,尤其对倾向以托管云服务方式使用AI、而非自建基础设施的企业而言,平台层面的交付效率与成本可能成为更重要的竞争焦点。
与云端定制芯片阵营同场竞争
微软进入的是云厂商定制加速器竞争日趋激烈的赛道。报道提到,微软将其新款AI芯片与亚马逊、谷歌的产品进行比较,并援引Todd Bishop的说法称微软宣称其性能优于这些竞争对手。谷歌TPU与亚马逊Trainium均已迭代多年,微软则试图通过新一代产品缩小差距并强化Azure端到端优化能力。
此外,发布会相关描述还提到微软提出更激进的性能与成本主张,包括“性能是竞争对手芯片的三倍”以及Azure成本更低等表述。相关社交媒体信息也将此次发布解读为向客户传递Azure不再依赖单一供应商提供高端AI能力的信号。
英伟达推进Rubin平台,强调软硬件协同
在微软加码自研芯片的同时,英伟达也在推进下一代平台。英伟达介绍Rubin平台为一套AI超级计算架构,强调通过硬件与软件的协同设计,使推理令牌成本最多降低10倍。英伟达在对Rubin系统的描述中指出,其性能提升来自GPU、网络与库的紧密集成,意在强化其优势来自完整技术栈而非单一芯片。
在CES展会上,埃隆·马斯克称赞英伟达Rubin芯片为人工智能发展的“火箭”。相关CES创新报道指出,英伟达的发布在一定程度上掩盖了其他芯片新品的关注度,也凸显微软在吸引开发者从CUDA生态转向以Azure为中心的抽象层时所面临的竞争压力。
