Microsoft 发布推理专用 AI 加速器「Maia 200」,为 GPT‑5.2 等最新模型提供算力基础

richlovec 1500_400 (1)
 

Microsoft 于美国时间 2026 年 1 月 26 日正式发布自研的 AI 推理专用定制加速器「Maia 200」。这款芯片主要面向大规模语言模型(LLM)等推理场景,被微软定位为云服务平台 Azure AI 基础设施中的核心技术之一。

Maia 200 并非针对模型训练,而是从一开始就围绕推理工作负载进行优化设计。微软表示,在以生成 Token 为主的推理任务中,Maia 200 特别强调吞吐量、电源效率以及在大规模系统中的可扩展性。

在制造工艺方面,Maia 200 采用台积电(TSMC)的 3 纳米制程,并集成支持 FP8 与 FP4 运算的张量计算单元,以适应当前主流大模型在低精度推理上的需求。

Maia200chip-960x540.png

在内存架构上,Maia 200 采用 HBM3e 高带宽内存,实现大容量与高带宽并存的内存访问能力。微软称,与上一代方案相比,Maia 200 在性能与成本之间的平衡上有明显提升,单位性能的成本效率更高。不过,微软尚未公布具体的对比基准和测试条件。

微软计划在 Azure 数据中心中分阶段部署 Maia 200。未来,它将为 Azure AI Foundry、Microsoft 365 Copilot 等一系列 AI 服务提供底层算力支持,同时也将作为包括 OpenAI 最新模型 GPT‑5.2 在内的多种 AI 模型的基础推理基础设施。

过去,微软主要依赖 GPU 等外部厂商提供的加速器来支撑其 AI 业务。随着 AI 需求的急速增长,微软加快了自研芯片的布局。Maia 200 正是在这一背景下推出的、面向推理场景的最新一代自研 AI 加速器。


分享:


发表评论

登录后才可评论。 去登录