Aria Networks宣布“深度网络”解决方案上市,面向AI工厂提升令牌效率

Aria Networks周二宣布,其“深度网络”(Deep Networking)解决方案正式上市。公司称,该方案从零构建,面向“AI工厂时代”设计,旨在通过全栈方式提升模型浮点运算利用率(MFU)与令牌效率,并降低每令牌成本。

Aria Networks同时披露,公司已获得1.25亿美元融资,投资方包括Sutter Hill Ventures、Atreides Management、Valor Equity Partners和Eclipse Ventures。Atreides Management LP管理合伙人兼首席投资官Gavin Baker已加入Aria Networks董事会,将与Sutter Hill Ventures的Stefan Dyckerhoff及公司创始团队共同参与公司治理。

Aria Networks在发布中将“令牌效率”定义为衡量AI集群投资回报的重要指标,并称其与MFU及每令牌成本直接相关。公司表示,网络在AI训练与分布式推理中处于关键位置:训练阶段影响梯度同步速度;推理阶段影响KV缓存传输效率以及大规模xPU任务调度的顺畅度。公司称,尽管网络成本约占集群总成本的10%至15%,但对整体性能影响显著。

在产品架构上,Aria Networks表示,其深度网络由五个要素构成:一是AI优化硬件与强化版SONiC;二是细粒度端到端遥测,覆盖交换机、收发器与主机并提供统一视图;三是在各层部署智能代理,用于评估信号、提取洞见并在不同层级采取行动;四是将网络专业知识内置于代理与决策流程;五是持续更新机制,以便新功能持续交付并适配新工作负载。

在运营层面,Aria Networks称,该平台提供自动网络微调、基于意图的配置、实时自适应性能优化,以及与运营商的协作能力。公司还表示,其现场部署工程师(FDE)将嵌入客户团队,覆盖从架构到性能调优的全生命周期工作。

关于底层网络与硬件形态,Aria Networks表示,以太网因开放性、普及性与多厂商可扩展性,已成为新AI后端部署的主流网络结构。公司在声明中提到,随着机架密度接近1MW,预计今年液冷将覆盖76%的AI服务器;向1.6T的过渡速度快于800G,预计到2027年端口出货量将超过2200万个。Aria Networks称,其交换机平台基于AI原生SONiC从零打造,提供800GbE与1.6T交换能力,并支持液冷与风冷形态。

Aria Networks表示,公司已获得客户订单并正在部署中。产品咨询可联系sales@arianetworks.com


分享:


发表评论

登录后才可评论。 去登录