电力被视为当前人工智能基础设施的关键要素,但新一代高性能处理技术正在加大数据中心与电网协同的难度。一些运营商为控制用电风险,被迫将功率上限下调多达30%。
在英伟达年度GTC大会上,英伟达首席执行官黄仁勋在主题演讲中提到,当前“人工智能工厂浪费了大量电力”,并指出每一瓦未被使用的电力都意味着收入损失。
在此背景下,总部位于特拉维夫的初创公司 Niv-AI 宣布结束隐秘阶段,并完成1200万美元种子轮融资,目标是通过更精细的测量和管理工具,提升GPU功率利用效率。该公司计划利用新型传感器精确监测GPU功率使用情况,并在此基础上开发管理系统,以缓解功率峰值带来的运营压力。
Niv-AI成立于去年,由首席执行官Tomer Timor和首席技术官Edward Kizis共同创立,投资方包括Glilot Capital、Grove Ventures、Arc VC、Encoded VC、Leap Forward和Aurora Capital Partners。公司未披露本轮融资对应估值。Grove Ventures合伙人、Niv-AI董事会成员Lior Handlesman表示,当前数据中心的建设和运营方式难以持续。
随着前沿实验室在训练和运行大型模型时协同操作数千颗GPU,处理器在执行计算任务与进行GPU间通信时,会在毫秒级时间尺度上出现功率需求峰值。这类短时峰值增加了数据中心从电网获取电力的管理难度。为避免供电不足,运营方通常选择支付额外的临时储能费用以应对峰值,或降低GPU的使用率,两种做法均会削弱高价芯片的投资回报。

Niv-AI的首要工作是获取更精细的功率数据。公司目前正在部署机架级传感器,可在毫秒级别检测其自有GPU及设计合作伙伴GPU的功率使用情况。通过这些数据,团队希望梳理不同深度学习任务的功率特征,并据此开发缓解技术,帮助数据中心释放更多既有电力与算力容量。
在数据采集基础上,工程团队计划构建模型,用于预测并协调整个数据中心的功率负载,定位为数据中心工程师的“副驾驶”工具。根据公司规划,相关运营系统预计将在未来六到八个月内,在美国少数几个数据中心进行部署测试。
创始团队将其最终产品描述为连接数据中心与电网之间的“智能层”。在超大规模云服务商新建数据中心面临土地使用和供应链约束的情况下,这一思路被视为在既有设施内提升利用效率的路径之一。
Tomer Timor在接受TechCrunch采访时表示,电网运营方实际上担心数据中心在特定时段消耗过多电力。Niv-AI关注的问题包括两个方向:一是帮助数据中心在既有电力合同框架下更充分利用GPU和已支付的电力;二是推动在数据中心与电网之间形成更为可控和有序的用电模式。