在2026年国际消费电子展(CES 2026)上,英伟达发布了名为“Alpamayo”的一套开源人工智能模型、仿真工具和数据集,定位于为物理机器人和车辆提供训练支持,重点面向自动驾驶在复杂路况中的推理和决策需求。
英伟达在发布中表示,Alpamayo旨在帮助自动驾驶系统处理罕见和复杂的驾驶情境。英伟达首席执行官黄仁勋在一份声明中称,机器正在开始在现实世界中“理解、推理并采取行动”,Alpamayo为自动驾驶车辆引入推理能力,使其能够思考罕见场景,在复杂环境中安全行驶,并对自身驾驶决策进行解释。
此次发布的核心模型为Alpamayo 1。根据英伟达介绍,Alpamayo 1是一款拥有100亿参数的视觉语言动作(VLA)模型,采用链式思维、基于推理的架构,目标是让自动驾驶车辆在处理复杂边缘案例时“更像人类一样思考”。英伟达举例称,该模型被设计用于在缺乏先前经验的情况下,推理如何在红绿灯故障的繁忙路口进行通行等场景。
英伟达汽车业务副总裁Ali Kani在新闻发布会上表示,Alpamayo 1通过将问题拆解为多个步骤,对不同可能性进行推理,然后选择其认为最安全的行驶路径。黄仁勋在主题演讲中进一步指出,Alpamayo不仅接收来自传感器的输入并控制方向盘、刹车和加速踏板,还会对即将采取的行动进行推理,并给出行动内容、行动理由以及行驶轨迹等信息。

英伟达称,Alpamayo 1的底层代码已在Hugging Face平台公开。开发者可在此基础上进行微调,构建更小、更快的版本用于车辆开发,也可利用该模型训练更简化的驾驶系统,或开发自动标注系统(对视频数据进行自动标记)和评估器(用于检查车辆决策是否合理)等工具。
Kani表示,开发者还可以结合英伟达的生成式世界模型品牌Cosmos使用Alpamayo,通过Cosmos生成合成数据,再将真实数据与合成数据结合,用于训练和测试基于Alpamayo的自动驾驶应用。英伟达介绍称,此类世界模型可用于构建物理环境的表示,以支持预测和行动规划。
作为Alpamayo发布的一部分,英伟达同步公开了一个包含1700多个小时驾驶数据的数据集。该数据集覆盖多个地理区域和多种驾驶条件,并包括罕见且复杂的真实世界场景。公司同时推出了AlpaSim,一款用于验证自动驾驶系统的开源仿真框架。
英伟达表示,AlpaSim已在GitHub上发布,旨在重现从传感器输入到交通环境在内的真实驾驶条件,便于开发者在安全环境中对自动驾驶系统进行大规模测试和验证。
