随着自动驾驶汽车在城市中逐步上路,一个关键难题仍未解决:在电信基础设施薄弱的农村地区,它们如何安全可靠地运行?华盛顿州立大学的一项新研究提出了一个潜在答案——在车载小型廉价计算机上运行压缩版大型语言模型,让车辆在本地完成关键决策。
这项研究基于一个开源模拟平台展开,结果不仅指向农村自动驾驶的可能路径,也为农业机器人等其他应用场景提供了一种高效的边缘计算思路。
华盛顿州立大学温哥华分校计算机科学副教授、工程与计算机科学学院院长赵兴辉指出,对于自动驾驶系统而言,“我们需要的是即时决策”。在城市环境中,强大的云端算力和稳定的网络连接可以持续训练和优化感知模型,为车辆提供决策支持。但在农村地区,网络连接稀少或极不稳定,车辆无法依赖云端实时处理数据,因此必须具备在本地即时处理和决策的能力。
这项工作是赵兴辉团队围绕农村自动驾驶挑战开展的持续研究的一部分,相关成果已发表在第十届 ACM/IEEE 边缘计算研讨会论文集中。
目前,自动驾驶汽车仍处于早期发展阶段,虽然已在部分大城市试运行,但技术路线和系统架构仍在不断演进。研究界和产业界都在探索如何将汽车打造成一种“边缘”设备:在本地完成数据采集、处理和分析,而不是把数据全部回传到远程数据中心。这样的分布式计算方式有望提升效率、降低成本和能耗,并在一定程度上保护用户隐私。
“我们现在可以从越来越多的设备收集数据——各种传感器、小型麦克风,甚至小型摄像头,”赵兴辉说。“如果所有数据都要发回后端数据中心处理,就意味着每个设备都要持续上传数据。越来越多的应用开始倾向于在数据产生的本地就地处理。”
在典型的自动驾驶系统中,计算大致分为三层:

- 感知层:从摄像头、雷达等传感器获取并解释环境信息;
- 推理层:对感知结果进行实时分析,选择具体驾驶动作;
- 执行层:将决策转化为车辆的实际操作,如转向、加减速等。
本次研究重点关注的是中间的推理层。一些现有自动驾驶方案依赖深度强化学习,这类人工智能方法需要大量数据训练,并通过反复试错不断改进策略。虽然在特定场景下效果不错,但训练成本高昂,而且在遇到未见过的新情况时,可靠性可能不足。
相比之下,大型语言模型在高层次推理方面更具优势,能够结合上下文,在陌生情境下做出相对合理的决策。不过,这类模型通常体量庞大,计算需求高,往往依赖云端运行。
“一个大型语言模型本身非常大,”论文第一作者、研究生助理 Ishparsh Uprety 解释说。“如果直接在车上运行,计算负担会非常重。我们就在想:能不能把模型优化得更小一些?”
为此,华盛顿州立大学团队尝试构建一个自包含的大型语言模型版本:通过压缩模型参数和内存占用,换取更快的决策速度,代价是可能损失部分精度。他们选用了开源大型语言模型 Mistral,并将其压缩后部署在 Jetson Orin Nano 上——这是一块仅 8GB 内存、体积小于一本平装书的计算模块。
研究人员利用一个开源 AI 系统测试平台,在七种不同驾驶场景中,对比了压缩版 Mistral 模型与完整版 ChatGPT 模型在推理决策上的表现。
结果显示,在大多数场景中,两套系统都给出了安全且相近的驾驶决策。不过,在其中一个场景中,基于 Mistral 的压缩模型发生了碰撞。尽管如此,考虑到压缩模型占用的计算资源远低于云端模型,研究团队认为,这些初步结果表明:压缩大型语言模型未来有望成为自动驾驶车辆边缘计算的一种可行方案。
研究人员也强调,要让这类系统真正达到上路标准,还需要在更多场景下进行大量测试和验证。但这项工作为在网络条件受限的农村地区部署自动驾驶系统,提供了一个值得进一步探索的技术方向。
