一种利用材料物理特性来处理信息的新型计算机芯片,被发现有望显著提升某些人工智能(AI)系统的能效。拉夫堡大学的物理学家研制出一款设备,可以直接在硬件层面处理随时间变化的数据,而不再完全依赖传统计算机上的软件运算。
这项最新成果发表在期刊《Advanced Intelligent Systems》上。研究显示,在特定任务中,这种方法的能效可比传统基于软件的方案高出最多约2000倍,不过具体提升幅度会因应用场景而有所不同。相关论文题为《可扩展平台:利用纳米多孔氧化物忆阻器实现图像识别和时间序列预测的水库计算》。
负责该研究的物理学高级讲师 Pavel Borisov 博士表示:“这项工作之所以重要,在于它表明我们可以重新思考 AI 系统的构建方式。通过利用物理过程本身,而不是完全依赖软件,我们能够大幅降低完成类似任务所需的能量。”
水库计算芯片如何工作
许多现实世界中的 AI 问题,都涉及处理随时间变化的信号,并从中提取模式以预测接下来会发生什么,例如天气演变、生物过程或各类传感器数据。水库计算是一种常用方法,它会将输入数据映射到一个更适合模式识别和预测的高维空间,传统上多通过软件来实现。
拉夫堡团队开发的这款设备则直接在硬件中完成这类计算。它是一种忆阻器——可以“记住”过去输入信息的电子元件,由纳米多孔氧化物制成。材料内部存在随机分布的纳米孔洞,形成多条电流通路,这些通路类似于神经网络中的隐藏层,使得材料本身就能承担部分计算功能。
在实验中,研究人员展示了该设备能够处理时间相关的数据。当其输出再接入一个线性计算模型时,就可以用来识别数据模式并进行短期预测。
混沌系统、图像与逻辑任务测试
团队使用了 Lorenz-63 系统进行测试。Lorenz-63 是一个著名的混沌数学模型,与“蝴蝶效应”密切相关——即初始条件的微小差异可能导致截然不同的结果。除此之外,研究人员还测试了识别简单像素化数字图像以及执行基本逻辑运算等任务。

结果表明,该模型能够利用忆阻器处理后的数据,对混沌 Lorenz 系统的短期行为进行成功预测,并重建缺失的数据点。同时,它还能正确识别像素化数字图像,并完成基础逻辑运算,说明同一硬件平台可以支持多种不同类型的任务。
能源影响与未来前景
研究人员指出,这种方法有望缓解当前 AI 领域面临的能耗压力。随着 AI 系统规模和能力不断提升,其能源需求也急剧上升,引发了对长期可持续性的担忧。通过将部分计算从软件迁移到硬件,并利用材料的物理特性,有可能在显著降低能耗的前提下获得与现有方法相近的结果。
Borisov 博士介绍说:“我们受到人脑中大量且看似随机的神经元连接的启发,在纳米级薄膜中的铌氧化物上设计了孔洞结构,在人工神经网络中构建出复杂而随机的物理连接,形成一种新型电子器件的一部分。”
“我们展示了如何利用这些器件,以比标准软件解决方案低多达两千倍的能耗,来预测复杂时间序列的未来演化。”
目前,这一系统仍处于早期阶段,实验主要集中在相对简单的任务上。未来工作需要在更大规模上验证这项技术,提高网络复杂度,并评估其在更嘈杂、更接近真实应用场景的数据上的表现。
“下一步是增加神经网络的复杂度,并使用包含更多噪声的输入数据进行测试。”Borisov 博士表示,“我们相信,这是一种可扩展且具有实际应用潜力的方案,有望打造体积小、适合工业场景使用的 AI 设备,同时具备更高能效和离线运行能力。”
理论物理学专家、论文合著者 Sergey Saveliev 教授补充说:“这很好地展示了基础物理如何推动现代计算发展。通过利用物理系统自身的复杂性作为高维数据滤波器,我们可以避免巨大的计算开销。”
