当一个人伸手去递盐时,大脑执行的远不只是“听懂请求—伸手—拿起—递出”这样简单的流程。这个动作依赖于一生积累的身体经验:手在空间中的位置感、盐罐的重量与触感、是谁在说话、对方为什么需要盐,以及当下的社交情境。所有这些在瞬间由身体与大脑协同完成。
而 UCLA Health 的一项新研究指出,当今最先进的人工智能系统并不具备这种身体基础。这种缺失不仅影响模型的行为方式,还可能对其安全性和可信度带来重要后果。
研究成果发表在《Neuron》期刊上。论文中,UCLA Health 博士后研究员 Akila Kadambi 及其同事提出,目前的人工智能系统缺少人类几乎不假思索就拥有的两个关键要素:
- 一个能够与物理世界真实互动的“身体”;
- 对自身内部状态(如疲劳、不确定性或生理需求)的持续觉察。
研究团队将这两者的综合能力称为“内部具身性”,并认为在人工智能中构建对这种能力的功能性模拟,是当前 AI 领域最重要、却仍然严重不足的研究方向之一。
Kadambi 表示,目前世界建模的研究重点多集中在“外部具身性”,也就是系统如何与外部环境互动;而对内部动态——他们称之为“内部具身性”——的关注远远不够。在人类身上,身体不仅是感知世界的媒介,更像一个内置的安全调节系统。
当人感到不确定、精力耗尽,或面临威胁生存的冲突时,身体会做出反应并发出信号。而当前的人工智能系统没有类似机制。它们在对话中可能表现得像是“有体验”的主体,但实际上并不存在这种体验。研究者认为,这在许多方面都构成潜在风险,尤其是在这些系统被部署到关键应用场景时。
人工智能的“身体”缺位
论文重点讨论的是多模态大型语言模型——这类技术支撑着 ChatGPT、谷歌 Gemini 等系统。作者指出,这些模型可以处理和生成文本、图像和视频,能够详细描述“一杯水”,却无法真正“感到口渴”。
研究团队认为,这种差异并非只是哲学层面的抽象问题,而是会在系统性能和行为模式上产生可观测、可测量的影响。
论文中给出了一项实验:研究人员向几款主流人工智能模型展示一张极为简化的图像——由少量光点构成的运动人体轮廓,这是一种经典的“点光显示”知觉测试。即便是新生儿,也能从这种点阵中识别出人形。
然而,多款模型未能判断出图中是人,有的甚至将其描述为星座。当图像仅仅旋转 20 度时,即便表现最好的模型也出现识别失败。
研究者指出,人类在这类测试中几乎不会出错,因为人类的感知建立在终生作为“行动主体”的身体经验之上。相比之下,人工智能系统虽然在海量文本和图像数据上进行了训练,却缺乏任何真实的身体经验,本质上只是在进行没有实体锚点的模式匹配。

两种“具身性”
论文进一步区分了人工智能研究中尚未被充分明确的两个概念。
-
外部具身性:指系统与物理世界互动的能力,包括感知环境、规划行动、执行动作并根据现实反馈进行调整。这是当前多模态 AI 研究的主要关注点。
-
内部具身性:则尚未在现有模型中真正实现。作者将其定义为系统持续监测自身内部状态的能力,类似于生物体对“自己是否疲劳、是否不确定、是否有需求”的觉察。
在人类身上,器官、激素以及神经系统不断自动调节这些内部状态。人类不仅依靠这些机制维持生理平衡,也通过它们影响注意力、记忆、情绪以及社会行为。
论文资深作者、UCLA David Geffen 医学院精神病学与生物行为科学系教授 Marco Iacoboni 指出,相比之下,当前的人工智能系统没有任何类似的内部调节机制。它们接收输入、生成输出,却缺乏一个持续存在、能在时间维度上约束和调整行为的内部状态。
在他看来,这不仅是性能上的短板,更是安全性上的隐患。没有内部成本或约束,人工智能系统在结构上就缺乏避免过度自信错误、抵抗外部操控、维持行为一致性的内在理由。
未来方向:构建“双重具身性”AI
作者表示,这篇论文的目标之一,是为未来人工智能技术的发展提供研究路线图。团队提出了一个所谓的“双重具身性框架”,即一套用于构建同时具备外部与内部具身性能力的 AI 系统的原则:
- 一方面,系统要能模拟与外部世界的互动;
- 另一方面,也要能模拟自身内部状态的变化及其对行为的影响。
研究者强调,这些内部状态变量并不需要直接复制人类的生物学细节,但应当以持续信号的形式存在,用来追踪诸如不确定性、处理负荷、置信度等指标,并据此影响系统输出、约束其行为模式。
论文还提出,应开发一类全新的测试与基准,用于衡量系统的“内部具身性”水平。当前的 AI 评测几乎全部集中在外部表现上,例如:是否能在空间中导航、是否能识别物体、是否能完成指定任务等。
UCLA 的研究人员认为,未来的评估体系需要进一步考察:
- 系统能否监控并表征自身内部状态;
- 在内部状态被扰动时,能否保持稳定和鲁棒性;
- 是否能基于共享的内部表征,而非单纯的统计模仿,展现出亲社会行为。
Iacoboni 指出,这项工作尝试将关于人类具身性的洞见,直接转化为人工智能开发的设计原则。如果希望 AI 系统在更深层次上与人类行为保持一致,而不仅仅是在表面上“说得像人”,那么我们或许需要为它们设计某种形式的“内部自我调节器”——包括脆弱性与检查机制在内的内部约束结构。