导盲犬一直是视障人士的重要助手,能够安全地带领他们到达目的地,但传统导盲犬无法与主人进行真正的语言交流。如今,这一局限正在被打破。纽约州立大学宾厄姆顿分校的一支研究团队,借助大型语言模型,开发出一套会“说话”的机器人导盲犬系统,既能规划最优路线并安全导航,还能在行进过程中提供实时语音反馈。
这项研究以《从汪汪声到言语:迈向具备口头交流能力的智能机器人导盲犬》为题,已在2026年1月20日至27日于新加坡举行的第40届美国人工智能协会(AAAI)年会上发表,论文同时也已上传至 arXiv 预印本平台。
纽约州立大学宾厄姆顿分校托马斯·J·沃森工程与应用科学学院计算机科学系副教授张世奇表示:“在这项工作中,我们展示了机器人导盲犬在某些方面已经超越了生物导盲犬。真正的导盲犬通常最多能理解大约20条指令,而机器人导盲犬只要搭载带语音指令功能的 GPT-4,就能具备非常强大的语言理解和表达能力。”
在此之前,张世奇团队已经训练过机器人导盲犬,通过牵引绳的拉扯来引导视障人士。这一次,他们在此基础上进一步升级,让用户可以直接与机器人进行口头交流,从而获得更高的控制感和更丰富的情境信息。新系统中,机器人在出发前会向用户介绍路线规划(研究人员称为“计划口述”),在行进过程中则持续描述周围环境(“场景口述”)。
“对于视障或全盲人士来说,这一点非常关键,”张世奇解释道,“因为在缺乏视觉的情况下,他们对情境和场景的感知本来就比较有限。”

为了验证系统效果,研究团队招募了七名符合“法律意义上的盲人”标准的参与者,在一个大型、多房间的办公环境中进行导航实验。实验中,机器人首先询问用户的目的地(本次实验中为不同的会议室),随后给出多条可行路线及各自所需时间。用户选择自己偏好的路线后,机器人便开始带领他们前往会议室,并在途中持续用语音描述环境和障碍物,例如“前方是一个长走廊”等,直到安全抵达目的地。
完成导航任务后,参与者需要填写问卷,从帮助程度、沟通是否顺畅以及整体实用性等方面对系统进行评价。总体结果显示,结合路线规划讲解与实时环境旁白的综合方式,得到了参与者的普遍认可和偏爱。配套的模拟研究也表明,这一方法在导航和交互上都取得了良好效果。
接下来,团队计划开展更多用户研究,以进一步提升系统的自主性,并让机器人能够在室内外环境中完成更长距离的导航任务。
研究人员的长期目标,是让机器人导盲犬真正融入视障人士的日常生活。从目前的反馈来看,参与者对这一前景十分期待。
“他们对这项技术和机器人本身都非常兴奋,”张世奇说,“提出了很多问题,也清楚地看到了这项技术的潜力,并希望尽快在现实生活中用上它。”