研究:清晰可解释的说明是老年人信任语音AI的关键前提

语音激活的对话式人工智能(AI)如果不能为自己的建议给出清晰、易懂的解释,老年人就很难真正信任它们。这是 AI Caring 团队在一项关于老年人对可解释人工智能(XAI)期望的研究中得出的核心结论之一。

这项研究的第一作者是互动计算学院的博士候选人尼哈里卡·马图尔(Niharika Mathur)。相关论文将于 2026 年 4 月在巴塞罗那举行的 ACM 人机交互大会(CHI)上发表,目前已在 arXiv 预印本平台公开。

马图尔与埃默里大学的“认知赋能项目”合作,采访了 23 位独居且使用亚马逊 Alexa、谷歌 Home 等语音激活 AI 助手的老年人。

不少受访者表示,他们觉得自己在这些产品的设计过程中被忽视了。

“很多设计默认所有人都会以同样的方式、在各种情境下与系统交互,但事实并非如此。”马图尔说,“老年人使用 AI 的方式,以及他们对 AI 的期待,与年轻人的偏好并不一样。”

她举例指出,年轻人在与 AI 对话时往往更随意,而许多老年人则更像在与真人交谈。

“如果老年人与家人谈起 Alexa,他们通常会说‘她’,而不是‘它’。”马图尔说,“相比年轻人,他们更容易把这些系统拟人化。”

什么样的解释更容易被信任

研究团队考察了基于四类数据来源生成的 AI 解释:

  • 用户历史(与代理过去的对话记录)
  • 环境数据(如室内温度、天气预报)
  • 活动数据(用户在家中不同区域停留的时间等)
  • 内部推理(模型内部的数学概率和可能结果)

马图尔表示,当解释建立在前三类数据之上时,老年用户对 AI 代理的信任度明显更高;而一旦涉及“内部推理”,信任就会受到冲击。

所谓内部推理,是指在缺乏足够外部数据时,AI 依据已有信息给出一个置信度百分比来支撑自己的建议。

“绝大多数受访者对置信度分数反应负面。”马图尔说,“如果 AI 说自己有 92% 的把握,老年人会追问:这个数字到底是怎么算出来的?”

这再次体现了代际差异。

“许多可解释 AI 的研究发现,年轻人喜欢在解释中看到数字,而且往往会过度依赖带有数值置信度的说明。但对老年人来说,这类数字反而削弱了他们的信任感。”

情境感知:什么时候该多说,什么时候该少说

在马图尔看来,与老年人互动的 AI 代理应当承担双重角色:一方面提供陪伴、支持他们保持独立生活;另一方面减轻原本由家庭成员承担的照护压力。

一些既有研究指出,工程师在设计相关工具时,往往优先考虑照护者的需求,强调日常任务和例行管理,从而让部分老年人觉得自己只是系统中的一个“被勾选的对象”。

在这项研究中,马图尔发现,老年用户在不同情境下对 AI 的说话方式有明显区分:

  • 在紧急或高风险情境中,他们更希望 AI 直接、简明地给出事实和指令;
  • 在日常、轻松的场景中,则更欢迎多一些对话和互动。

“人们与技术系统的互动方式,取决于当下情境的利害程度。”她说,“如果涉及到他们的即时安全,他们不希望 AI 过多铺陈,只希望得到非常直接、事实性的回应。”

不只是“做做样子”的解释

马图尔强调,面向老年人的 AI 代理理想状态下应同时实现陪伴与自主支持,并在此基础上减轻家庭照护负担。

“他们往往没有被真正当作消费者看待。”她说,“很多产品是‘为他们做的’,而不是‘与他们一起做的’。”

她补充,心理健康应当是这些技术工具最重要的成果之一。

让老年人感到“自己被认真倾听”,是建立信任的关键步骤。一些受访者表示,希望 AI 代理能够主动记住并理解他们的偏好,而不是忽略他们提出的问题。

满足这些期待,有助于减少他们与家人之间的冲突和抵触情绪。

“这再次凸显了设计高质量解释的重要性。”马图尔总结道,“我们必须超越那种只是在清单上勾选‘透明度’的做法。”


分享:


发表评论

登录后才可评论。 去登录