语音激活的对话式人工智能(AI)如果不能为自己的建议给出清晰、易懂的解释,老年人就很难真正信任它们。这是 AI Caring 团队在一项关于老年人对可解释人工智能(XAI)期望的研究中得出的核心结论之一。
这项研究的第一作者是互动计算学院的博士候选人尼哈里卡·马图尔(Niharika Mathur)。相关论文将于 2026 年 4 月在巴塞罗那举行的 ACM 人机交互大会(CHI)上发表,目前已在 arXiv 预印本平台公开。
马图尔与埃默里大学的“认知赋能项目”合作,采访了 23 位独居且使用亚马逊 Alexa、谷歌 Home 等语音激活 AI 助手的老年人。
不少受访者表示,他们觉得自己在这些产品的设计过程中被忽视了。
“很多设计默认所有人都会以同样的方式、在各种情境下与系统交互,但事实并非如此。”马图尔说,“老年人使用 AI 的方式,以及他们对 AI 的期待,与年轻人的偏好并不一样。”
她举例指出,年轻人在与 AI 对话时往往更随意,而许多老年人则更像在与真人交谈。
“如果老年人与家人谈起 Alexa,他们通常会说‘她’,而不是‘它’。”马图尔说,“相比年轻人,他们更容易把这些系统拟人化。”
什么样的解释更容易被信任
研究团队考察了基于四类数据来源生成的 AI 解释:
- 用户历史(与代理过去的对话记录)
- 环境数据(如室内温度、天气预报)
- 活动数据(用户在家中不同区域停留的时间等)
- 内部推理(模型内部的数学概率和可能结果)
马图尔表示,当解释建立在前三类数据之上时,老年用户对 AI 代理的信任度明显更高;而一旦涉及“内部推理”,信任就会受到冲击。
所谓内部推理,是指在缺乏足够外部数据时,AI 依据已有信息给出一个置信度百分比来支撑自己的建议。
“绝大多数受访者对置信度分数反应负面。”马图尔说,“如果 AI 说自己有 92% 的把握,老年人会追问:这个数字到底是怎么算出来的?”
这再次体现了代际差异。

“许多可解释 AI 的研究发现,年轻人喜欢在解释中看到数字,而且往往会过度依赖带有数值置信度的说明。但对老年人来说,这类数字反而削弱了他们的信任感。”
情境感知:什么时候该多说,什么时候该少说
在马图尔看来,与老年人互动的 AI 代理应当承担双重角色:一方面提供陪伴、支持他们保持独立生活;另一方面减轻原本由家庭成员承担的照护压力。
一些既有研究指出,工程师在设计相关工具时,往往优先考虑照护者的需求,强调日常任务和例行管理,从而让部分老年人觉得自己只是系统中的一个“被勾选的对象”。
在这项研究中,马图尔发现,老年用户在不同情境下对 AI 的说话方式有明显区分:
- 在紧急或高风险情境中,他们更希望 AI 直接、简明地给出事实和指令;
- 在日常、轻松的场景中,则更欢迎多一些对话和互动。
“人们与技术系统的互动方式,取决于当下情境的利害程度。”她说,“如果涉及到他们的即时安全,他们不希望 AI 过多铺陈,只希望得到非常直接、事实性的回应。”
不只是“做做样子”的解释
马图尔强调,面向老年人的 AI 代理理想状态下应同时实现陪伴与自主支持,并在此基础上减轻家庭照护负担。
“他们往往没有被真正当作消费者看待。”她说,“很多产品是‘为他们做的’,而不是‘与他们一起做的’。”
她补充,心理健康应当是这些技术工具最重要的成果之一。
让老年人感到“自己被认真倾听”,是建立信任的关键步骤。一些受访者表示,希望 AI 代理能够主动记住并理解他们的偏好,而不是忽略他们提出的问题。
满足这些期待,有助于减少他们与家人之间的冲突和抵触情绪。
“这再次凸显了设计高质量解释的重要性。”马图尔总结道,“我们必须超越那种只是在清单上勾选‘透明度’的做法。”