当服务出现问题时,客户通常希望得到理解与安抚。来自员工的一句“我理解您的沮丧”往往能缓和紧张气氛,帮助重建信任。然而,南佛罗里达大学的一项新研究显示,当尝试表达同理心的是聊天机器人时,结果可能截然相反。
这项研究发表在《管理信息系统季刊》(MIS Quarterly)上。研究团队发现,在人工智能驱动的服务场景中,如果聊天机器人使用类似人类的同理心表达,反而可能无意中加剧客户的负面反应。
南佛罗里达大学穆马商学院信息系统副教授、研究合著者尹德志指出:“聊天机器人的同理心可能被客户视为一种侵入,进而削弱信任。”
研究通过三项实验展开,其中包括让参与者与一个基于大型语言模型的实时聊天机器人进行互动。研究人员重点考察,当聊天机器人识别并回应用户的负面情绪、尝试“共情”时,客户会产生怎样的心理和行为反应。

结果显示,这些带有同理心措辞的聊天机器人回复,并没有起到安抚作用,反而经常触发所谓的“心理反抗”——即当人们感到自身控制感受到威胁、个人边界被侵犯时产生的一种强烈负面情绪反应。
许多客户对“非人类系统能够识别并回应自己情绪”这一点感到不适甚至排斥。这种不适感会让聊天机器人在客户眼中显得不那么可靠和专业,从而拉低对整体服务质量的评价,也降低了客户满意度。
研究结果进一步表明,在情绪识别和情感交流方面,客户对人类与人工智能存在明显不同的期待。简单地让聊天机器人“更像人”并不总是有效策略,尤其是在服务补救等高度敏感的场景中,过度拟人化的同理心表达可能适得其反。
发表评论
登录后才可评论。
去登录