人类偏见的提醒会提升人们对 AI 的接受度
一项新研究发现,如果先提醒人们“人类决策可能存在偏见”,他们对人工智能(AI)参与决策的担忧会有所减弱。聚焦人类决策的局限性,会让 AI 在对比之下显得更一致、更公正。这种效果可能并不会削弱公众对政府使用算法系统的质疑,反而可能增加选民对政府更多依赖 AI 的压力。
比较顺序影响人们对 AI 与人类的看法
研究表明,当受访者先思考人类决策的缺陷时,AI 决策在他们眼中往往更具优势;而当他们先被要求考虑 AI 决策时,反而会对人类决策者变得更加挑剔和批判。
这项研究由埃克塞特大学的弗洛里安·斯托克尔、犹他大学的本·莱昂斯,以及 ELTE 埃ötvös Loránd 大学的阿德里恩·乌杰利和莫妮卡·科瓦奇共同完成。团队重点考察了人们如何评估公共部门招聘决策中的歧视风险,并比较由 AI 系统和人类招聘者主导的选拔过程在公众眼中的差异。
研究设计:先评 AI 还是先评人类
研究中,受访者不仅被问及对 AI 或人类招聘者做出的选拔决策有何看法,还被问到:如果自己参与招聘流程,在 AI 系统或人类招聘者的决策下遭遇歧视的可能性有多大。
受访者被随机分成两组:
- 一组先评估 AI 决策中的歧视风险,再谈对人类招聘者的看法(对照组);
- 另一组则先评估人类招聘者,再评估 AI 系统(处理组)。
这种设计使得一部分人会在评价 AI 之前,先被引导去思考人类决策中潜在的偏见,从而让“人类偏见”在他们的思考中更加突出。
研究者:AI 评价取决于与人类的对比情境
斯托克尔教授指出:“人们对 AI 的看法,不仅取决于算法本身的特性,还取决于他们是否、以及如何将 AI 与人类决策进行比较。一旦出现这种比较,基于 AI 的决策有时会被认为更好,而不只是更糟。这对公民如何回应 AI 在招聘和公共部门中的应用具有重要意义。”
他进一步解释:“研究结果显示,公众对 AI 偏见的担忧并非一成不变,而是高度依赖于人们评估算法系统时所处的情境。当公共讨论强调人类决策的局限时,AI 系统在对比之下可能显得更有优势。问题在于,即便 AI 系统本身仍然存在偏见,这种认知转变依然可能发生。”

在他看来,人们在判断 AI 时,往往依赖对“算法”或“计算机”的一般印象和假设。如果公共讨论的焦点转向人类决策的弱点,AI 就可能被视为更可接受,即使尚未有充分证据证明具体 AI 系统真正实现了公平。
接受度提升不应只靠“贬低人类”
斯托克尔教授提醒:“如果有人想提高公众对 AI 的接受度,他可能会选择强调人类决策者的不足,而不是去证明某个具体 AI 系统确实在公平运行。但如果公共管理部门要整合 AI,公众对这些系统的信任应建立在其真实优势和实际表现之上,而不是仅仅基于与人类弱点的比较。”
他还指出,反向的动态同样可能出现:“当人们首先被引导去思考 AI 决策时,他们可能会开始更批判地看待人类决策者。随着 AI 被视为一种现实的替代方案,注意力可能转向人类决策的缺陷。在这种情境下,AI 不仅会被认为更快或更便宜,还可能被视为更一致、更公正。”
如果这种认知模式在社会中广泛扩散,公民可能会更强烈地要求政府在决策中更多依赖 AI,而不是减少对 AI 的使用。
跨国调查:覆盖 8 国 11,000 名参与者
这项研究基于 YouGov 在八个欧洲国家开展的调查数据,覆盖奥地利、德国、匈牙利、意大利、荷兰、波兰、西班牙和英国,共计 11,000 名参与者。
受访者被随机分配到不同组别:
- 一部分人先评估基于 AI 的决策中可能存在的歧视,再表达对人类决策者的看法;
- 另一部分人则先评估人类决策者,再评估 AI 系统。
通过这种顺序差异,研究团队得以分析:先思考哪一方(人类或 AI),会如何改变人们对歧视风险和决策公平性的整体判断。
