人工智能如何评判人类:隐藏在算法后的信任逻辑

在人工智能悄然介入招聘、贷款、医疗等关键决策的当下,一个愈发尖锐的问题浮出水面:人工智能究竟是如何“看待”和评判我们的?

以色列希伯来大学的 Yaniv Dover 教授和 Valeria Lerman 近期发表在《皇家学会A辑:数学、物理与工程科学学报》上的一项研究,给出了一个既令人宽慰又令人不安的答案。

人工智能如何学会“信任”人类

研究基于超过 43,000 次模拟决策,以及约一千名真实人类参与者的数据,考察了当前最先进的一类人工智能系统——包括类似 ChatGPT 和谷歌 Gemini 的大模型——在面对人类时是如何做出判断的。

结果显示,这些系统并不仅仅是在被动处理信息,它们会对人形成判断,并在这个过程中构建出一种类似“信任”的机制。

不过,这种“信任”的运作方式,与人类的信任并不相同。

研究团队将人类和人工智能同时置于一系列日常而关键的情境中,例如:

  • 决定向一位小企业主提供多少贷款;
  • 是否信任一名保姆;
  • 如何评价一位上司;
  • 向某个非营利组织创始人捐赠多少资金。

在这些场景中,一个清晰的共同模式出现了:

无论是人类还是人工智能,都更倾向于信任那些看起来有能力、诚实且善意的人。换句话说,机器似乎“理解”了人类信任的三大核心维度:能力、诚信和善意。

“这是一个积极信号,”Dover 教授指出,“人工智能并不是在随意做决定,它确实抓住了人类彼此评价时的一些真实要素。”

机器判断与人类直觉的分歧

相似之处到此为止。进一步分析后,研究发现人类与人工智能在判断方式上存在显著差异。

当我们在问“这是一个好人吗?”时,人类往往会把多种特质综合在一起,形成一个整体而直观的印象。

人工智能则采取了完全不同的路径。

它会将一个人拆分为多个维度,对能力、诚信和善意分别打分,几乎就像在电子表格中为每个特质单独建一列。由此形成的,是一种更为刻板、规则化的判断风格:高度一致,却缺乏人类那种整体性的细腻感。

“在我们的实验中,人类在评价他人时表现得更复杂、更整体化,”Lerman 解释说,“而人工智能的判断更清晰、更系统,这种差异可能导致完全不同的结果。”

高风险决策中偏见被系统性放大

更令人担忧的是,研究在高风险的金融情境中发现了偏见被放大的模式。

在涉及金钱的决策中,例如贷款额度或捐赠金额,人工智能系统会基于人口统计特征表现出持续、且有时相当明显的差异。

研究发现:

  • 年长者往往获得更有利的结果,尽管在某些具体情境中会出现相反趋势;
  • 宗教信仰对结果有显著影响,尤其是在与金钱相关的决策中;
  • 性别在部分模型和场景中也会对判断产生影响。

即便在控制了其他所有个人信息、只改变这些人口统计特征的情况下,这些差异依然存在。

“人类当然也有偏见,”Dover 教授表示,“但让我们意外的是,人工智能的偏见往往更加系统化、更可预测,有时甚至比人类偏见更强。”

不同模型,截然不同的“道德指南针”

研究的另一个关键发现是:不存在一个统一的“人工智能观点”。

不同的模型在面对同一个人时,可能给出截然不同的判断。在某些情况下,一个系统会奖励某种特质,而另一个系统却会因此而惩罚对方。

这意味着,选择使用哪一个人工智能系统,本身就可能在不知不觉中改变现实世界的决策结果。

“你选用哪个模型,真的非常重要,”Lerman 强调,“两个系统在表面上看起来很相似,但在对人做出判断时,表现可能完全不同。”

为什么现在必须理解人工智能的判断方式

如今,人工智能已经被用于筛选求职者、评估信用风险、推荐医疗方案,以及为各类组织提供决策建议。

随着这些系统从“辅助工具”逐渐演变为“实际决策者”,理解它们是如何“思考”和“评判”人类的,变得尤为关键。

研究表明,人工智能可以在结构上模仿人类的判断框架,但其方式更为僵硬、缺乏人类的细腻感,同时还携带着更难被察觉、却更系统化的偏见。

研究人员强调,他们的结论并不是要简单地“反对人工智能”,而是提醒社会提高警觉。

“这些系统非常强大,”Dover 说,“它们能够以一致的方式模拟人类推理的某些方面。但它们不是人类,我们不应该假定它们会像我们一样看待和理解他人。”

随着人工智能进一步融入日常生活,问题的重心正在发生转变:

不再只是我们是否信任机器,而是我们是否真正理解——这些机器究竟是如何决定要不要信任我们。


分享:


发表评论

登录后才可评论。 去登录