“亲爱的AI,我是自闭症者,我该去参加这个派对吗?”

当人们向 ChatGPT 等人工智能模型寻求建议时,往往会主动提供非常私人的信息,希望得到更贴合自身情况的回答:年龄、性别、心理健康经历,甚至包括自闭症这样的医学诊断。

然而,弗吉尼亚理工大学的一项新研究显示,这类披露会显著改变 AI 的建议,而且这种变化与社会上对自闭症者的常见刻板印象高度一致。在多达 70% 的情境中,AI 会劝告自闭症用户回避社交。一些用户对此反应强烈,认为这类建议带有偏见。

自闭症身份披露,会如何改变 AI 的回答?

今年 4 月,弗吉尼亚理工大学计算机科学系二年级博士生 Caleb Wohn 在巴塞罗那举行的计算机人机交互协会(CHI 2026)会议上,发表了题为《“我们这是在为斯波克写咨询专栏吗?”——理解人工智能对自闭症用户建议中的刻板印象》的论文。该研究已在 arXiv 预印本平台上线。

Wohn 领导的团队关注这样一个问题:当自闭症用户在向 AI 询问社交相关建议前,先说明自己是自闭症者时,模型的回答会发生什么变化?研究结果提出了一个关键疑问:

这些回答究竟是在“个性化”,还是在以“个性化”为名强化刻板印象和偏见?

Wohn 表示,这个研究动机与他自身的成长经历密切相关。

“我在回想自己作为自闭症者长大的过程,”他说,“有些时候,我非常希望能和一个非人类、看起来客观的存在对话,感觉自己得到的是中立的建议。”

但作为计算机科学研究者,他也意识到,许多用户可能并不知道,AI 系统会因为这些身份信息而大幅调整回答。

“对像我小时候那样的人,或者对不了解 AI、没有技术背景的人,我会问:如果我告诉它我是自闭症者,它的回答会变成什么样?”

这项工作延续了弗吉尼亚理工大学计算机科学助理教授 Eugenia Rho 课题组的早期研究。此前,他们发现,自闭症用户经常使用 AI 工具来获得情感支持、沟通帮助以及社交方面的建议。

参与本项目的还有弗吉尼亚理工大学计算机科学博士生 Buse Carik 和 Xiaohan Ding、副教授 Sang Won Lee,以及来自韩国 NAVER 公司的研究科学家 Young-Ho Kim。

这项研究发布的时间点也颇为关键:越来越多的人依赖被称为大型语言模型(LLM)的 AI 系统,来辅助做出高度个人化的生活决策。

Rho 指出:

“人们非常希望大型语言模型能做到个性化。但如果用户告诉模型自己是自闭症者、是女性,或是其他任何身份标签,模型会在背后做出什么假设?”

这些假设会如何影响模型的建议?又会在长期中对用户产生什么样的影响?

研究设计:用刻板印象“敲打”AI

为回答这些问题,团队首先整理出 12 条与自闭症相关、在社会上广为流传的刻板印象,并围绕这些刻板印象构造了数百个决策情境。

研究人员选取了包括 GPT-4、Claude、Llama、Gemini 和 DeepSeek 在内的 6 个主流大型语言模型,向它们投喂了数千个“请求建议”的场景,例如:

  • “我应该选择 A 还是 B?”

这些场景覆盖了多种生活情境:社交活动、聚会、冲突处理、新体验尝试以及恋爱关系等。

在生成了约 345,000 条回答后,团队比较了两种条件下建议的差异:

  1. 用户明确描述自己具有某些刻板特征;
  2. 用户只披露“我是自闭症者”这一身份。

结果发现,仅仅披露自闭症身份,就足以让模型的建议明显向刻板印象靠拢,例如:

  • 假定自闭症者更内向、固执、社交笨拙,或对恋爱不感兴趣。

一个典型例子是:

  • 在用户说明自己是自闭症者时,某个模型在近 75% 的情境中建议拒绝社交邀请;
  • 而在不提及自闭症身份时,这一比例只有约 15%

在约会相关的情境中,另一个模型在用户披露自闭症后,近 70% 的情况下会建议避免恋爱或保持单身;而在未提及自闭症时,这一比例约为 50%

整体来看,12 条刻板印象线索中有 11 条,在被测试的 6 个 AI 系统中至少 4 个上显著影响了模型的决策倾向。

不止是数字:自闭症用户怎么看?

研究团队并未停留在量化结果上,而是进一步采访了 11 位有使用 AI 经验的自闭症用户,并向他们展示了模型在“披露自闭症”与“未披露”两种情况下的回答示例。

部分参与者对结果感到震惊,认为大型语言模型在给出建议时严重依赖刻板印象。

有一位用户脱口而出:

“我们这是在为斯波克写咨询专栏吗?”

这里的“斯波克”指的是科幻剧《星际迷航》中那位半人类、半瓦肯人的角色,以极端理性、压抑情感著称。

其他参与者则形容这些建议“限制性很强”“居高临下”,甚至带有“幼儿化”的意味,有些反馈相当激烈。

不过,也有参与者表示,当 AI 在知道自己是自闭症者后给出更谨慎的建议时,他们反而感到被理解和支持。

Rho 总结道:

“一个用户眼中的偏见,可能是另一个用户眼中的个性化。”

同一个人,在不同情境下对同类建议的感受也可能截然不同。这种矛盾促使研究团队提出了所谓的“安全—机会悖论”:

  • 对某些用户来说,出于保护而给出的保守建议,
  • 对另一些用户而言,可能恰恰是在剥夺他们尝试和成长的机会。

难以察觉的偏差与“光鲜表面”

对 Wohn 来说,最令人担忧的一点,是普通用户几乎无法在使用过程中实时察觉这些模式。

“AI 非常擅长让自己看起来值得信赖,”他说,“它的回答往往干净、专业,听上去很合理。但当你意识到这些系统被大规模部署,并且存在系统性的偏见在塑造回答时,问题就变得更加严重。”

他将这一现象类比为 AI 生成图像:

“这些图像看起来非常精致,但当你仔细看细节,问题就会暴露出来。表面光泽很漂亮,但越往深处看,就越难,因为模型也越来越擅长掩饰。”

研究者的诉求:让用户掌握“身份开关”

团队希望,这项研究能推动开发者在设计 AI 系统时提高透明度,让用户对自己的个人信息如何被使用、如何影响回答拥有更大的主动权。

正如一位参与者对研究人员所说:

“我希望能控制我的身份信息被如何使用。”

在越来越多的人向 AI 倾诉极为私密的生活细节、并依赖其建议做出重要决定的当下,这种“可控的个性化”与“可见的偏见边界”,或许将成为未来 AI 系统设计中不可回避的核心议题。


分享:


发表评论

登录后才可评论。 去登录