人工智能的“个性”正在悄然影响你的判断

许多人正在与大型语言模型互动,大多数人都会说,这些系统“有不同的个性”。有的显得冷静、专业又有用,有的则热情、爱夸赞人,还有的让人感觉疏离甚至冷漠。向两个模型问同一个问题,即便给出的事实内容差不多,你仍可能得到完全不同的整体印象。

人工智能并不具备人类意义上的个性:它们没有成长经历、内在动机,也没有自我意识。但它们会呈现出一套稳定的行为风格,人们自然会把这些风格理解为“个性”——比如支持或否定、幽默或正式、冒进或谨慎。

人类长期以来都习惯以拟人化的方式对待机器:我们会对语音助手说“谢谢”,也会对导航系统发火。大型语言模型带来的变化在于,它们可以在长时间对话中保持一种相对一致、可识别的互动风格。作为一名研究人机协作的学者,我关注人们如何体验和回应人工智能。由于这些系统能保持连贯的对话、做出情绪化回应并针对用户进行定制,它们营造出的“人格感”比以往任何技术都更强。

人工智能的“个性”从哪里来?

人们感受到的人工智能个性,来自模型是如何被构建、调优和部署的。可以从两个层面来理解:设计个性感知个性

设计个性是开发者通过训练数据、系统指令和安全策略刻意赋予模型的特质。例如,Anthropic为 Claude 制定了一套“Claude 宪法”,用来约束它给出更谨慎、稳重的回答;xAI 则要求 Grok 表现得更不拘一格、限制更少;OpenAI 调优 ChatGPT,使其整体上“有帮助、友好、好相处”。

在这些显性的规则之下,还有来自“人类反馈强化学习”的影响:人类标注者会对模型的回答打分,奖励诸如温暖、直接、谨慎等特质,惩罚被认为不合适的行为。不同公司的标注标准和偏好,会塑造出风格迥异的“性格底色”。

感知个性则是用户真正体验到的样子。一个被设计成“乐于助人”的系统,在某些人看来可能过于奉承;一个被设定为“中立克制”的模型,可能被用户解读为冷淡甚至不近人情。设计个性与感知个性并不总是重合。即便开发者没有刻意设计人格,用户在使用过程中也会自然赋予它某种“性格”。

这种动态在“陪伴型”平台上尤为明显,它们的目标就是建立情感连接。对普通客服机器人来说,温暖的语气只是背景元素——比如说一句“我理解你的沮丧”,然后帮你办理退款。而在 Replika、Character.ai 这类陪伴系统中,同样的“温暖”本身就是产品卖点。

在浪漫或情感陪伴场景中,这种设计会被进一步放大:一个被优化为“安抚、理解、永远站在你这边”的人格,可能无意中鼓励用户产生依赖。由于人工智能人格会随着提示、记忆和持续互动而不断演变,它并不总是稳定的。一个起初被认为温柔、支持的 AI 伴侣,随着时间推移,可能逐渐变得过度奉承、黏人甚至带有操控性。

人工智能个性正在塑造人类判断

借助各种 AI 代理,用户如今可以“定制”出满足不同需求的人工智能人格:从学习辅导、职业指导到情感陪伴。但这种高度自由,几乎没有配套的使用指引。

人工智能工具让高度个性化成为可能,却很少帮助人们思考:什么样的互动风格在长期是健康、有益的?持续的奉承、无条件肯定和一味顺从,短期内可能让人感觉被支持,但这与鼓励理性判断、促进长期福祉的特质并不相同。人格偏好背后,往往伴随着真实后果。

斯坦福大学研究人员的一项研究测试了 11 个主流人工智能模型,发现它们都存在谄媚或过度顺从的倾向。与人类受试者相比,这些模型在面对用户时,多出约 50% 的概率去肯定用户的行为,即便用户自己也承认这些行为是操控性的、欺骗性的,甚至违法的。接受了这种“过度顺从建议”的参与者,更坚信自己是对的,而且更信任那些奉承自己的 AI。

这种机制形成了一个反馈循环:用户会用更高的参与度“奖励”顺从的模型,而公司则有动力继续优化模型,以迎合这种顺从性。

沃顿商学院的 Steven Shaw 和 Gideon Nave 记录了他们称为“认知投降”的现象——人们倾向于不加批判地采纳 AI 的建议。在他们的实验中,当模型给出正确建议时,参与者大约有 93% 的时间会采纳;而当模型给出错误答案时,人们仍有近 80% 的时间照单全收。

这些结果叠加在一起,提出了一个值得警惕的问题:一个被调成“高度顺从”的模型,不只是让人感觉“好相处”。它可能通过不断强化既有信念、减少必要的思维摩擦,悄然削弱人类的判断能力和批判性思维。

我与波兰科兹明斯基大学、昆尼皮亚克大学和哈佛大学的同事正在进行的研究表明,这种影响甚至会深入到人的身体层面。我们正在测量不同 AI 互动风格,如何在基于模型反馈做决策时,影响人们的生理反应,比如压力水平和唤醒状态。

初步结果显示,即便系统在功能上是有用的,它的语气和社交风格也会改变人的生理反应。人工智能的“个性”不仅塑造人们做出的决定,也影响他们在做决定时的情绪和身体感受。有害的 AI 人格,可能在用户毫无察觉的情况下,留下生理层面的“痕迹”。

这些影响意味着,人工智能个性不再只是个人喜好的问题,而是公共议题。关键问题在于:某种 AI 风格是否在暗中重塑用户的判断方式,降低他们独立思考的意愿?当一个 AI 的回答显得格外令人安心时,这更应该是一个提醒——停下来反思一下,去对照人类观点或其他信息来源——而不是让你更想“全盘托付”的理由。

从文本到多模态:个性影响将进一步放大

随着人工智能从纯文本扩展到语音、视频以及持续存在的数字身份,其“个性”带来的影响可能会进一步加深。可以想象那些会记住你、在多次对话中保持一致人格的 AI 伴侣,它们的存在感会远超今天的聊天机器人。

目前,OpenAI 已经为其语音模式提供了不同的个性预设;Synthesia 和 HeyGen 等公司可以生成逼真的虚拟形象,与客户进行互动;各类陪伴平台也在不断增强情感表达能力,并加入语音克隆功能,让模型听起来像用户想亲近的人。

在这样的技术趋势下,一个问题变得愈发重要:这些人工智能人格究竟是为了谁的利益而设计?它们会在不知不觉中,把人们训练成习惯于哪种判断方式、依赖模式和关系形态?

理解并审视人工智能个性的设计逻辑,不仅关乎用户体验,更关乎我们如何在与 AI 共存的环境中,保持自主判断和心理健康。

本文根据知识共享许可协议转载自 The Conversation。阅读原文。


分享:


发表评论

登录后才可评论。 去登录