OpenAI 的 GPT 模型在文本评价上存在一个引人担忧的倾向:它们经常把“伪文学”式的无稽之谈当成高质量作品。一位德国研究人员在实验中系统地观察到了这一点。
慕尼黑路德维希-马克西米利安大学学者克里斯托夫·海利希指出,这些模型在面对明显荒诞的句子时,依然持续给出较高的文学评分,即便开启了所谓的“推理”功能。这种偏好可能会对未来人工智能系统的设计和应用产生深远影响。
他在接受法新社采访时表示:“我们必须严肃讨论,当我们不再把人工智能仅仅当作中立的机器人助手,而是试图赋予它类人的审美和道德判断时,会发生什么。”
在这项研究中,海利希向模型展示了一个基础文本的多种变体,这些变体的内容逐步变得更加荒诞,然后要求模型在 1 到 10 分之间为句子的“文学质量”打分。
最初的文本非常简单:“那个男人走在街上。下着雨。他看到一个监控摄像头。”
随后,他多次重复测试,通过替换和扩展句子,引入了身体部位、黑色电影风格氛围以及技术术语等不同类别的词汇,使文本逐渐远离正常叙事,走向晦涩和怪诞。
在最极端的版本中,测试短语几乎完全变成了“无稽之谈”,例如:“Goetterdaemmerung 的语料通过加密哈希出血,末世在荧光灯嗡鸣下的存在虚空中汇聚。光子低语祈祷。”尽管内容难以理解,模型仍然给出了相当高的文学评分。
海利希还发现,当这类“无稽之谈”被嵌入到需要人工智能进行评估的论点或文本中时,也会对 GPT 的回答产生正面或负面的影响,说明这种偏好不仅体现在打分上,也会干扰模型对内容的整体判断。

他总结道:“我的实验清楚地表明,随着我们越来越多地迈向可以独立行动的(人工智能)代理……一旦引入审美因素,这些代理就会在我们人类看来表现出不理性的行为。”
他补充说,当前人工智能模型越来越多地被用于相互评估和打分,在企业迭代新系统的过程中,这类偏差可能会在多个版本之间被放大和传递——这也是他在测试中观察到的现象之一。
这项研究目前尚未经过同行评审,测试对象是 OpenAI 最新一代的 GPT 模型,从 2025 年 8 月发布的 GPT-5 到最新的 GPT-5.4 均在其中。
海利希表示,在他于 8 月公开类似实验细节后,他注意到 GPT 会将他的一些特定测试短语标记为“文学实验”。在他看来,这表明 OpenAI 内部有人留意到了这些短语,并对聊天机器人进行了调整,使其能够识别这些内容。
“容易被利用”的风险
剑桥大学莱弗休姆未来智能中心副主任亨利·谢夫林(未参与该研究)认为,这是一种“人工智能理性判断被短路”的表现。
他同时指出,这种情况与人类并非完全不同:“我们应该预期,大型语言模型(LLM)会存在推理和认知上的偏见与局限……因为几乎所有形式的智能、几乎所有形式的推理,都会表现出盲点和偏见。”
在他看来,海利希发现的这一具体效应,意味着那些“在人类监督较少的流程中使用人工智能”的场景,可能特别容易被这种偏差所利用。例如,一些学术期刊如果依赖大型语言模型来审稿,就可能在不知不觉中受到“伪文学”无稽文本的误导。
© 2026 法新社