对话式人工智能与诗歌:在大型语言模型时代重新理解“创作”

对话式人工智能究竟“知道”什么?

大型语言模型背后的人类般对话式人工智能到底真正掌握了什么?与它们共同生活、共同创作,又意味着什么?

蒂埃里·普瓦博(Thierry Poibeau)在新书《理解对话式人工智能》中,对大型语言模型(LLM)展开了批判性、跨学科的分析,讨论它们如何正在重塑我们对语言、心智与社会的理解方式。书中综合了语言哲学、语言学、认知科学以及人工智能伦理等领域的研究,考察这些模型如何生成意义、模拟推理,并完成曾被视为人类专属的任务——从翻译、道德判断到文学创作。

作者同时关注这些系统的局限与内在偏见,以及它们在自动化、虚假信息传播和平台封闭生态中的角色,并借此反思一系列基础问题:什么才算“理解”?什么是“创造力”?在一个充斥合成语言的世界里,我们如何谈论代理权与信任?

AI诗歌与审美判断

近期研究显示,非专业诗歌读者在盲测中往往更偏爱人工智能创作的诗作,而不是人类写下的作品。普瓦博提醒,诗歌审美判断通常牵涉难以形式化的因素,例如原创性、情感共鸣、隐喻的深度以及作品与文化语境的嵌入程度。

他指出,人工智能生成诗歌之所以具有吸引力,很大程度上是因为文学价值本身就是在特定读者群体中、通过不断演变的规范所塑造的。诗歌价值的判断具有历史偶然性,也是在社会互动中协商出来的。

AI诗歌的动态

节选自《理解对话式人工智能》

“人工智能生成诗歌的兴起,提出了一个根本问题:那些传统上建立在人类经验、意图表达和历史语境之上的评价标准,是否仍然适用于由大规模统计重组产生的文本?

随着大型语言模型生成的诗句愈发流畅、自然,它们的作品可能会动摇现有的审美真实性观念,因为这些文本模糊了技艺、模仿与真正创造性洞见之间的界线。

这些系统能够再现可辨识的诗歌形式、风格惯例和情感色彩,这就引出了一个问题:当传统关于作者身份与创作意图的假设不再适用时,我们应如何评价这类文本?

然而,尽管具备这种形式上的熟练度,近期研究发现,大型语言模型生成的诗歌呈现出一系列反复出现的风格偏好。例如,GPT‑4明显偏爱四行诗结构,经常使用抑扬格节奏和尾韵,并频繁出现 heart(心)、whisper(低语)、dream(梦)等词汇。

这些作品往往在情感与隐喻的复杂度上趋于扁平,更偏向直白表达和传统诗歌套语,而不是暧昧性、创新性或语义上的深度。

与人类创作的诗歌相比,LLM生成的诗句整体更为同质化、缺乏细腻之处,不太容易产生人类原创作品中常见的概念张力或出人意料的意象组合。

除了这些风格特征外,近期的读者评估研究还表明,在盲测条件下,一些AI生成的诗歌被打分为与人类作品相当。

但一旦告知读者作品出自机器之手,评分往往会下降,显示出人们对机器创作诗歌的持续怀疑。这种接受度的变化,凸显了AI诗歌在形式上的流畅与读者对真实性、创造主体感知之间的张力。

有趣的是,读者通常认为AI生成的诗歌更容易理解。他们更轻松地把握其中的意象、主题和情绪——这些内容往往以比人类诗人作品更直接、透明的方式呈现,而后者则更常显得晦涩、含混。

因此,读者可能会偏好这些文本,并将自己理解的轻松误认为是“人类创作”的证据。当作品的机器来源被揭示后,这种解读会发生转变:先前被视为有助理解的特征,可能转而被看作肤浅或缺乏深度的标志。

这些发现需要谨慎对待。它们并不意味着AI诗歌在文学质量上优于人类作品,而是说明AI更倾向于遵循熟悉的形式和易于接受的惯例。相比之下,人类诗歌往往依赖多层结构、典故与暧昧性,需要读者具备丰富的文学、历史和诗歌传统背景。理解这类作品本身就是一项认知负担,因此在不考虑专业知识与解读能力差异的前提下,让非专业读者对诗歌做出“有意义”的评价,本身就存在问题。

除了评价层面,AI诗歌的接受度还牵涉署名、披露与创作所有权等更广泛议题。文学机构、出版社和比赛主办方越来越多地要求作者说明是否使用了AI工具,这反映出人们对机器生成文本在既有创造力与价值框架中应处何位仍感到不确定。

当读者得知一首诗是由机器生成时所产生的不适,并不仅仅是对被‘欺骗’的反应,更说明审美判断依然深深纠缠于我们对意图、经验与作者身份的预设之中。”

本文根据 The Conversation 文章内容整理与翻译,原文采用知识共享许可协议发布。


分享:


发表评论

登录后才可评论。 去登录