研究人员警告:生成式人工智能或通过反馈循环削弱文化创新

richlovec 1500_400 (1)
 

生成式人工智能一度被视为提升创作效率与激发灵感的工具,但多名研究人员近期警告称,随着相关系统被广泛嵌入搜索引擎、社交媒体与办公软件,其输出正在呈现趋同与回流特征:内容更倾向复用近期既有风格与表达,减少语境差异与意外性。研究人员指出,这种变化并非源于单次“失误”,而可能来自模型训练与传播机制形成的长期反馈循环,且依赖程度越高,文化向前推进的难度可能随之上升。

研究团队将这一现象概括为“视觉电梯音乐”——一种看似顺滑、熟悉、可作为背景的内容形态。相关描述认为,这类美学正在渗透广告、书籍封面等多个应用场景;与此同时,类似的趋同机制也被认为正在影响职场行为与机构激励,使得守成更容易被奖励,而创新更难被选择。

训练机制与“视觉电梯音乐”现象

研究人员将问题的起点指向大型模型的训练方式:模型通过吸收大量既有图像与文本档案,学习预测“最可能出现的下一个词或像素”。当模型生成的内容被再次纳入后续训练数据时,系统可能出现自我强化,逐步偏向已见过的模式而非探索新表达。

在一项实验中,研究人员观察到:当模型从一个具有明确场景设定的起点出发,经过多轮迭代后,输出逐渐脱离原始语境,漂移为更通用、缺乏特定地点指向的图像。研究团队据此提出“视觉电梯音乐”的说法,用以描述模型在自我迭代中对语境的扁平化。

研究人员进一步举例称,同一模型可以生成逼真的“首相”或“城市街道”,但在反复自我采样后,往往会剥离具体时代、政治或地理信息。在一项相关研究中,一个以特定旗帜下的首相为起点的提示,随后逐步变为模糊办公室中的普通领导者,再变为走廊里无面孔的人物。包括计算机科学家Jan在内的研究人员认为,这种趋向并非简单缺陷,而与系统在训练与评估中被“奖励”贴近训练分布中心有关。

合成数据占比上升与反馈循环

研究人员指出,当AI生成内容在网络上占比提高,反馈循环更难避免。新模型通常在混合的人类数据与合成数据上训练,但随着企业向社交平台、图库乃至新闻网站投放更多机器生成内容,合成数据比例可能持续上升。经过多轮训练后,模型可接触的“世界”逐渐收缩至自身过去的输出,表现为更快“忘记”起始提示,并向缺乏特征的审美漂移。

在研究人员看来,这一机制可能带来文化层面的停滞风险:当新闻插图、播放列表音乐与网站文案等内容生产被持续优化为“过去表现良好”的模式,系统实际上会将近期过去固化为默认标准。有分析将此描述为“文化停滞与加速的选择”,并称当前生成工具更倾向前者;相关观点认为,若要避免生成式AI成为创新的阻力,需要调整训练数据、评估指标与激励机制的设计方式。

职场中的“岗位依赖”与“隐性裂痕”

研究人员与相关调查还将类似动态延伸至职场。随着AI工具自动化更多任务、管理层公开讨论重组,一些员工的反应并非主动流动,而是更倾向留在现有岗位。一项职场调查将其概括为“岗位依赖”:员工即便感到被低估或岗位不匹配,也不愿离开,担心变动带来自动化替代或裁员风险。

该调查还引入由Talent LMS提出的“隐性裂痕”概念,用以描述持续存在的工作焦虑感——这种情绪未必演变为公开冲突,但可能逐步侵蚀员工参与度。受访者描述的循环包括:对AI的担忧降低尝试新事物的意愿,进而加剧疏离感;担心被模型替代的人更不愿参与创意项目或提出非传统想法。

另有观点指出,依赖AI监控绩效的组织可能放大上述问题:当仪表盘更强调一致性与产量而非原创性,员工会更快转向重复系统已认可的做法。Built In的一项分析将这一变化与员工参与度下降联系起来。

机构激励与“向平均值”靠拢

研究人员认为,个人选择背后还存在机构层面的激励结构。流媒体平台、图书出版商等“文化守门人”越来越依赖AI预测畅销内容;基于过往热门作品训练的推荐系统更可能推送相似作品,从而促使创作者为获得曝光而顺应潮流。

一项趋势分析认为,机构、亚文化与艺术家仍存在抵抗空间,但前提是有意识地重视独特性与创造性,而非仅优化既有表现。该文作者(摘要中称为Human)强调,当前趋势并非不可逆,但若缺乏主动干预,系统默认设置将偏好安全、熟悉的内容。

另一篇文章也提出类似警告,将问题描述为机构便利与文化活力之间的拉扯。文章称,机构已使用AI筛选资助申请、发掘人才,甚至生成创意作品初稿,原因在于成本更低、速度更快;但同样的工具可能强化已被奖励的模式,从而边缘化实验性场景与少数群体声音。Life and News的一份报告认为,机构可以选择继续加码算法平均值,或利用AI释放人类策展人的风险承担能力,这将成为“人类创造力是否仍居核心”的考验。

研究人员:结果并非不可改变

尽管部分研究将上述趋势概括为“文化停滞”,参与相关研究的人员仍强调结果并非注定。记录“视觉电梯音乐”效应的计算机科学家Jan表示,人类创造力具有韧性,现有工具也可以通过重新配置来放大差异。

研究人员提出的方向包括:在训练中采用更多样化的数据集、对陷入陈词滥调的输出施加惩罚,并赋予用户更多控制权,以调节输出的风险或新颖程度。相关观点同时强调,应将AI视为可被推动与激发的协作工具,而非将其首次输出视为最终答案。


分享:


发表评论

登录后才可评论。 去登录