洛桑联邦理工学院(EPFL)数据科学实验室负责人、副教授罗伯特·韦斯特(Robert West)与美国西北大学传播与计算机科学副教授、创新、网络与知识实验室(LINK)负责人阿格内斯·霍尔瓦特(Agnes Horvát)在一场对话中表示,随着学术成果越来越多地通过网络发布,公众、记者与政策制定者对数字媒体的依赖上升,科学信息在传播链条中被压缩、被夸大乃至被错误信息“渗入”的风险也在增加;与此同时,大型语言模型(LLM)正更深地介入科学写作与评审流程,并可能在未来数年进入“提出研究假设”的阶段。
关注点:信息丢失、夸大与“AI污染”
霍尔瓦特表示,其团队长期关注科学信息在传播过程中如何发生“丢失”,以及错误信息如何进入并影响新闻与信息生态系统。她称,当前一个突出问题是内容被过度夸大和炒作,另一个问题是错误信息本身的扩散;此外,研究者也越来越多地观察到人工智能对这一领域的“污染”。
社交媒体带来引文增长,但面临内容压缩与新AI环境
在谈及科学家是否应利用社交网络与视频平台传播研究时,霍尔瓦特援引其团队基于七年数据的观察称,科学家参与社交媒体与引文数量的“实质增长”相关,而引文传统上被视为衡量科学成功的指标之一。不过,她也提到,这种增长趋势在近年有所下降。
霍尔瓦特认为,通过社交媒体传播科学面临两项主要挑战:其一是内容在平台机制下被高度压缩;其二是“新的人工智能环境”。她介绍,团队在研究2024年生物医学领域摘要变化时,发现文本中存在明显的LLM使用痕迹:研究识别出近500个与LLM使用相关的词汇,并估计至少约13%的文章经过LLM润色。

韦斯特补充称,在2024年国际学习表征大会(ICLR)上,其团队也观察到类似现象:至少16%的文章评审被认为至少部分由LLM完成。他表示,这可能导致一种“循环”局面——人工智能参与写作、人工智能参与评审,而人们又要求人工智能对论文进行总结。
对写作趋同与语气“过度确定”的担忧
霍尔瓦特表示,她担忧学界对相关工具的接受度过高,可能带来尚未被量化的“思想趋同”。她同时指出,LLM倾向于给出确定性答案,这种特征在摘要、论文或评审中可能表现为过于肯定的语气;而科学传播不仅关乎事实本身,也关乎事实的呈现方式,这会影响哪些观点更具吸引力,并可能进一步影响未来研究方向。她认为,将部分选择交由LLM处理,等同于在一定程度上放弃这些决策,但其后果仍不清楚。
韦斯特则表示,影响并非单向。他指出,现实中不少由人类撰写的论文即便有好的想法,写作质量仍可能较差;在这种情况下,人工智能可能成为“平衡器”,而非加剧不平等。
错误信息:生成更快、传播更快,检测或被低估
在谈到人工智能是否会加剧错误信息传播时,霍尔瓦特表示,社交媒体系统本身较为脆弱,因为大量内容来自来源不明的渠道;而人工智能能够更快生成各类内容,如果更多机器人参与制造错误信息,其传播速度也会随之加快。

韦斯特称,人工智能具有很强的说服能力,当被要求采取立场并为之辩护时,其表现可能接近甚至超过人类水平,从而成为“低成本的宣传机器”。他还表示,使用人工智能检测工具得到的相关比例往往会严重低估实际情况。
未来五年:从辅助写作到提出研究假设
对于更长期的变化,霍尔瓦特表示,目前讨论多集中在“人类借助人工智能”完成研究的呈现方式,例如用AI辅助写论文、写代码、收集数据或做文献综述等。她认为,下一步可能是在大约五年内,人工智能开始提出研究想法与假设,这将打开一个更复杂的新问题空间。
韦斯特表示认同,并称在这一时间框架内出现“能做科学研究的人工智能”是现实情景。他提出一个随之而来的问题:人类是否还能跟上人工智能所做的科学。他表示,人们转向通过社交媒体获取科学信息,在某种程度上也承担了“筛选机制”的角色,即帮助判断应关注什么、什么是趋势;而人工智能则可以阅读所有论文,不存在同样的筛选压力。
“正确的问题”与价值协商
当被问及人工智能是否能提出“正确的问题”时,霍尔瓦特表示,人类过去认为应参与决定研究什么,但她不确定人工智能将如何协商“哪些研究对人类未来重要”的价值观。
韦斯特则表示,科学中最难的事情之一是知道该问什么问题;关键不在于人工智能能否做到完美,而在于它是否能比人类做得更好。他同时指出,更高层次的担忧在于:即便人工智能表面上做得更好,它是否会关心研究是否真正有益于人类未来。他表示,“五年后再谈”。
