当研究人员在学术写作中借助生成式人工智能工具(如ChatGPT)完成编辑、翻译等工作时,越来越多期刊要求作者对相关使用情况进行披露,以维护科学出版的透明度。不过,《PNAS》近日发表的一项研究指出,实际披露比例仍然偏低。
该研究由北京大学信息管理系的何永远和卜毅完成。研究团队分析了2021年至2025年间在5114种期刊上发表的逾520万篇论文,并对期刊关于人工智能使用的规定及论文写作风格变化进行统计检验。
期刊政策覆盖面与分类
研究团队首先结合人工审核与人工智能技术,梳理各期刊服务条款中与人工智能相关的规定,并将其归为四类:禁止使用、要求披露、开放政策以及未提及人工智能。结果显示,约70%的期刊已形成官方的人工智能政策。

写作风格检验与披露比例
在论文层面,研究人员采用最大似然估计等统计方法分析写作风格,以识别可能的人工智能介入迹象。研究称,人工智能模型在用词选择上可能更倾向于重复某些词汇,这类特征可用于辅助判断。
研究结果显示,人工智能辅助写作在各学科以及大多数期刊中均呈显著上升趋势。研究还指出,自2023年以来,在其统计的75172篇论文中,仅有0.1%(76篇)披露了人工智能工具的使用。
使用增长较快的领域与地区
研究同时比较了不同学科与地区的变化。结果显示,人工智能相关内容增长最快的领域包括物理科学;在地区层面,中国、巴西等非英语国家的增长更为明显。

研究提出的可能原因
对于期刊政策未能有效提升披露水平的原因,研究人员提出多项解释。其中之一是作者可能担心承认使用人工智能会引发审稿人对原创性的质疑,进而影响声誉。
研究还指出,部分期刊规则表述不够清晰,导致作者难以判断何种情形需要披露。例如,仅将人工智能用于语法检查与纠错的作者,可能认为相关规定并不适用。
研究作者在论文中表示,其结果显示现行政策在促进透明度或限制人工智能采用方面“基本失败”,并呼吁重新评估伦理框架,以推动科学领域对人工智能的负责任整合。
(来源:Science X Network,© 2026)