英语版 Wikipedia 明确禁止使用 LLM 生成条目正文,社区投票通过新指南

Wikipedia

英语版 Wikipedia 近日正式制定新指南,原则上禁止使用 ChatGPT 等大规模语言模型(LLM)来生成或改写条目正文。该指南在 2026 年 3 月通过社区讨论(Request for Comment,RfC)表决,以压倒性多数获得通过,将“不得用 LLM 生成条目正文”的方针以书面形式固定下来。

英语版 Wikipedia 明确写入“禁止用 LLM 生成条目正文”

英语版 Wikipedia 公布了新的编辑指南《Writing articles with large language models》,明确规定:

  • 禁止使用 LLM 生成条目正文内容;
  • 禁止使用 LLM 对现有条目正文进行改写。

社区给出的主要理由包括:

  • LLM 容易产生“幻觉”(hallucination),编造事实;
  • 可能虚构引用来源或文献;
  • 生成内容往往难以被充分验证。

作为在线百科全书,Wikipedia 一直强调由人类编辑者负责核查来源、验证信息并完成编辑流程。若直接将生成式 AI 输出的文本作为条目内容使用,被认为与这一核心编辑原则相冲突,因此需要在规则层面加以限制。

2026 年 3 月社区投票结果:44 票赞成、2 票反对

这项新方针是在英语版 Wikipedia 社区发起的 RfC 讨论中形成的共识。

在 RfC 的最终统计中:

  • 赞成:44 票;
  • 反对:2 票。

在总结意见中,社区并未主张“全面封杀” LLM,而是认为应重点限制最容易引发问题的“条目正文生成”用途,同时清晰划定可以接受的使用场景,让编辑者在一定范围内合理利用新工具。

允许的例外使用场景

尽管对条目正文的生成和改写做出了严格限制,但新指南并未完全否定 LLM 的使用。以下几类用途被视为例外,可以在一定条件下使用:

  • 作为复制编辑(copy edit)的辅助工具;
  • 用于语法修正、措辞润色、结构优化等改进建议;
  • 作为翻译辅助工具;
  • 在翻译其他语种 Wikipedia 条目时使用 LLM 协助(前提是最终内容必须由人类编辑者逐条核查和确认)。

也就是说,LLM 可以被视作一种“编辑辅助工具”,帮助改善语言质量或翻译效率,但不得直接承担“写条目正文”的角色。

在 LLM 广泛普及背景下的规则完善

近几年,ChatGPT 等生成式 AI 工具迅速普及,自动生成文本的门槛大幅降低。Wikipedia 社区也观察到,利用 AI 进行编辑的情况明显增多,其中不乏包含错误信息、虚构引用甚至完全捏造内容的案例,引发了对百科全书可靠性的担忧。

此次新指南的制定,正是为了在这一背景下,明确 LLM 在 Wikipedia 上的可用边界:

  • 一方面,并未完全排斥生成式 AI,承认其在翻译、语法修正等方面的实用价值;
  • 另一方面,通过禁止用 LLM 直接生成或改写条目正文,尽量降低幻觉和虚假引用对百科内容质量的冲击。

未来,英语版 Wikipedia 将继续坚持“由人类编辑者主导内容创作与审核”的基本编辑体制,同时在严格规则约束下,将 LLM 作为辅助工具加以利用,以在技术创新与知识可靠性之间寻求平衡。


分享:


发表评论

登录后才可评论。 去登录