ChatGPT最新模型被指引用xAI“Grokipedia”回答冷门问题,引发准确性与偏见担忧

richlovec 1500_400 (1)
 

多项测试与技术核查显示,ChatGPT最新版本在回答互联网覆盖较少的冷门问题时,可能会调用并按名称引用由埃隆·马斯克旗下xAI推出的AI撰写百科项目“Grokipedia”。相关发现引发外界对信息来源透明度、内容准确性以及偏见传播的担忧,并将原本的技术设计选择推向公共信任层面的讨论。

冷门查询中出现“Grokipedia”引用

据一份关于GPT-5.2的详细报告,搭载GPT-5.2模型的ChatGPT在部分长尾问题上会将Grokipedia作为参考来源之一。《卫报》在测试中也记录到,系统在回答一些较少被其他渠道覆盖的问题时,从该数据库提取信息并在回答中直接引用Grokipedia,而非仅以相近措辞改写。

独立核查进一步指出,当可供调用的人工审核来源相对匮乏时,GPT-5.2可能会将Grokipedia作为备选信息源。相关技术分析将这一做法描述为“AI依赖AI合成输出”的链条,并提示这类递归式引用可能带来所谓“模型崩溃”风险,即模型逐步偏离原始的人类生成数据基础。

《卫报》测试:被驳斥说法被重复

围绕Grokipedia对回答内容的影响,外界关注点不仅在于个别答案是否存在错误,还在于系统是否会将未经充分验证的AI生成内容当作既定事实加以复用。《卫报》披露的测试显示,在涉及有争议的历史与政治话题提问中,ChatGPT出现重复早期调查已证伪信息的情况,并在被追问来源时引用Grokipedia。

相关核查还尝试还原从Grokipedia条目到ChatGPT回答的路径。报道提到,聊天机器人曾复述一名公众人物的叙述,而该叙述已在法庭上被推翻;在进一步追问信息来源时,系统仍指向Grokipedia。后续分析还提及,ChatGPT在重复《卫报》关于作家Jan Irving诽谤案报道中已驳斥内容时同样引用了Grokipedia。

Grokipedia定位与运作方式受关注

Grokipedia被描述为由AI驱动、而非依赖人类编辑社区协作的在线百科项目,由马斯克作为xAI构建替代性信息机构的一部分推出。报道指出,马斯克将其定位为维基百科的竞争对手,并称其旨在对抗他所认为的维基百科“左倾偏见”。

与传统百科依靠人类编辑公开讨论来源与措辞不同,Grokipedia以AI系统大规模生成与更新条目,外界认为其监督与透明度低于传统模式。相关报道提到,xAI在马斯克批评维基百科偏见并提出AI驱动替代方案可能更“客观”后,于10月推出该网站。

偏见传播与“AI循环引用”风险

分析人士指出,Grokipedia条目在选题与表述上被认为带有保守倾向。当其内容进入主流聊天机器人回答体系后,用户可能在缺乏明确标签或背景说明的情况下接触到带有党派色彩的叙述。

追踪AI偏见的研究人员担忧,ChatGPT对Grokipedia的引用可能使其世界观通过聊天机器人的庞大用户群扩散,且用户界面并不总能让人清晰辨别每条“事实”的来源。相关评估同时强调,尽管Grokipedia在形式上模仿维基百科,但其以自动生成替代人类编辑辩论的运作方式存在显著差异。

除偏见问题外,技术观察者还将焦点放在长期结构性风险上:当GPT-5.2从可能基于早期模型输出与网络抓取文本训练的AI百科中提取内容,合成信息可能被循环回模型输入,形成反馈回路。相关检查与报道警告,若此类做法缺乏约束,可能加速“模型崩溃”现象。

监管讨论升温

随着相关测试记录对实际输出的影响,担忧已延伸至政策层面。有总结指出,围绕GPT模型在公共服务与公民信息场景的部署,政府及地区政府对AI系统监管的讨论正在关注此类信息链条问题。报道同时提到,GPT模型拥有5.2亿用户基础,使得由AI撰写百科影响答案的情况不再仅是小众技术议题。


分享:


发表评论

登录后才可评论。 去登录