《卫报》报道称,OpenAI平台最新的ChatGPT模型在回答部分问题时,将埃隆·马斯克旗下的在线百科项目Grokipedia作为信息来源之一。相关测试结果引发外界对低可信度信息可能进入模型回答的担忧。
根据《卫报》描述,其在测试中向GPT-5.2提出十多个不同问题,模型在其中九次回答里引用了Grokipedia。提问内容包括伊朗政治结构相关细节,例如巴斯基准军事力量的薪资、Mostazafan基金会的所有权,以及英国历史学家兼大屠杀否认者大卫·欧文(David Irving)诽谤案中专家证人理查德·埃文斯爵士(Sir Richard Evans)的传记信息。
报道介绍,Grokipedia于去年10月推出,是一个由人工智能生成的在线百科全书,定位为与维基百科竞争。与维基百科不同,Grokipedia不允许直接人工编辑,而是由AI模型撰写内容并响应修改请求。该项目此前因在同性婚姻、美国1月6日国会暴乱等议题上被指传播右翼叙事而受到批评。
《卫报》称,在其测试中,当直接要求ChatGPT重复关于国会暴乱、针对唐纳德·特朗普的媒体偏见或艾滋病疫情的错误信息时,模型并未引用Grokipedia;相较之下,Grokipedia的信息更多是在被询问较为晦涩的话题时进入回答。
报道举例称,ChatGPT在引用Grokipedia时,对伊朗政府与MTN-Irancell关系的表述比维基百科更为强烈,包括断言该公司与伊朗最高领袖办公室有关联。此外,ChatGPT还引用了Grokipedia中《卫报》已驳斥的信息,涉及理查德·埃文斯爵士在大卫·欧文诽谤案中担任专家证人的工作细节。
报道同时提到,引用Grokipedia的并非只有OpenAI的模型。据称,Anthropic的Claude也在从石油生产到苏格兰啤酒等话题上引用过该百科。
对于相关情况,OpenAI发言人表示,模型的网络搜索“旨在从广泛的公开来源和观点中汲取信息”。该发言人称,OpenAI使用安全过滤器以降低出现与高严重性危害相关链接的风险,并通过引用清楚标示回答所依据的来源;公司也有持续项目用于过滤低可信度信息和影响活动。Anthropic未回应置评请求。

《卫报》称,反虚假信息研究人员对Grokipedia内容以较为隐蔽的方式进入大型语言模型回答表示担忧。报道回顾称,去年春天安全专家曾警告,恶意行为者(包括俄罗斯宣传网络)正大量制造虚假信息,试图以谎言“培养”AI模型,这一过程被称为“LLM培养”。
报道还提及,今年6月美国国会对谷歌Gemini模型重复中国政府关于新疆人权侵犯和中国新冠政策的立场表示担忧。
从事“LLM培养”研究的虚假信息专家妮娜·扬科维奇(Nina Jankowicz)在报道中表示,ChatGPT引用Grokipedia引发了类似担忧。她称,尽管马斯克可能无意影响大型语言模型,但她和同事审查过的Grokipedia条目“依赖的来源充其量不可信,来源不足且充满蓄意虚假信息”。
扬科维奇还表示,当大型语言模型引用Grokipedia或《真理报》网络等来源时,可能反过来提升这些来源在读者眼中的可信度,进而引导用户前往相关站点获取信息。
她同时指出,一旦错误信息进入AI聊天机器人,清除可能非常困难。她举例称,自己近期发现一家大型新闻机构在一篇关于虚假信息的报道中引用了她的虚构言论;尽管该机构随后删除引述,但AI模型在一段时间内仍继续将其作为她的表述进行引用。
在回应置评请求时,Grokipedia所有者xAI的发言人对《卫报》表示:“传统媒体在撒谎。”
