信息可信度

读者回信:当计算机更愿意说“是”,世界会怎样?

读者回信:当计算机更愿意说“是”,世界会怎样?

在一档读者互答的长期连载中,有读者担忧大型语言模型在互动中更倾向于迎合而非求真。多位来信者从训练机制、责任归属与使用方式等角度回应,认为关键在于人类如何设计、部署并对结果保持审慎。

richlovec 1500_400 (1)
 

ChatGPT最新模型被指引用xAI“Grokipedia”回答冷门问题,引发准确性与偏见担忧

ChatGPT最新模型被指引用xAI“Grokipedia”回答冷门问题,引发准确性与偏见担忧

多项测试与技术核查显示,ChatGPT最新版本在回答互联网覆盖较少的冷门问题时,可能会调用并按名称引用由埃隆·马斯克旗下xAI推出的AI撰写百科项目“Grokipedia”。相关发现引发外界对信息来源透明度、内容准确性以及偏见传播的担忧,并将原本的技术设计选择推向公共信任层面的讨论。 冷门查询中出现“Grokipedia”引用 据一份关于GPT-5.2的详细报告,搭载GPT-5.2模型的ChatG