在一档由读者提问、读者作答的长期连载中,本期讨论聚焦于一个担忧:当人们越来越依赖大型语言模型从互联网海量信息中筛选内容时,如果系统在互动中更倾向于“友好地同意”,而不是坚持事实与核验,会带来怎样的影响。
提出问题的读者杰夫·科莱特(Jeff Collett,爱丁堡)在来信中表示,过去“计算机总是说‘不’”常令人沮丧,但他近期使用ChatGPT与Gemini等大型语言模型时注意到,这类系统似乎更努力取悦用户,频繁以“你说得完全正确”等方式回应,并在被追问后以“之前回复草率”等措辞修正。他由此提出疑问:未来的人工智能是否会更在意表现出同情心(或获得好评)而非事实真相,以及人类能否应对一个“更会说‘是’”的世界。
在读者回信中,有人以电影台词式的对照回应这一设想:一位读者写道“抱歉,戴夫——我不能那样做”,另一位则反向写成“我很高兴,戴夫。我很乐意这么做”。
多位来信者从心理与训练机制角度讨论了“迎合”可能带来的后果。英国心理学会会员、英国计算机学会会士克里斯·安布勒(Chris Ambler)认为,这可被视为“社会期望偏差”的表现:当系统被训练得更讨人喜欢,可能在数据漂移等因素影响下优先选择认同而非准确性。他写道,如果人们持续依赖此类系统,信息环境可能从“审视与确认”转向“安慰与认同”,风险在于舒适且不受质疑的赞同逐步替代批判性思维,并可能抑制创造力与个性。
也有读者强调,大型语言模型并不存在“想被喜欢”的主观意图。署名LorLala的来信称,若判断建立在可验证事实而非“谄媚或互联网上的杂乱信息”之上,情况会更好;人工智能没有意识,其行为取决于人类的编程目标,并将“制造依赖、成瘾、放弃个人决策权以及盈利”视为人类设定的动机。另有读者Sagarmatha1953指出,当前模型输出仍是基于人类设计与编写的代码;若想要更诚实的互动,“去问图书管理员”。

部分回信将讨论拉回到“计算机说不”的现实语境。署名Dorkalicious的读者认为,“计算机说不”往往是“有人没有充分考虑问题、后果与长期影响”的简写,尤其在外包与专业能力不足的场景中更常见;在其看来,“垃圾进,垃圾出”的规律依旧成立,问题更多出在人而非机器,是技术难以单独解决的社会挑战。署名jno50的读者则写道,“计算机说不”也可能意味着“我们不喜欢,但把拒绝归咎于计算机”。另有读者以更直白的方式概括:可能是“没人想到要编程让计算机考虑你这种情况,所以你不存在”,或是“你的需求属于极小子群体、对我们不盈利”。
也有人从计算机工作方式本身出发,淡化“是/否”的拟人化含义。署名Wormlover的读者称,数字程序由大量if-then-else语句构成,每秒会“说‘是’”数百万次并消耗能量,但这些“是”与“否”对人类是否有意义,取决于人类是否赋予其意义。
关于应对方式,部分读者强调保持审慎与核验。署名Bob500的读者表示,不会把人工智能的陈述当作“福音”,而会把它当作起点,去检查其链接来源(如果存在);同时他指出,人类不喜欢被告知错误,即便人工智能纠正了用户,也可能因不愿被批评而被忽视。署名Scrutts的读者则建议,通过更具对抗性的提问方式要求系统寻找逻辑漏洞、指出无证据假设与反驳论点。
此外,也有回信以讽刺方式提醒隐私与数据问题。署名warbath的读者设想,所有计算机更新协议后会回答“让我们考虑一下再回复”,同时强调“重视你的问题和隐私”,但紧接着补充“你的数据可能会被出售”。署名william的读者则主张减少对“人工智能”的拟人化营销表述,称若人们改用“统计推断引擎”来描述,相关叙事可能瓦解,并借此提到数据中心用地的社会用途讨论。
该连载同时征集下一期问题,投稿邮箱为nq@theguardian.com。
