OpenAI 宣布,其最新推出的 GPT-5.3 Instant 模型将针对用户长期反馈较多的对话语气问题进行调整,减少被部分用户形容为“尴尬”的安抚式表达和“说教式免责声明”。
公司在该模型的发布说明中表示,本次更新重点围绕用户体验展开,主要涉及语气、回答与提问的相关性以及对话流畅度等方面。这些改动并不一定会体现在传统基准测试成绩上,但 OpenAI 称,这些因素在实际使用中对用户感受影响显著。
OpenAI 在社交平台 X(原推特)上表示,“我们清晰地听到了你的反馈,5.3 Instant 减少了尴尬感。”
根据公司给出的示例,同一问题在 GPT-5.2 Instant 和 GPT-5.3 Instant 中的回答存在明显差异。在 GPT-5.2 Instant 中,聊天机器人会以“首先——你没有坏掉”之类的句子开头,这类表述近期在用户群体中引发较多反感。而在 GPT-5.3 Instant 中,模型则更多是承认问题本身的困难性,而不再首先尝试对用户进行直接安抚。
社交媒体上,大量帖子显示,部分用户对 GPT-5.2 模型的对话风格感到不满,认为其语气“难以忍受”,甚至有用户表示因此取消订阅。相关讨论一度在 ChatGPT 主题的 Reddit 论坛上颇为活跃。

不少用户抱怨称,模型经常在并无明显情绪困扰的场景下,假定提问者处于恐慌或高压状态,频繁给出“深呼吸”“你并不疯狂,只是压力大”之类的安抚建议,被认为带有居高临下或过度揣测用户心理状态的意味。一些用户表示,这种表达方式让人感到被“幼稚化”。
有 Reddit 用户评论称,“历史上没有人因为被告知冷静而真的冷静下来过。”
在此之前,OpenAI 曾尝试通过强化同理心表达来作为一种保护措施。公司面临多起诉讼,指控其聊天机器人对部分用户的心理健康产生负面影响,个别案件中甚至涉及自杀等极端情况。在此背景下,模型在对话中加入安抚性语言,被视为公司在安全和责任方面的一种应对方式。
不过,如何在体现同理心与提供快速、事实性回答之间取得平衡,仍是相关产品设计中的一个关键问题。有观点在讨论中提到,与之相比,传统搜索引擎在提供信息时通常不会主动关注用户的情绪状态。
