有用户分享称,通过一条“自我审核”式提示语,可以在不更改设置或额外付费的情况下,让ChatGPT在回答时呈现更谨慎、更严密的推理风格。该做法的关键在于把模型设定为需要对自身输出负责的“研究员”或“审阅者”,在同一轮对话中完成初稿、复核与修订,从而提升答案的清晰度与一致性。
“自我审核”提示的基本流程
据相关描述,这类提示通常要求ChatGPT先给出一个完整回答,随后以独立审阅者的身份对前述内容进行检查,重点寻找逻辑漏洞、前后矛盾、虚构事实或未经依据的细节,并在指出问题后给出修正版本。用户将其概括为两步:先“给出你最好的答案”,再“作为独立审阅者列出错误或薄弱推理,并生成修订后的最终答案”。
在使用者看来,这一结构改变了对话节奏:模型不再停留在第一版输出,而是被要求进行自我校对与重写,使回答更接近“草稿—审稿—定稿”的工作流。
“天才模式”脚本在短视频平台传播
除书面自我审核提示外,短视频平台上也出现了更具标签化的版本。一些创作者在视频中将该状态命名为“天才模式”,并在提示语中明确要求系统以“最高推理水平”作答。
其中,一段视频展示了创作者Jan向其称为“Chad”的聊天机器人实例输入提示,要求其进入“天才模式”并以最高水平推理。后续内容还将类似脚本用于名为“Chad GBT”的机器人,并在屏幕文字中强调“天才模式”这一设定。相关视频的共同点在于:通过明确角色与期望,要求更深入的推理过程,而非快速给出结论式回答。
使用者称“更聪明”的原因在于对话结构变化
分享者表示,这类方法之所以被形容为类似“故障”的技巧,并非模型获得了新能力,而是对话结构发生变化:加入自我批评环节后,模型需要暴露不确定性并主动标记可能的编造内容,从而降低“自信但错误”的输出风险。

同时,给模型贴上“天才模式”等标签,也会影响用户提问方式。使用者称,这会促使自己提出更复杂的问题,并要求模型展示推理过程、说明假设并进行修订,使其更像一名需要交付可核查成果的初级分析人员。
与“反向面试”等结构化提示结合使用
部分用户还将自我审核与其他结构化提示组合使用,例如被称为“反向面试”的做法:在直接回答前,先让模型向用户提出澄清问题,以补足任务背景与约束条件,避免直接给出泛化答案。
在这一组合流程中,模型先通过提问收集信息,再起草方案,随后进入审阅者模式检查方案是否符合已收集的条件,并据此修订。分享者举例称,在策划“2024年丰田卡罗拉在某城市的发布营销活动”时,可先让模型询问目标人群、预算与渠道,再生成计划并进行自我审核,以提升方案的针对性与内部一致性。
日常应用场景:编码、写作与学习规划
使用者表示,其已将上述流程整理为可复用模板,用于多类任务:在编码场景中,先让模型编写函数,再要求其审查边缘情况、性能与安全问题并输出最终版本;在写作场景中,先生成结构,再批评结构逻辑并给出修订稿。
在个人效率方面,用户也会先让模型就学习计划进行“反向面试”,了解日程、基础与目标日期,再通过自我审核检查计划是否现实、主题顺序是否合理,最终形成经过复核的学习路线图。
