在一次紧迫的采访任务中,一名记者被要求在短时间内完成对一位知名政治家的专访。距离正式采访仅剩数小时,她借助生成式人工智能工具,快速生成了一份包含30个问题的清单,并对结果感到满意。随后,她将这份清单交给编辑审核,希望确认没有遗漏重要内容。
编辑在审阅后几乎对问题清单进行了全面改写,补充了诸多关键问题,包括这位参议员早年的重要经历、其辍学原因,以及与首任竞选经理分道扬镳的背景等。这些新增问题均源自对人物与情境更广泛的理解,以及长期积累的专业判断力。
报道指出,这类基于背景理解和经验判断的能力,正是当前人工智能工具尚难以替代的部分。
据路透社报道,像 ChatGPT 这样的生成式人工智能工具已拥有超过8亿周活跃用户,并逐渐进入大众日常使用场景。与此同时,研究人员提出“人工智能墙”的概念,认为生成式人工智能在协助人们处理非专业领域任务时存在明显边界。这一现象被视为提醒专业人士持续发展关键人类能力的重要信号,其中包括判断力、好奇心以及提出高质量问题的能力。
在由人工智能深度参与的职场环境中,相关观点认为,那些能够提出更好问题的领导者,更有可能做出更优决策,建设更有战斗力的团队,并以更有意义的方式使用人工智能工具。文章从三个方面概括了这类领导实践的特点。
将人工智能任务纳入更大背景
以记者与编辑的案例为例,理解任务所处的更大背景仍被视为人类的核心优势。这不仅涉及对具体任务本身的把握,还包括对任务目的及其在个人或组织整体目标中所处位置的理解。
例如,如果编辑希望这篇专访能够呈现不断变化的政治格局,那么这一宏观目标就会影响每一个问题的语气、方向和深度。相关观点指出,领导者在这方面具有天然优势,可以引导团队围绕更高层级的优先事项来提出问题,而不是对所有可获得的信息一一跟进。
在使用人工智能工具时,这一点尤为重要。由于生成式人工智能可以快速产出大量内容,用户很容易陷入被动执行的模式,连续完成一个又一个任务,却忽视背后的“为什么”。这可能导致大量缺乏价值的“工作垃圾”式输出。
因此,有效的领导者往往会先停下来思考:某个主题或任务应当获得多少关注,而不仅仅是它能多快完成,并据此对团队的工作重心进行引导。
将人工智能输出视为起点
在生成式人工智能应用的早期,“提示工程”一度被视为关键技能。如何设计精准的提示语,被认为直接决定了大型语言模型对话的有效性。

随着 ChatGPT 等工具的功能不断增强、交互方式更加对话化,“提示链”的概念逐渐取代了单一提示工程。所谓提示链,是将一个复杂任务拆解为一系列逻辑连贯、相互衔接的子问题,通常从宽泛问题逐步深入到更细化的问题。
例如,在利用 ChatGPT 进行竞争分析时,提问顺序可能依次为:
- 当前某一行业或产品类别的整体市场格局如何?
- 该市场的主要竞争对手是谁?各自的价值主张、目标客户、定价策略和核心优势有何不同?
- 这些竞争对手的主要优势和劣势分别是什么?
在这一过程中,每一次输出都会为下一步提问提供依据,促使用户不断细化问题。相关观点认为,这种方式仍然需要战略性思考,但不再要求一开始就给出完全准确的提示。
文章指出,有效的领导者通常不会将人工智能的首次输出视为最终答案,而是将其当作对话和思考的起点,在此基础上持续追问和修正。
培养人工智能难以替代的判断力
尽管生成式人工智能被认为具有显著潜力,但现有数据表明,它并未自动为所有专业人士带来同等程度的能力提升。盖洛普的一项调查显示,仅有26%的使用生成式人工智能的员工表示自己的创造力有所提高,这一比例与外界对创新提升的预期存在差距。
相关分析认为,这并非技术可得性的问题,而是使用方式的差异。最新研究指出,人工智能之所以能显著提升部分人的表现,关键在于个体的元认知能力——即规划、评估和调整自身思维过程的能力。
研究人员在《哈佛商业评论》中表示,元认知能力更强的员工,往往能从人工智能工具中获得更大收益。在实际工作中,这意味着用户会在使用人工智能时主动反思自己的思考路径:识别知识空白,将新信息纳入既有认知框架,并在过程中不断调整方法。这与被动浏览信息而不加思考的方式形成对比。
为使领导者和员工最大化利用人工智能工具,文章建议采取更主动的使用态度:不断质疑前提假设,权衡不同方案,与人工智能进行带有批判性的互动,而非简单接受其输出。
以在线表单平台 Jotform 为例,其内部做法是鼓励团队成员不要直接采信人工智能生成的结果,而是刻意扮演“反方”,寻找潜在盲点,并评估每一项输出在更大背景下的适用性。某个方案即便在短期内看似有效,如果与个人或组织的长期目标相冲突,也不会被采纳。
文章认为,通过系统性地培养批判性思维和判断力,领导者不仅能够更充分地发挥人工智能的优势,还可以帮助初级员工在实践中形成自己的判断体系,从而在“人工智能墙”面前获得更大的发展空间。
