生成式人工智能加速“认知外包”:思考本身正被交给机器

多年来,人类在不知不觉中将部分认知功能交给技术工具处理。心理学研究中的“谷歌效应”显示,当人们预期信息会长期在线可查时,更倾向于记住“去哪儿找”,而非信息本身,记忆功能由此部分转移给搜索引擎。导航方面,GPS大幅降低了出行不确定性,但相关研究开始指出,过度依赖可能削弱人在需要独立找路时的空间记忆。社交层面,平台算法在很大程度上决定了用户看到什么、何时回应以及如何与他人保持同步,社交协调也被外包给数字系统。

在此基础上,新一代生成式人工智能正推动认知外包进入更深层领域。外包的对象不再只是信息存储、路线规划或日程管理,而是形成判断之前的思考劳动本身。

多项研究提示,这一变化正在重塑人类与技术的关系。微软研究院的研究发现,对生成式人工智能越有信心,个体表现出的批判性思维往往越少。《心理学报》的一项开放获取研究也将更强的人工智能依赖与较低的批判性思维水平联系起来。《自然评论·心理学》在一篇评论中指出,生成式人工智能带来的性能提升不应被误认为是学习本身。

有观点认为,将人工智能视为判断的替代品,而非辅助判断的工具,是一种认知层面的战略性错误。在这种使用方式下,个体并未变得更有能力,而是对系统输出愈发依赖。

认知外包的边界

心理学界通常将“认知外包”定义为:把原本由大脑完成的心理工作转移给外部辅助工具。购物清单、计算器、日历、笔记本和提醒应用都属于这一范畴。从历史看,人类持续发明扩展心智的工具,这一现象本身并不新鲜,也并非必然带来负面后果。

《自然评论·心理学》的一篇综述指出,认知外包可以提升任务表现,但往往伴随权衡。《自然·人类行为》的一篇观点文章则认为,数字技术可能正在改变人类认知,但目前尚无明确证据表明其造成广泛且持久的损害。

多项研究的共同结论是,问题不在于“是否外包”,而在于“外包什么”。

当记忆被外包,个体节省了记忆负担;当导航被外包,出行不确定性降低。但一旦判断被外包,人类就可能削弱自身评估能力,包括判断机器输出是否有用、是否误导、是否存在偏见、是否流于表面、是否具有操控性或是否存在错误。

近期《自然》对记忆与数字工具的研究证据进行回顾时指出,关于数字技术导致认知衰退的最强烈主张往往被夸大,但也强调,某些具体能力确实在发生有意义的变化,例如自信心膨胀和回忆模式改变。生成式人工智能在这一背景下被视为需要严肃对待的新变量。

流畅输出与真实思考的错位

生成式人工智能在文化层面引发不安,不仅因为其功能强大,更因为其语言输出极为流畅。

与计算器、GPS或传统搜索引擎不同,生成式人工智能能够以第一人称、连贯且修辞成熟的方式生成文本,呈现出接近人类表达的语言形式。这种高度流畅的输出容易被误读为“理解”或“推理”的证据。

然而,措辞精炼并不等同于经过深思熟虑的判断。大型语言模型本质上是强大的模式匹配系统,并不具备人类意义上的判断力。哈佛商学院的一篇文章指出,人类经验和判断仍然不可或缺,因为人工智能无法可靠地区分真正优秀的想法与仅仅看似合理的想法,也无法独立承担长期战略的制定。这一观点并非否定人工智能,而是提醒避免将其视为完整替代品。

在实际应用中,一条新的分界线正在形成:不是“使用人工智能”与“不使用人工智能”的区别,而是“将人工智能作为思考伙伴”与“将其作为思考替代品”的区别。前者在技术辅助下增强了能力,后者则可能在依赖中逐步削弱自身判断。

教育体系面临的核心考验

教育领域被视为观察这一文化转变的关键窗口。围绕人工智能在学校和大学中的讨论,往往集中在作弊、抄袭和评估公正等问题上,但多份报告指出,更深层的挑战在于学习本身。

经济合作与发展组织(OECD)在《数字教育展望2026》中明确指出,当学生在缺乏适当教学引导的情况下,将学习任务外包给生成式人工智能时,虽然表现可能在短期内提升,但并不意味着发生了真实的学习。联合国教科文组织在《生成式人工智能在教育和研究中的指导》中也提出类似警示,强调相关系统应被纳入以人为本的框架,而不是被用作绕开认知过程的捷径。

OECD多年来反复强调,创造力和批判性思维是数字社会的核心教育目标,而非附属能力。在这一前提下,多数学生不可避免会使用人工智能工具,教育机构面临的关键问题不再是“是否使用”,而是“在使用过程中,学生是否仍被要求行使判断力”。

有观点指出,如果学生能够在缺乏深入思考的情况下,借助人工智能生成看似合格的作业,那么被评估的将不再是学习成果,而更接近对指令的服从程度。

谁从人工智能中获益更多

在职场和管理研究中,一个悖论正在被反复提及:从人工智能中获益最多的,并非在所有任务上都依赖它的人,而是那些清楚何时不应使用它的人。

相关观点认为,这并非对“手工思考”的浪漫化,而是关于杠杆效应的现实判断。具备扎实领域知识、较强判断力和怀疑精神的个体,可以在不放弃主体性的前提下利用人工智能加速工作。他们更有能力质疑输出、检验假设、比较不同方案,并识别系统何时在掩盖不确定性或虚构确定性。

相反,缺乏这些习惯的人更容易接受第一个看似合理的答案并迅速采纳。

近期管理学著作在这一点上呈现出趋同。《哈佛商业评论》指出,与人工智能有效协作,需要个体以决策者而非被动工具使用者的姿态参与其中。另一篇文章警告,如果人工智能接管了人们通常通过早期混乱工作来培养辨别力的过程,组织可能最终拥有一批能产出结果却缺乏判断力的员工。关于创造力的研究也显示,人工智能更有利于那些具备较强元认知能力的人,而非缺乏此类能力的群体。

在这一意义上,人工智能被视为一个文化议题,而不仅仅是技术议题。社会正在重新协商努力与主体性、便利与能力、表达与理解之间的关系。

设计使用方式,而非简单否定或放任

围绕人工智能的公众讨论中,两种极端看法较为常见:一种认为人工智能会让人类变得愈发迟钝,另一种则认为它只是释放人类去从事更高阶工作。现有研究和政策文件显示,现实情况更为复杂。

在合理设计和使用前提下,人工智能确实有可能减少重复性工作,为更深入的思考留出空间;但如果使用方式鼓励绕开必要的认知过程,则可能削弱支撑深度思考的习惯。

多方观点因此将重点放在“设计”而非“禁用”或“放任”上。有研究和政策建议提出,需要通过教育体系、职场规范和产品设计来保护人类判断力,而不是系统性地绕过它;需要鼓励验证、反思和比较的交互界面,而非仅仅提供让用户被动接受的输出。

在这一框架下,“减少心理努力”不再被自动视为进步。一些被视为“摩擦”的环节,可能正是理解和学习的来源。多份研究和评论指出,当前部分人工智能应用热情主要集中在速度、便利和产量等指标上,而较少追问一个更难量化的问题:这些系统正在塑造怎样的思维方式和认知习惯。

在生成式人工智能快速普及的阶段,多个研究和政策文件提出的核心问题正在趋同:讨论的焦点不再是机器能否像人类一样思考,而是人类是否会因过度依赖机器而逐渐放弃自身的思考方式。相关观点认为,未来的优势可能不在于谁使用人工智能更多,而在于谁更清楚何时不应将思考交给它。


分享:


发表评论

登录后才可评论。 去登录