多年来,人类在不知不觉中将部分认知功能交给外部工具。心理学研究提出的“谷歌效应”显示,当人们预期信息会长期在线可查时,更倾向于记住“在哪能找到信息”,而不是信息本身,记忆功能由此部分转移给搜索引擎。导航方面,GPS的普及让人们减少了自主规划路线的需求,有研究开始指出,过度依赖导航工具可能削弱在必须自行找路时的空间记忆。社交层面,越来越多的协调与沟通被交由平台算法决定,人们看到什么、何时回应、如何保持同步,愈发受制于系统设定。
在此基础上,新一代生成式人工智能被视为推动“认知外包”进入新阶段的关键技术。与以往主要外包记忆、路线规划或日程管理不同,当前的变化被描述为:人们开始将“形成判断”的过程本身交给系统处理。
多篇学术研究对这一趋势提出警示。微软研究院的研究发现,用户对生成式人工智能的信任度越高,其批判性思维投入往往越少。《心理学报》发表的一项开放获取研究也指出,更高程度依赖人工智能与较低水平的批判性思维相关。《自然评论·心理学》的一篇评论文章则强调,生成式人工智能带来的性能提升不应被误认为是学习本身。
有观点指出,当前不少组织在认知层面犯下与商业战略类似的错误:将人工智能视为判断的替代品,而非提升判断的工具。相关论述认为,这种做法不会让个体或机构更有能力,只会让其在关键环节上更加依赖系统。
“认知外包”并非新现象
心理学界将这一现象概括为“认知外包”,即将原本由大脑完成的心理工作转移给外部辅助工具。购物清单、计算器、日历、笔记本和提醒应用等,都被视为典型例子。从这一角度看,人类长期以来一直在制造扩展心智的工具。
《自然评论·心理学》的一篇综述指出,认知外包可以提升任务表现,但同时伴随一定权衡。《自然·人类行为》的一篇观点文章则认为,数字技术可能正在改变人类认知,但目前尚无明确证据表明这种改变会造成广泛而持久的损害。
多项研究的共同结论是,问题不在于“是否外包”,而在于“外包什么”。当人们将信息存储交给工具,可以节省记忆负担;将导航交给系统,可以降低不确定性。但如果连判断本身也交由系统代劳,人类就可能削弱评估工具本身的能力,包括识别其是否有用、是否误导、是否存在偏见、是否流于表面、是否具有操控性或是否存在错误。
近期《自然》对记忆与数字工具的研究证据进行回顾时指出,关于数字技术导致认知全面衰退的说法往往被夸大,但也提示某些能力正在以重要方式发生变化,例如自信程度的膨胀以及记忆提取模式的改变。有分析认为,这些变化与生成式人工智能带来的“能力幻象”密切相关。
流畅输出与真实思考的落差
与计算器、GPS或传统搜索引擎相比,生成式人工智能在语言层面的“流畅性”被视为当前文化不安的重要来源之一。计算器并不声称“理解”算术,GPS也不会宣称“了解”一座城市的感受,搜索引擎通常以链接和片段呈现信息。而生成式人工智能则以高度连贯、接近人类修辞风格的自然语言输出答案,容易让用户将语言的连贯性误认为是推理的严密性。
相关研究指出,措辞精炼的回答并不等同于经过深思熟虑的判断。大型语言模型被描述为强大的“模式引擎”,但并不具备人类意义上的判断力。哈佛商学院近期的一篇文章强调,人类经验和判断仍然关键,因为当前的人工智能系统无法可靠地区分真正优质的想法与仅仅“看起来合理”的想法,也难以独立承担长期战略的制定与调整。
在使用层面,一些观察认为,真正的分化不再是“使用人工智能”与“不使用人工智能”的区别——在许多场景中,使用已成为默认选项——而是“将人工智能作为思考伙伴”与“将其作为思考替代品”的差异。前者在系统辅助下放大自身能力,后者则可能在依赖中逐步削弱自身判断。
教育体系面临的结构性挑战
教育领域被视为观察这一文化转变的关键窗口。学校和大学围绕生成式人工智能的讨论,当前多集中在作弊、抄袭和评估公正等问题上。多份国际报告指出,这些确实是现实挑战,但并非最核心的风险。

经济合作与发展组织(OECD)在《数字教育展望2026》中明确指出,当学生在缺乏适当教学引导的情况下,将学习任务交给生成式人工智能处理时,表面表现可能提升,但并不一定发生真正的学习。联合国教科文组织在《生成式人工智能在教育和研究中的指导》中也提出类似观点,强调相关系统应在“以人为本”的框架下使用,而不应成为绕过认知过程的捷径。OECD多年来反复强调,创造力和批判性思维是数字社会的核心教育目标,而非附属能力。
有分析认为,部分教育机构对人工智能的应对仍停留在监控和防范层面,未充分回应“认知外包已成常态”的现实。如果学生可以在缺乏深入思考的情况下,借助系统生成看似合格的作业,那么被评估的可能不再是学习本身,而是对流程和工具的服从程度。
谁从人工智能中获益更多
围绕人工智能使用效果的讨论中,一个被频繁提及的悖论是:从人工智能中获益最多的,并非在所有环节都依赖系统的人,而是那些清楚“何时不使用它”的人。
相关观点强调,这并非对“纯手工思考”的浪漫化,而是关于“杠杆效应”的现实判断。具备较强判断力、清晰领域知识和稳定怀疑精神的个体,更有可能在使用人工智能时保持主体性:他们会质疑输出、检验假设、比较备选方案,并在系统掩盖不确定性或生成虚构内容时保持警觉。相反,缺乏这些习惯的用户更容易接受第一个看似合理的答案。
近期管理学文献也开始聚焦这一问题。《哈佛商业评论》的一篇文章指出,与人工智能有效协作,需要用户以“决策者”而非“被动工具使用者”的角色参与。另一篇文章警告,如果人工智能替代了人们在早期混乱阶段通过实践积累判断力的过程,组织可能会拥有一批“能产出结果但缺乏判断力”的员工。该刊物引用的创造力研究同样显示,人工智能更有利于具备较强元认知能力的人,而非缺乏此类能力的群体。
在此背景下,人工智能被越来越多地视为一个文化议题,而不仅仅是技术议题。多方讨论指出,社会正在重新协商努力与主体性、便利与能力、表达与理解之间的关系。
设计使用方式而非简单“禁止或放任”
当前公众讨论中,一个常见倾向是在两种极端之间摇摆:一方担心人工智能会让人“变笨”,另一方则认为它只是释放人类去从事更高阶工作。多项研究和政策文件提示,现实情况更为复杂。
在合理设计和使用前提下,人工智能确实可以减少重复性工作,为更深入的思考腾出时间。但如果被用作绕过思考过程的捷径,则可能削弱支撑高质量思考的习惯和能力。
因此,多份报告和研究建议,将重点放在“如何设计使用方式”上,而非简单的“禁止”或“全面放任”。在教育体系、职场规范和产品设计层面,如何保护并激发人类判断力,而不是系统性绕开它,被视为下一阶段的关键议题。一些研究呼吁,界面和流程应鼓励验证、反思和比较,而不是引导用户被动接受单一输出。
相关讨论还指出,并非所有“减少心理努力”的设计都可被视为进步。一定程度的“摩擦”——例如查证、推敲和反复修改——在许多情况下正是理解和学习的来源。
在生成式人工智能快速扩散的背景下,一个被多次提出的问题是:这些系统正在塑造怎样的思维者?有观点认为,当前阶段更值得关注的,不是机器能否“像人一样思考”,而是人类是否会在过度依赖系统的过程中,逐渐放弃“像自己一样思考”的能力。
在这一框架下,一些研究和评论将未来的关键能力概括为:不是“谁使用人工智能更多”,而是“谁更清楚何时不使用它”。