美国多地高校教师近期对生成式人工智能快速进入学生作业与学习流程表达担忧。多名教师表示,问题不在于学生接触新技术本身,而在于部分学生将原本应在高等教育阶段形成的关键能力“外包”给自动化工具,可能削弱独立思考与推理训练。
全国调查凸显教师共识
一项全国性调查聚焦生成式人工智能对大学学习方式的影响。调查显示,95%的受访教授认为,这类工具正在推动学生对人工智能产生不健康的依赖。该项目名为《全国调查:大学教师担忧学生过度依赖生成式人工智能导致批判性思维减弱》,关注的核心问题是:当聊天机器人能够在短时间内起草实验报告或历史论文时,学生的推理与论证能力将如何变化。
调查在记录教师不安情绪的同时,也汇总了更具体的课堂观察。受访者普遍提到,生成式人工智能可能削弱学生分析材料、构建论点,以及在缺少自动化“捷径”时坚持解决复杂问题的能力。一些教师称,学生提交的作业在文字表达上看似成熟,但在被要求当面解释思路或论证过程时,理解深度不足。
学习习惯变化:从“先读再写”到“先问机器人”
多名教授在调查中描述,学生处理日常学习任务的方式正在发生变化,范围从阅读作业、问题集到写作与编程。部分学生不再从原始文本或空白页开始,而是先向聊天机器人输入提示,将其作为研究与写作的起点,甚至成为最终输出的主要来源。
调查还显示,这一使用模式并不局限于论文写作,也延伸至头脑风暴、编程任务以及学习计划制定等环节。教师担心,这会削弱学生直接与课程材料“搏斗”的习惯,使其在需要复现、调整或解释作业内容时出现困难。
从批判性思维到“危险依赖”的担忧
受访教师将风险描述为具体的课堂影响:过度依赖生成式人工智能的学生可能跳过列提纲、注释阅读、核查来源等基础步骤。教师认为,长期如此会削弱批判性思维所需的能力,使学生在缺少自动化帮助时,评估论断、识别偏见或将知识迁移到新问题上的能力下降。

一份关于教师态度的全国报告将这种趋势概括为对“危险的自动化未来”的担忧。部分教师表示,学生可以借助聊天机器人生成看似合理的答案,但在研讨课或白板推演中被要求解释推理过程时容易陷入停滞。教师同时指出,依赖可能带来额外风险,包括系统生成内容可能出现伪造来源或遗漏细节,而使用者未必能及时识别。
学术诚信与伦理边界成为焦点
除能力培养问题外,教师也将生成式人工智能与学术诚信风险联系在一起。受访者认为,这类工具降低了提交“看似原创但实际非原创”作品的门槛,表现形式包括由AI生成的论文,以及署名学生但未真正调试的代码等。
在另一项教师意见调查中,同样有95%的教师担心学生会把生成式人工智能作为完成作业的默认方式。多名教师呼吁高校强化人工智能使用的伦理规范与明确指引,界定何时、如何使用ChatGPT或图像生成器等工具,以避免学生将其作为“黑箱助手”处理关键环节,从而模糊合理辅助与替代本人工作的边界。
科技公司加速教育场景落地,教师呼吁谨慎推进
在高校讨论如何应对之际,科技行业正加快将人工智能嵌入教育基础设施。谷歌与微软推出面向课堂的新功能,主打自动化课程规划、个性化练习以及批量生成学生反馈等应用。在英国Bett教育展上,两家公司展示了大规模教育人工智能推广计划,并将相关工具定位为课堂升级的重要组成部分。
不过,调查与教师反馈显示,教育一线对人工智能的态度更为谨慎。教师表示,他们一方面面临将人工智能纳入教学的压力,另一方面担心学生过快把思考过程交由机器完成。埃隆大学与美国大学与学院协会(AAC&U)合作完成的这项研究指出,尽管多数教师对过度依赖表达担忧,但教师群体也尚未完全准备好应对工具快速涌入课堂、教学大纲与评估体系所带来的变化。
