生成式人工智能(GenAI)在高等教育中的应用正从个别尝试走向常态化。学生与教师将聊天机器人用于教学、学习与作业评估的不同环节,也由此引发一个核心问题:当部分认知活动可以被算法增强或模拟时,学校应当评估学生的哪些能力。
研究人员近期对加拿大多所大学与学院的28位教育者开展定性研究,受访者涵盖图书管理员、工程学教授等不同岗位。研究团队表示,相关变化正在推动高等教育进入一个需要重新界定学习与知识评估方式的“分水岭时刻”。
人工智能与学术诚信:双重影响
研究团队在回顾过去15年有关人工智能影响教育作弊的文献后指出,人工智能工具对学校而言具有“双刃剑”效应。
一方面,在线翻译器、文本生成器等工具的写作能力不断提升,使教师更难识别不当代写或作弊行为。与此同时,相关工具可能将虚假信息当作事实呈现,或重复训练数据中存在的社会偏见,包括种族主义与性别歧视等。
另一方面,文献综述也显示,人工智能可作为合规的学习辅助工具,提升学习包容性,例如为残障学生提供支持,或帮助以英语为第二语言的学生。

在研究团队看来,鉴于几乎不可能完全阻止学生接触各类人工智能工具,学校不宜将重点仅放在“抓作弊”上,而应通过更新政策与培训体系,帮助师生在保持学术诚信高标准的同时,学习负责任地使用技术。
受访教育者普遍将自身定位为“学习诚信的守护者”,而非“执法者”。他们关注的重点在于区分“支持学习的辅助”与“替代学习的辅助”,并认为当前评估边界主要集中在提示设计、批判性思维与写作三类技能上。
提示设计:可被纳入评估的能力
多位受访者认为,“提示设计”(即为聊天机器人制定清晰、有目的的指令)是一项可以被评估的技能。受访者表示,有效提示设计要求学生拆解任务、理解概念并进行精准表达;而提示不清晰往往会带来质量较差的输出,反过来促使学生反思自己真正想表达的内容。
不过,受访者强调,提示设计只有在透明使用且建立在学生自身基础知识之上时,才被视为合乎伦理;否则可能演变为对人工智能的过度依赖或不加批判的使用。
批判性思维:以“核验与质疑”作为评估抓手
受访教育者普遍认为,生成式人工智能在支持批判性思维评估方面具有潜力。由于聊天机器人生成的文本可能“听起来合理”,但仍可能包含错误、遗漏或虚构内容,学生需要对其准确性、连贯性与可信度进行判断。

受访者提到,一些教学实践会将人工智能生成的摘要或论点作为材料,要求学生识别其中的薄弱环节或误导性表述。受访者认为,这类训练也与更广泛的教学目标一致,即为学生进入职场做准备——在未来工作中,评估算法生成信息可能成为常规任务。部分教育者表示,不教授学生如何质疑人工智能生成内容并不合适。
写作:争议集中在“生成阶段”
在写作环节,受访者的分歧更为明显。多位教育者将写作过程区分为头脑风暴、编辑与生成三个阶段,并对不同阶段的人工智能使用边界作出区分。
- 在头脑风暴阶段,使用人工智能作为起点被认为可以接受,但前提是学生需要表达自己的想法,而非用机器建议替代自身思考。
- 在编辑阶段,例如语法纠正,只有在学生已完成原创文本且能够判断修改是否恰当时,才被认为可接受。部分受访者认为这有助于支持语言多样性,并为残障学生或以英语为第二语言的学生提供帮助;也有受访者担忧,长期使用可能导致语言表达趋于标准化,学生独特且真实的声音被算法削弱。
- 在生成阶段,即让聊天机器人起草论点或文章,受访者普遍持否定态度,认为写作的生成过程属于独特的人类认知活动,应由学生完成。
受访者同时警告,过度依赖人工智能可能诱使学生绕过写作中“富有成效的挣扎”,而这种过程被认为对培养原创思维具有重要意义。
“后抄袭时代”:重新讨论作者身份与原创性
研究团队提出,随着与生成式人工智能共同写作逐渐进入教学与交流场景,高等教育可能进入一个“后抄袭时代”,从而促使教育界重新审视作者身份与原创性的既有假设。
研究团队强调,这并不意味着教育者不再重视抄袭或学术诚信。相反,在“后抄袭”的语境下,人类与人工智能的共写共创并不必然等同于抄袭,关键在于使用方式是否透明、是否替代了应由学生完成的学习过程。

五项评估设计原则:明确边界与保留学生声音
为在人工智能时代开展有效评估,研究团队基于受访者观点提出五项设计原则,强调需要明确哪些认知过程必须由人类完成,哪些可以进行合规的“认知卸载”。
- 明确期望:教育者需清晰说明在特定作业中生成式人工智能的使用方式与范围,避免因规则模糊导致无意的不当行为及师生关系受损。
- 重视过程胜于结果:通过评估草稿、注释与反思等材料,关注学习过程,而非仅以最终产出作为依据。
- 设计需要人类判断的任务:涉及高层次评估、综合能力与对本地化情境的批判性任务,应保留对学生主动判断的要求。
- 培养评估判断力:教学应帮助学生成为生成式人工智能的批判性使用者,能够识别其局限与偏见。
- 保留学生声音:评估应突出学生“如何知道所知”,而不仅是“知道什么”。
教育机构面临选择
研究团队表示,受访教育者正在寻求兼具伦理与可操作性的方式,将生成式人工智能纳入评估体系,并强调学生需要理解相关工具的能力与局限,尤其是其可能生成错误、过度简化或误导性摘要的倾向。
研究团队认为,高校与学院正面临路径选择:将人工智能视为需要管理的威胁,或将其视为强化评估、诚信与学习的催化剂。受访教育者整体更倾向于后者。
本文内容转载自The Conversation,采用知识共享许可协议。