在美国特殊教育体系中,资金紧张与专业人员短缺已持续多年。许多学区难以招聘到足够且愿意长期从事相关工作的专业人员,在此背景下,一些教育机构开始尝试引入人工智能工具,以填补服务缺口并压缩人力成本。
根据《残疾人教育法》(Individuals with Disabilities Education Act),美国有超过700万名儿童享有联邦资助下的特殊教育权益保障。该法要求学校为学生提供针对其身体和心理状况量身定制的教学安排,并为家庭参与协商和监督支持服务提供法律程序。参与特殊教育服务的专业人员包括康复专家、言语语言病理学家以及课堂助教等,但相关岗位长期供不应求。
一名专攻人工智能应用的特殊教育副教授表示,人工智能在减轻行政负担、提供专家级参考意见以及帮助从业者管理工作量方面具有潜在价值,但同时也伴随明显的伦理和实践风险,包括算法偏见、隐私保护以及对自动化系统的信任问题。这些技术还可能放大特殊教育服务交付中原有的结构性问题。
个别教育计划生成提速 但个性化程度存疑
人工智能已开始被用于特殊教育规划、人员培训和评估等环节。其中,个别教育计划(IEP)是关键工具,用于界定学生应获得的服务类型。IEP依托多种评估结果和数据,描述学生优势、界定需求并设定可量化的教育目标,整个流程高度依赖受过专业训练的人员参与。
由于专业人手不足,不少学区在完成评估、更新IEP以及充分纳入家长意见方面面临困难。现有软件多采用固定选项和模板,导致计划内容趋于标准化,难以完全反映学生的个别差异。
初步研究显示,大型语言模型(如ChatGPT)能够在整合学生及家庭多源数据的基础上,较为熟练地生成包括IEP在内的关键特殊教育文件。一些观察认为,能够快速生成IEP的聊天机器人有望帮助从业者更及时地回应学生及家庭的具体需求。部分特殊教育专业组织也已鼓励教育工作者在编写教学计划等文书时尝试使用人工智能工具。
支持培训与评估 应用场景逐步扩展
在专业培训方面,研究人员正在尝试将多种人工智能应用与虚拟现实技术结合,用于模拟教学情境,使从业者在与儿童直接接触前进行流程练习。相关研究认为,这类系统可作为现有培训模式的延伸,在人力有限的情况下提供可重复的练习机会和结构化支持。
在评估环节,一些学区已开始引入人工智能系统,用于辅助学术、认知及医学等方面的测评。结合自动语音识别和自然语言处理的应用,已被用于计算机辅助的口语阅读评估,对学生阅读能力进行评分。
面对学校积累的大量数据,从业者往往难以及时梳理和解读。人工智能驱动的机器学习工具被用于识别其中不易被教育者直接察觉的模式,以辅助评估和教学决策。研究指出,这类工具在自闭症、学习障碍等残疾类型的识别中尤为受到关注,因为相关状况常因掩饰行为、表现波动及信息不完整而难以判断。有研究显示,现阶段的人工智能系统已经能够基于部分学区现有的数据做出一定程度的预测。
隐私、合规与信任成主要隐忧
在人工智能介入特殊教育服务的同时,隐私保护、算法偏见以及家庭信任等问题日益凸显。相关风险还涉及这些系统能否真正满足现行法律对评估和服务的合规要求。
《残疾人教育法》要求采用非歧视性方法评估残疾,以避免对学生进行不当识别或遗漏应获服务的对象。《家庭教育权利和隐私法》(FERPA)则明确规定了学生数据隐私保护以及家长访问和控制子女教育记录的权利。

在此框架下,若人工智能系统基于存在偏见的数据或方法向儿童提出建议,或在处理学生数据时发生误用或泄露,均可能引发合规和信任危机。使用人工智能工具意味着家庭不仅需要信任学区及其特殊教育团队,还需对多为商业机构开发、内部机制不透明的系统建立信任。
研究者指出,这些伦理问题并非特殊教育领域独有,其他早期采用人工智能的行业也曾面临类似挑战。例如,自动语音识别系统曾长期难以准确识别带口音的英语,部分供应商随后通过针对特定族裔和地区口音进行训练来改善表现。
不过,持续研究表明,一些自动语音识别系统在处理与残疾相关的语音特征、应对课堂环境噪音以及区分不同说话人方面仍存在局限。尽管未来技术升级可能缓解这些问题,但目前仍对评估结果产生实际影响。
模型偏见或延续既有不平等
从表面看,基于机器学习的模型似乎优于传统的临床判断。但由于人工智能必须依托既有数据进行训练,其输出可能延续甚至固化长期存在的残疾识别偏见。
研究显示,人工智能系统常受训练数据和系统设计中偏见的影响,既可能复制既有不平等,也可能因未能捕捉面对面评估中的细微信息,或因某些群体特征在训练数据中过度代表,而引入新的偏差。
有观点认为,联邦法律中已嵌入的程序性保障在一定程度上可对冲相关风险。家庭在同意评估和服务安排方面拥有较大裁量空间,若充分了解流程,也可以在IEP制定过程中提出替代方案。
在文书生成方面,使用人工智能工具制作IEP或教学计划,似乎优于内容粗糙或不完整的方案。但真正实现个性化往往需要将受法律保护的学生数据输入大型语言模型,这可能与隐私法规产生冲突。同时,即便人工智能能够快速生成格式更规范、表述更完整的文件,也并不必然意味着学生实际获得的服务质量同步提升。
能否达到法律要求标准仍无定论
目前,尚无充分证据表明人工智能能够在特殊教育领域提供与传统服务相当、并符合联邦法律要求的照护标准。
2017年,美国最高法院否定了《残疾人教育法》仅保障学生取得“最低限度”进步的解读,这在一定程度上削弱了将人工智能视为满足最低服务标准工具的逻辑基础。在缺乏大规模实证评估的情况下,人工智能尚未被证明可以超越现有体系中的不足。
尽管如此,资源有限的现实并未改变。在法律要求与系统实际供给之间存在缺口的情况下,一些学区已开始在不同程度上依赖人工智能工具来弥补差距,其长期效果和合规性仍有待进一步观察和研究。
文中观点来自爱荷华大学特殊教育副教授赛斯·金(Seth King)的研究与观察。原文发表于《对话》(The Conversation)网站。
