牛津大学一名研究人员近期发现,多所高校在使用ChatGPT Edu时,师生在该平台上的部分研究与学习活动元数据,可能在校内被大范围访问。
据介绍,相关问题出现在ChatGPT Edu中的 Codex 云环境。该环境会显示用户在校内绑定至其 ChatGPT Edu 账户的 GitHub 仓库信息,其中包括公共和私有仓库的名称及部分元数据。这些信息在同一机构内部具有一定可见性。
目前没有迹象表明私有代码内容或仓库内部数据被未授权人员访问。但研究人员指出,即便仅为元数据,仍可据此推断出用户的具体活动。
发现问题的牛津大学副教授 Luc Rocher 表示,校内“任何人,或者至少是大量人——包括我自己——都能看到许多使用 ChatGPT 进行的项目”。他称,已通过负责任披露程序向牛津大学和 OpenAI 报告此事,但对双方回应并不满意,随后向《Fast Company》披露相关情况。
Rocher 称,除项目名称外,他还能看到用户在某一项目上与 ChatGPT 互动的次数以及对话开始时间。通过这些元数据,他推断出一名牛津学生正在使用 OpenAI 工具撰写一篇投稿文章,该学生在 Rocher 与其联系后予以确认。
另一名牛津大学研究人员在匿名接受《Fast Company》采访时表示,能够访问彼此行为数据的人员范围“相当令人担忧”。该研究人员同时指出,这次暴露“仅限内部”,虽然范围较广,但信息深度有限,并推测这可能是数据保护团队反应不如面对公众事件迅速的原因。不过,该研究人员认为机构的反应“天真”,并强调“研究人员有理由拥有私有仓库”。
这一情况与《Fast Company》此前报道的另一问题相似。当时,标准版 ChatGPT 用户并未被明确告知,共享对话可能被搜索引擎索引。报道指出,OpenAI 起初否认相关问题,随后在舆论压力下移除了该功能。

Rocher 将此次情况归因于“糟糕的默认设置”,认为用户在选择共享内容时,并未得到即时且醒目的提示。
OpenAI 发言人向《Fast Company》回应称,用户“完全控制其环境的共享方式”。发言人表示,仓库名称仅在“工作区所有者选择的情况下”对同一组织成员可见,仓库内容本身保持安全。该发言人补充称,公司已就此问题直接与客户沟通,并“始终欢迎他们的反馈”。
牛津大学拒绝就此事公开置评。《Fast Company》报道称,Rocher 还发现,包括中东至少一所大学在内的其他高校也受到类似影响。Rocher 表示,他认为“这是大学需要了解的事情”。
多名专家认为,此事反映出人工智能产品在部署过程中的更广泛矛盾。
伦敦大学学院技术法律与政策教授 Michael Veale 指出,目前尚不清楚 OpenAI 默认暴露的数据范围有多大,但可以看到,这类系统的集成方式,使得公司和机构内部可见的信息量较以往显著增加。他表示,这属于 AI 工具集成的更广泛趋势之一,在设计时并未充分考虑这些工具如何改变信息可见范围,以及用户理解系统后台数据流动的难度。“AI 系统查询外部服务的速度远超人类。”
Veale 认为,这种 AI 能力与人类监督能力之间的不匹配带来了风险。他表示,即便在最佳情况下,人类也难以完全掌握信息流向,而当信息处理速度和普及程度进一步提升时,只会加剧不透明性,并增加遭受泄露和攻击的脆弱性。