Tumbler Ridge事件后:OpenAI的“安全承诺”指向的不是AI监管,而是用户监控

richlovec 1500_400 (1)
 

在Tumbler Ridge枪击案中,凶手的ChatGPT账户在案发前已被系统标记。相关消息公开两天后,OpenAI首席执行官 Sam Altman 便与加拿大联邦人工智能部长 Evan Solomon 以及不列颠哥伦比亚省省长 David Eby 会面。

Altman 从这两级政府获得了一揽子承诺与合作框架:

  • 由公司直接向加拿大皇家骑警(RCMP)报告威胁信息;
  • 回溯审查此前被标记的账户;
  • 实施所谓“情绪转移协议”;
  • 允许加拿大专家进入 OpenAI 的安全办公室;
  • 与不列颠哥伦比亚省合作,向渥太华提出监管建议。

他还同意向 Tumbler Ridge 社区道歉。案发时年仅 18 岁的 Jesse Van Rootselaar 在当地杀害 8 人、伤及多人后自伤身亡。早在枪击案发生数月前,他的 ChatGPT 账户就因涉及枪支暴力场景而被标记,随后账户被封禁,但这一情况并未通报执法部门。

这些新承诺在姿态上意义重大,却只针对 Tumbler Ridge 事件暴露问题的一小部分。正如此前分析所指出的,关键症结并不只是“没有上报”,而是整体上缺乏治理框架。

从现在的变化来看,OpenAI 仍在做同一类单方面决策,只是承诺今后会更积极地行动,直接把结果交给加拿大皇家骑警。这并未改变架构本身:依旧缺乏外部问责,只是触发链条更快。

“人工干预”的局限

从已知的内部流程看,凶手的账户首先被系统标记,随后由人工审核员查看其与 ChatGPT 的互动内容。有人主张应上报执法部门,另一些人则依据公司内部、对外不透明的标准,决定不报告。问题并非技术执行失误,而是制度安排本身。

“人工干预”常被视为人工智能安全的关键保障之一,但 Tumbler Ridge 事件暴露了这一说法的边界。人工干预能否负责任,取决于其所嵌入的制度环境。如果这一环境是:

  • 没有法律强制报告义务;
  • 没有透明度要求;
  • 没有外部独立监督;

那么所谓人工干预,只是一个更具人性化表情的、依旧不受问责约束的系统环节。

OpenAI 事后宣布已更新相关标准。但问题是:

  • 由谁来更新?
  • 依据什么标准?
  • 接受何种外部审查?

这些仍是公司内部自行决定的事项,公众无从得知,议会也难以介入。

监控替代了监管

更深层、却几乎未被讨论的问题在于:目前提出的“和解方案”并不是在监管人工智能,而是在监管用户。

整个机制——从内部威胁识别、标记,到直接转介加拿大皇家骑警——关注的是人们对 AI 说了什么,而不是 AI 系统本身如何被设计、训练和约束。

真正意义上的人工智能监管应当追问:

  • 模型是否可能通过交互方式,助长或放大有害想法?
  • 系统是如何构建和训练的?
  • 在部署前后接受了哪些测试?
  • 提供服务时应承担哪些法律义务?

当前安排并未触及这些问题,而是搭建了一条从私人 AI 对话直通执法部门的通道,由企业运营,并受其自定的专有政策约束。

这可以被称为“监控替代”:治理真空没有由民主程序下的监管填补,而是由企业对用户的监控来填补。这并不是对 AI 的监管,而是对使用 AI 的人的监管,由 AI 公司执行,警方成为终点。

这一转向对公民自由的影响极大。关于“同情敏感型 AI”系统的研究(包括作者本人关于 AI 如何回应处于脆弱状态用户的工作)一再表明,人们之所以愿意向聊天机器人倾诉痛苦,正是因为他们认为这种互动是私密的、不会被评判。

如果这一空间变成被监控的渠道,一旦“令人担忧”的表述就可能依据不透明的企业标准被转交执法部门,那么最脆弱的用户很可能会选择沉默。对求助行为可能产生的寒蝉效应尚未被系统研究,也没有出现在 Tumbler Ridge 事件后任何公开谈判的议题中。

理性企业,缺位框架

理解 OpenAI 的行为,需要放在现实语境中。公司并非出于恶意,而是在缺乏明确监管框架的前提下,作为一个理性的私营主体,在政治压力下给出成本最低的回应,同时尽量保留运营自主权。

对比美国的情形,这一点更清楚。在美国,AI 公司与政府权力之间的关系正在被强制重塑。五角大楼希望获得移除安全护栏的 AI 模型,用于军事用途。当 Anthropic 抵制时,OpenAI 选择填补这一空缺。在这种格局下,是美国政府提出要求,AI 公司作出配合。

在加拿大,动态则相反:OpenAI 并非被命令,而是主动作出让步,意在通过自愿承诺,预防真正具有约束力、会限制其运营空间的立法出现。对没有即时法律效力的宽泛“规范”表示支持,同时抵制那些会带来实际后果的具体国内义务。这是监管俘获的起点:不是赤裸的腐败,而是“便利性”驱动的结果。

加拿大在此事上其实握有不小的筹码:

  • 罕见的跨党派共识,认为现状必须改变;
  • 高度的公众关注,为 AI 治理赋予了具体的人物和故事;
  • 一个清楚认识到利害关系的省级政府。

但这些筹码正在被消耗。如果联邦政府把 OpenAI 的承诺视为“足够回应”,就等于将企业自我监管固化为默认基线。未来的公司会以此为先例,真正立法的窗口将随之收窄。

持久治理需要什么

Tumbler Ridge 事件所呼唤的,不是更高效的用户监控,而是针对系统本身的监管架构。

这意味着:

  • 通过有约束力的立法,设定清晰的法律门槛,规定 AI 公司在何种情形下必须将被标记的互动转交当局;
  • 这些门槛应由议会界定,并由心理健康专家、隐私专家和执法部门共同参与制定,而不是简单沿用企业服务条款中的模糊标准。

这也意味着建立独立的分诊机构,由具备专业能力的人来评估被标记的互动,区分“想法”与“意图”,并对公共法律负责,而不是对企业责任负责。

同时,还需要将问责重心前移到模型层面:

  • 模型在设计时如何应对暴力思想的升级性披露?
  • 需要满足哪些测试和评估义务?
  • 应接受怎样的审计和复查?

这些问题在当前的政治谈判中几乎缺席,而它们的缺席恰恰界定了现有承诺的边界。

Tumbler Ridge 事件之后,OpenAI 的承诺应被视为对话的起点,而不是终点。加拿大手中仍有不错的牌可打,关键在于:是主动利用这些筹码,推动真正的监管框架成形,还是在桌子尚未搭好之前,就让企业一方先行制定规则。

(本文根据 The Conversation 文章整理与重写,原文采用知识共享许可协议。)


分享:


发表评论

登录后才可评论。 去登录