OpenAI承诺加强安全措施:在加拿大枪击案后重新审视警方通报标准

richlovec 1500_400 (1)
 

画像の出典:Geminiにより ledge.ai が生成

2026年2月26日,OpenAI在一封致加拿大政府的正式信函中表示,将重新审视并强化其向执法机构通报的标准。当系统检测到可能与重大犯罪相关的严重政策违规行为时,OpenAI今后将更积极地考虑向警方报告。此举与不久前发生在加拿大不列颠哥伦比亚省坦布ラーリッジ(Tumbler Ridge)的枪击事件直接相关。

这起枪击案被认为是加拿大历史上最严重的枪击事件之一。事后调查显示,嫌疑人在案发前曾使用过ChatGPT,这也引发了外界对AI服务安全机制和风险预警能力的广泛关注。

嫌疑人曾因暴力相关违规被封禁

根据OpenAI发给加拿大人工智能与数字创新部长埃文·所罗门(Evan Solomon)的信函内容,嫌疑人在案发前一段时间内使用过ChatGPT账号。OpenAI方面在2025年6月就已以“与暴力行为相关的政策违规”为由,暂停了该账号的使用。

不过,当时OpenAI在审查相关对话记录后认为,其中尚不足以构成“可信且迫在眉睫的暴力计划”(credible and imminent planning)的证据,因此并未将该账号或相关信息通报警方。

事后反思:若按现行标准或已通报警方

OpenAI在信中坦言,如果将目前已经强化后的安全与通报流程回溯应用到当时的情形,那么该账号“很可能”会被作为潜在重大风险对象,移交给执法机构进一步评估。

在此次事件之后,OpenAI向加拿大政府承诺,将在以下几个方面加强安全措施:

  • 进一步强化向执法机构通报的内部流程和判断标准
  • 与加拿大警方建立直接、稳定的联络渠道
  • 在危机干预和风险“降级”(de-escalation)方面,结合当地社会与治安状况提供支持
  • 提升对被封禁用户尝试重新注册、绕过限制行为的识别与拦截能力

OpenAI还表示,在事件后续调查中发现,嫌疑人曾使用另一组ChatGPT账号。相关信息目前已经与执法机构共享,用于配合警方的进一步侦办工作。

AI服务如何应对犯罪风险成监管焦点

这起案件与OpenAI的应对,使得“AI服务在发现潜在犯罪风险时应承担何种责任”再度成为公共讨论的焦点。过去,平台在发现用户违反使用条款时,通常以封禁账号、限制访问等内部措施为主;而此次OpenAI调整后的做法,则更明确地将“在出现重大犯罪风险时,主动联系执法机构”纳入可能的应对选项。

加拿大政府在枪击事件后与OpenAI多次沟通,要求其加强安全与风控机制。多家媒体报道指出,加拿大方面正在评估是否有必要从法律与制度层面,进一步明确AI服务在发现危险使用行为时的监测、记录与通报义务。

OpenAI在信中重申,将继续与政府、社区以及相关领域专家合作,持续改进安全策略和技术手段,在保障用户隐私与权利的前提下,尽可能降低AI被用于实施暴力或其他严重犯罪的风险。


分享:


发表评论

登录后才可评论。 去登录