佛州校园枪击案引发争议:ChatGPT与OpenAI会被追究刑责吗?

在去年佛罗里达州立大学发生的校园枪击案之前,枪手凤凰·伊克纳曾进行过一段关键对话。

这次对话对象不是朋友、家人,或任何可能劝阻他的人,而是一个人工智能聊天机器人。

根据佛罗里达州总检察长掌握的证据,这名学生曾向ChatGPT咨询:哪种武器和弹药最适合实施袭击,以及在什么时间、什么地点可以造成最大的伤亡。

调查人员表示,聊天机器人对这些问题作出了回应。

如今,佛罗里达州总检察长詹姆斯·乌斯迈尔希望厘清,这是否意味着ChatGPT的开发公司OpenAI本身可能构成犯罪。

“如果屏幕另一端是一个真人,我们会以杀人罪起诉他。”乌斯迈尔在宣布对OpenAI展开刑事调查时表示,并称该公司或其员工可能面临指控。

这起发生在2025年4月的枪击案,造成两人死亡、六人受伤,也由此抛出了一个尖锐的法律问题:当人工智能在犯罪甚至自杀事件中发挥作用时,其开发者是否应承担刑事责任?

法律学者认为,这个问题并非空穴来风,但在实践中极其复杂。

AI算不算“犯罪产品”?

在美国法律框架下,公司实体可以成为刑事被告,尽管此类案件并不常见。

不久前,普渡制药因在阿片类药物危机中的角色,被判处超过50亿美元的刑事罚款和相关处罚;大众汽车因排放作弊丑闻被定罪;辉瑞曾因不当推广抗炎药Bextra遭到起诉;埃克森美孚也因阿拉斯加“埃克森瓦尔迪兹号”漏油事故被追究刑责。

但这些案例都有一个共同点:背后存在明确的人为决策——高管、销售人员或工程师作出的选择和规避规则的行为。

伊克纳案则不同,正是这种差异,使其在法律上格外棘手。

“归根结底,是一种产品在促成并实施了这起犯罪。”犹他大学法学院教授马修·托克森指出,“这正是本案独特而难以处理的地方。”

多位接受法新社采访的法律专家认为,最有可能被考虑的指控类型是“过失”或“鲁莽行为”——后者指明知存在风险或安全义务却故意忽视。

这类指控通常被视为轻罪而非重罪,即便定罪,刑罚也相对较轻。

但要达到定罪标准,门槛非常高。

“因为这是一个前沿问题,更有说服力、证据更充分的案件,往往会涉及内部文件,显示公司承认这些风险却没有给予足够重视。”托克森说。

“理论上,即使没有这些文件也可能追责,”他补充道,“但在现实操作中,这会非常困难。”

杜克大学法学院教授布兰登·加勒特则强调,在刑事案件中,“举证责任更高”,检方必须在排除合理怀疑的前提下证明犯罪成立。

OpenAI方面则坚称,ChatGPT不应为这起袭击事件负责。

“我们持续努力强化安全防护,以识别有害意图、限制滥用,并在出现安全风险时作出适当响应。”该公司表示。

民事责任还是刑事责任?

对于希望追究责任的受害者及其家属而言,民事诉讼可能是更现实的路径。

托克森认为,民事责任机制可以促使企业在产品设计上更加谨慎,或者至少让他们为失误造成的人类代价付出代价。

在美国,针对AI平台的民事案件已经出现多起,多与自杀事件有关,但目前尚无判决明确认定公司承担责任。

去年12月,苏珊·亚当斯的家人在加州法院起诉OpenAI,指控ChatGPT在一起发生于康涅狄格州的谋杀案中发挥了推波助澜的作用——一名退休老人被其儿子杀害。

社交媒体受害者法律中心创始律师马修·伯格曼指出,新版本的ChatGPT已经加入了更多安全防护措施。

“我并不是说这些防护已经足够,但确实可以看到更多安全机制在发挥作用。”他说。

托克森补充,即便刑事定罪对应的法定刑期不长,仍可能对企业造成严重后果,包括“巨大的声誉打击”。

不过,在加勒特看来,再引人注目的起诉,也无法替代一个由立法和监管构建的系统性框架——而这正是国会和特朗普政府迄今尚未建立起来的。

他表示,那样的监管体系才会是“更为合理的解决方案”。

© 2026 法新社


分享:


发表评论

登录后才可评论。 去登录