在去年佛罗里达州立大学发生的校园枪击案之前,枪手凤凰·伊克纳曾进行过一段关键对话。
这次对话对象不是朋友、家人,或任何可能劝阻他的人,而是一个人工智能聊天机器人。
根据佛罗里达州总检察长掌握的证据,这名学生曾向ChatGPT咨询:哪种武器和弹药最适合实施袭击,以及在什么时间、什么地点可以造成最大的伤亡。
调查人员表示,聊天机器人对这些问题作出了回应。
如今,佛罗里达州总检察长詹姆斯·乌斯迈尔希望厘清,这是否意味着ChatGPT的开发公司OpenAI本身可能构成犯罪。
“如果屏幕另一端是一个真人,我们会以杀人罪起诉他。”乌斯迈尔在宣布对OpenAI展开刑事调查时表示,并称该公司或其员工可能面临指控。
这起发生在2025年4月的枪击案,造成两人死亡、六人受伤,也由此抛出了一个尖锐的法律问题:当人工智能在犯罪甚至自杀事件中发挥作用时,其开发者是否应承担刑事责任?
法律学者认为,这个问题并非空穴来风,但在实践中极其复杂。
AI算不算“犯罪产品”?
在美国法律框架下,公司实体可以成为刑事被告,尽管此类案件并不常见。
不久前,普渡制药因在阿片类药物危机中的角色,被判处超过50亿美元的刑事罚款和相关处罚;大众汽车因排放作弊丑闻被定罪;辉瑞曾因不当推广抗炎药Bextra遭到起诉;埃克森美孚也因阿拉斯加“埃克森瓦尔迪兹号”漏油事故被追究刑责。

但这些案例都有一个共同点:背后存在明确的人为决策——高管、销售人员或工程师作出的选择和规避规则的行为。
伊克纳案则不同,正是这种差异,使其在法律上格外棘手。
“归根结底,是一种产品在促成并实施了这起犯罪。”犹他大学法学院教授马修·托克森指出,“这正是本案独特而难以处理的地方。”
多位接受法新社采访的法律专家认为,最有可能被考虑的指控类型是“过失”或“鲁莽行为”——后者指明知存在风险或安全义务却故意忽视。
这类指控通常被视为轻罪而非重罪,即便定罪,刑罚也相对较轻。
但要达到定罪标准,门槛非常高。
“因为这是一个前沿问题,更有说服力、证据更充分的案件,往往会涉及内部文件,显示公司承认这些风险却没有给予足够重视。”托克森说。
“理论上,即使没有这些文件也可能追责,”他补充道,“但在现实操作中,这会非常困难。”
杜克大学法学院教授布兰登·加勒特则强调,在刑事案件中,“举证责任更高”,检方必须在排除合理怀疑的前提下证明犯罪成立。
OpenAI方面则坚称,ChatGPT不应为这起袭击事件负责。

“我们持续努力强化安全防护,以识别有害意图、限制滥用,并在出现安全风险时作出适当响应。”该公司表示。
民事责任还是刑事责任?
对于希望追究责任的受害者及其家属而言,民事诉讼可能是更现实的路径。
托克森认为,民事责任机制可以促使企业在产品设计上更加谨慎,或者至少让他们为失误造成的人类代价付出代价。
在美国,针对AI平台的民事案件已经出现多起,多与自杀事件有关,但目前尚无判决明确认定公司承担责任。
去年12月,苏珊·亚当斯的家人在加州法院起诉OpenAI,指控ChatGPT在一起发生于康涅狄格州的谋杀案中发挥了推波助澜的作用——一名退休老人被其儿子杀害。
社交媒体受害者法律中心创始律师马修·伯格曼指出,新版本的ChatGPT已经加入了更多安全防护措施。
“我并不是说这些防护已经足够,但确实可以看到更多安全机制在发挥作用。”他说。
托克森补充,即便刑事定罪对应的法定刑期不长,仍可能对企业造成严重后果,包括“巨大的声誉打击”。
不过,在加勒特看来,再引人注目的起诉,也无法替代一个由立法和监管构建的系统性框架——而这正是国会和特朗普政府迄今尚未建立起来的。
他表示,那样的监管体系才会是“更为合理的解决方案”。
© 2026 法新社