问答:人工智能出错时,责任该由谁承担?

人工智能出错时会发生什么?从自动驾驶汽车到医疗工具,人工智能技术的迅速扩张,正在引发一系列全新的伦理与法律难题。

弗吉尼亚大学教授大卫·丹克斯在这一议题上有着独特的观察视角。他于今年一月加入弗吉尼亚大学,同时任职于哲学系和数据科学学院。我们就近期人工智能的热潮以及随之而来的责任与伦理挑战,对他进行了专访。

当人工智能犯下严重错误时,责任应该由谁来承担?

答:我们现在其实面临两种截然不同的未来。

一种未来是,我们根本没有真正解决责任问题,而是反复强调:“最终必须有一个人类来负责。”

现实中已经出现了一些迹象。例如,在医疗影像领域,放射科医生被要求在每一份由人工智能生成的诊断结果上签字,但他们往往没有足够时间去认真审查或质疑这些结果。

结果就是,他们形式上对诊断“负责”,却并未真正参与诊断过程本身。一旦出错,责任全部落在人类身上。这样看似解决了责任归属,却只是把人类变成了人工智能系统的长期“替罪羊”。

该如何更合理地处理人工智能系统的责任问题?

答:另一种更可取的未来,是我们严肃对待责任与赔偿机制,承认开发和部署这些系统的公司与机构,在系统失败或出错时应承担一定比例的责任。

几乎所有国家都已经建立了相对成熟的产品责任法律体系,其中一个可行路径,就是将人工智能系统纳入现有的产品责任框架来处理。

如果像 OpenAI 这样的公司不愿直接承担某些责任,他们可以通过合同条款加以说明,并与合作方或客户协商由谁来承担哪些风险。这在合同法中是非常常见的做法。

不过,仅仅讨论“谁负责”还不够。因为我们越来越多地看到,人工智能系统会在没有人类直接指令的情况下,以出人意料、甚至前所未见的方式做出决策和行动,这对传统责任划分提出了新的挑战。

你认为责任争议最先会在哪些领域集中爆发?

答:我认为最早、或者最有可能集中出现责任争议的领域,包括家庭和消费级机器人、自动驾驶汽车、各类软件以及智能汽车系统等。

想象一下,你买了一辆自动驾驶汽车。有一天车辆在你不在车内的情况下发生了事故,那么责任该如何划分?

是由你作为车主承担?还是由提供自动驾驶系统的公司负责?抑或是我们会要求车主在常规车险之外,再额外购买“自动驾驶保险”,以便在事故发生时获得赔付?

这些问题很可能会在未来五到十年内被迫得到某种制度化的答案。

就像我们允许公司在法律上拥有“法人资格”一样,也许未来算法和系统本身也需要某种形式的法律主体地位,以便它们可以购买保险。

一旦系统出错,就由保险公司进行赔付;或者这些系统本身可以被视为拥有可被追索或没收的资产,用于在人工智能造成损害时进行赔偿。

随着系统能力不断增强,如何确保这些工具真正造福人类?

答:我们在集体层面能迈出的最大一步,就是先弄清楚:我们究竟希望这些技术实现什么目标。

当前围绕人工智能的宣传和炒作,几乎一边倒地强调它将如何“改变一切”,企业也在不断描绘极其乐观的未来图景。但与此同时,公众对其中潜在风险的理解却非常有限。

在这种情况下,我们实际上是在“摸黑前行”,一步步走向一个几乎没人真正认真思考、也没人明确期望的未来。

在科技公司激烈竞争的背景下,还能负责任地部署人工智能吗?

答:我认为是可以的,而且不必以公司破产为代价。

从长期看,晚期才发现问题、再去补救的成本,往往远远高于在早期就进行审慎设计和风险控制的投入。

大多数所谓“负责任的人工智能实践”,包括我自己倡导的那些,归根结底都指向一个核心:要非常清楚你为什么要构建这个系统,它要解决什么问题,而不是为了“跟风”或“抢跑”而开发。

在我看来,很多关于“竞赛压力”的叙事,其实是公司自己塑造出来的,并不完全源自真实的经济必然性。

在技术环境快速变化的当下,你对普通人有什么建议?

答:也许个人能做的最重要的一件事,就是主动去了解和学习,而不是被动接受。

现在太多人在使用各种技术工具时,并没有认真思考“为什么要用”“对自己是否真的有帮助”。

我们更应该问自己:在这个具体情境下,人工智能是否真的对我有用?如果答案是否定的,那就不必为了“新潮”而使用它;只有在它确实能带来价值时,再考虑将其纳入自己的日常生活或工作流程。


分享:


发表评论

登录后才可评论。 去登录