企业正在快速引入自主型人工智能——即无需人工实时指挥即可独立运行的系统——但在为这些系统建立配套治理机制方面却进展缓慢。一项最新调查表明,这种“应用快、治理慢”的不匹配,正在成为人工智能落地过程中的主要风险来源。在作者看来,这同时也是一个新的商业机会。
我在德雷克塞尔大学勒鲍商学院教授管理信息系统。学院旗下的应用人工智能与商业分析中心近期对500多名数据专业人士进行了问卷调查。结果显示,41%的组织已经在日常运营中使用自主型人工智能。这些应用并非停留在试点或一次性实验,而是已经嵌入常规业务流程。
与之形成鲜明对比的是,治理建设明显落后。只有27%的组织认为自身的治理框架已经足够成熟,可以有效监控和管理这些自主系统。
在这里,“治理”并不是指外部监管或额外的官僚程序,而是指一套内部政策和实践,用来明确人类如何影响自主系统的运行方式,包括:谁对系统做出的决策负责、如何对系统行为进行检查,以及在什么情况下必须由人类介入。
当自主系统在真实环境中持续运行、且几乎不受人工干预时,这种治理缺位就会变成现实问题。
一个典型案例是旧金山近期的一次停电事故。停电期间,自主驾驶出租车在路口“卡死”,阻挡了紧急车辆通行,也让其他司机无所适从。尽管这些车辆从技术角度看仍在“按设计运行”,但突发情境暴露出系统在极端情况下的局限性,也凸显了治理和应急机制的不足。
这直接引出一个关键问题:当人工智能系统出错或引发混乱时,究竟谁来负责,谁有权、也有能力及时介入?
治理为何如此关键
一旦人工智能系统具备自主决策能力,责任边界就不再像组织原本设想的那样清晰。决策依然在发生,但责任主体却变得难以追溯。
以金融服务为例,越来越多的欺诈检测系统会在毫秒级别自动拦截可疑交易,甚至早于任何人工审核。客户往往只是在刷卡被拒时才意识到系统做出了判断。
如果你的交易被人工智能系统误判并拒绝,该找谁解决?在这种情形下,问题往往不在技术本身——系统可能完全按照设定逻辑运行——而在于问责机制。已有的人机治理研究表明,当组织没有清晰界定人类与自主系统如何协作时,责任划分和介入时机就会变得模糊。
缺乏针对“自主性”专门设计的治理,小问题就可能在系统中悄然累积。监督变得零散、被动,用户和员工对系统的信任逐步削弱,并非因为系统彻底失效,而是因为没人能清楚解释或为系统行为背书。
人类介入往往来得太晚
在不少组织中,从形式上看,人类仍然“在环中”,但介入时间点通常是在自主系统已经完成决策之后。人们往往只在问题暴露时才出场——例如价格异常、交易被标记、客户投诉增多等。
此时,系统的决定已经产生影响,人工审核更多是在“事后纠错”,而不是“事前监督”。

这种滞后的介入虽然可以在个案层面减轻损失,却很难真正厘清责任归属。结果可以被修正,但谁应为最初的决策负责依然不明朗。
最新的相关指导意见指出,当权责划分不清时,人工监督往往变得非正式且不稳定。问题不在于有没有人参与,而在于参与的时机和方式。如果没有在系统设计阶段就嵌入治理机制,人类最多只能充当“安全阀”,而不是对决策真正负责的主体。
治理决定自主系统能走多远
自主型人工智能通常能在早期带来显著收益,尤其是在首次实现某项任务自动化时。我们的调查发现,许多企业确实在初期看到了效率提升等好处。
但随着自主系统的使用范围扩大,组织往往会不断叠加人工审核、审批和例外处理流程,以控制潜在风险。
时间一长,原本简洁的流程被层层加码,决策速度变慢,各种“临时补丁”越来越多,自动化带来的优势被逐步抵消。这并不是技术本身退步,而是因为组织始终无法完全信任这些自主系统。
然而,这种“先快后慢”的轨迹并非不可避免。我们的调查显示,虽然很多公司都从自主人工智能中获得了早期收益,但那些治理体系更完善的组织,更有可能把这些短期收益转化为长期成果,例如持续的效率提升和收入增长。
两类组织的关键差异不在于技术水平或雄心大小,而在于是否提前做好了治理准备。
良好的治理并不会削弱自主性,反而是自主性得以扩展的前提。通过明确决策责任、建立持续监控机制、清晰规定人工介入的条件和流程,组织可以在可控风险下放心扩大自主系统的应用范围。
经济合作与发展组织(OECD)的国际指导文件也强调,问责机制和人工监督应当从人工智能系统设计之初就被纳入,而不是在系统上线后再临时补充。
从这个意义上说,治理不是创新的“刹车”,而是让组织敢于、也有能力在更大范围内部署自主系统的“安全带”。
下一轮优势:比拼的是治理能力
在自主型人工智能快速普及的背景下,企业的下一轮竞争优势不再只是“谁先上马”,而是“谁治理得更好”。
随着自主系统承担的业务责任越来越重,那些在一开始就清晰界定所有权、监督机制和介入规则的组织,更有可能在长期竞争中占据上风。
在这个新的阶段,真正拥有信心的,将是治理能力最强的组织,而不仅仅是最早采用人工智能的那一批。
