Gowling WLG 为 Business Reporter 客户
本文由 Business Reporter 制作并独立负责内容
人工智能(AI)正快速重塑商业运作方式,为企业带来效率提升、业务创新和竞争优势。但在技术被大规模嵌入核心业务职能的同时,围绕治理、合规和责任归属的一系列新问题正在浮现。Gowling WLG 指出,在监管框架仍不完善的背景下,AI失当使用有可能演变为下一轮重大公司治理丑闻和诉讼源头。
治理风险加速显现
与传统信息技术不同,AI系统具有一定自主性且决策过程往往不透明,这使其在应用于关键业务流程时,可能引发声誉受损、监管调查以及股东诉讼等风险。仅依赖书面政策已难以应对,企业需要在实际运营中主动管理AI带来的伦理和操作挑战。
据介绍,英国政府已明确期望组织采纳“负责任的AI”原则,包括安全性、透明度、公平性、问责和补救机制等。随着AI越来越多地参与影响员工、客户及更广泛社会的决策,企业管理层被要求不仅满足合规要求,还需审视自身AI实践是否与对利益相关者的价值承诺相一致,并关注自动化决策对社会的潜在影响。
董事受托责任范围延伸至AI
Gowling WLG 指出,董事的法律和伦理职责如今已明确延伸至AI相关监管领域。董事会需要审查的内容包括模型风险、可解释性、数据来源合规性以及问责安排等。一旦在这些环节出现疏漏,可能在现实世界中造成歧视性结果或经济损失。
随着AI技术渗透人力资源、采购等多个职能部门,企业的治理机制被要求更加稳健,并以高于以往技术周期的频率进行更新。围绕责任归属的问题也愈发突出:当AI系统对利益相关方造成损害时,责任应由开发者、董事会还是系统运营方承担,成为企业必须正面应对的议题。
董事个人责任风险上升
在法律环境不断演变的背景下,董事是否可能因算法造成的伤害而承担类似财务管理不善或部分GDPR违规那样的个人责任,正受到关注。Gowling WLG 认为,即便在缺乏专门新立法的情况下,如果AI驱动的决策导致重新识别、歧视、疏忽或其他形式的损害,董事仍可能面临责任追究。
随着监管机构和法院开始处理与AI失败相关的案件,个人责任风险被认为是真实且不断上升的。一些传统的董事及高管责任保险(D&O)保单已开始引入AI相关风险的除外条款,使董事在面对潜在索赔时的风险敞口有所扩大。
多学科参与的治理架构
Gowling WLG 强调,有效的AI治理不能被视为单一技术问题,也不能仅由IT部门独立承担。相反,AI治理需要覆盖IT、网络安全、人力资源、数据采集与使用、企业公关与市场、法律、采购和运营等多个职能,并对各方责任进行清晰划分。
这种多学科治理模式对组织提出更高要求:企业需要组建具备多元技能的团队,并确保持续学习机制到位。鉴于AI技术迭代速度极快,既有的风险缓解措施可能很快失效,跨职能协作被视为维持治理有效性的关键。
透明度与信任的动态平衡
在AI应用领域,透明度标准并非一成不变。不同国家、文化和人群对“适当披露”的理解存在差异,企业在标注AI生成内容、解释AI驱动决策时,需要不断调整做法以回应利益相关方的期望变化。
对于跨国企业而言,这通常意味着在多个司法辖区中对标最严格的监管标准,以维持合规和跨境信任。目前,欧盟相关规则在许多情况下被视为高标杆。但Gowling WLG 指出,文化差异往往更难识别和协调,这也增加了全球治理的复杂度。
诉讼案例带来的警示
在知识产权方面,围绕训练数据和AI输出的侵权风险被认为真实且不断上升。近期案件如 Getty Images 诉 Stability AI 一案,凸显了在未取得适当许可的情况下使用受保护内容的法律风险。同时,英国正在进行的相关咨询也显示,在鼓励创新与保护权利之间取得平衡的复杂性。

对于开发AI的企业而言,如何在相关司法辖区获得适当的知识产权保护,以维护自身研发成果,同样是治理重点之一。Gowling WLG 指出,董事需要制定清晰的政策和控制措施,以保护组织权利并避免代价高昂的跨境纠纷,尤其是在AI部署和知识产权规则均具有全球属性的背景下。
声誉管理与成本节约的权衡
AI被视为帮助企业降低成本的工具,但相关声誉风险不容忽视。例如,零售商若以AI生成的模特图片替代真人拍摄,虽然可能节约费用,却可能遭到客户以及代表演员的工会和协会的反对,认为此举缺乏真实感或不符合伦理期待。
类似地,在市场营销和广告中使用深度伪造或AI生成演员,也可能引发公众质疑并削弱品牌信任。Gowling WLG 提醒,企业在追求短期成本节约时,需要同时评估潜在的长期声誉影响。
AI时代的能力建设
有效的AI治理不仅是制度问题,也涉及能力建设。Gowling WLG 指出,董事会和运营层需要具备一定程度的AI素养,能够提出关键问题、识别主要风险并据此作出决策。
与此同时,组织内部需要培养兼具技术、伦理、法律和运营背景的复合型团队。建立共享术语和持续学习的文化被视为必要条件,否则不同部门之间可能因理解偏差导致决策不一致,从而增加整体风险。
从历史案例中汲取教训
历史经验显示,多起系统性丑闻往往源于风险管理失效,无论是金融危机、数据泄露还是产品召回。Gowling WLG 认为,AI具有类似特征:系统复杂、演进迅速且治理难度较高。
荷兰儿童福利丑闻被视为典型案例之一:相关AI工具在识别欺诈时出现严重错误,导致数千个家庭遭受重大不利后果,显示出技术失误可能带来的社会伤害规模。此外,某大型会计师事务所在向澳大利亚政府提交的官方报告中使用AI生成内容并出现错误,最终选择退款,也反映出专业声誉在AI应用中的脆弱性。
在此背景下,Gowling WLG 建议企业对AI系统进行极端情景压力测试,并从既有失败案例中总结经验,以强化自身治理框架。
对商业领导者的主要提示
Gowling WLG 将当前形势下与AI相关的董事会要点概括为:
- AI监管已成为董事会层面的紧迫议题,相关风险重大且变化迅速;
- 董事的法律和伦理职责已涵盖AI应用,需保持积极和警觉;
- ESG议题延伸至AI,包括企业如何应对AI带来的环境影响;
- 多学科治理架构不可或缺,跨职能协作是关键;
- 透明度和合规性至关重要,通常需对标最高监管标准;
- 知识产权与声誉风险真实存在,相关保障措施和内部政策需足够稳固;
- 持续学习和能力提升是必要条件,以适应技术与监管的持续变化;
- 保护AI创新投入同样重要,需审查并更新知识产权政策以确保适用性。
主动治理成为关键路径
在Gowling WLG 看来,对企业领导层而言,当前信息相对明确:主动推进AI治理已成为必要举措。通过建立稳健的治理框架、定期开展风险评估并在需要时寻求法律意见,企业可在一定程度上降低相关风险并保护既有投资。
该机构指出,在AI快速重塑董事会议程的过程中,最大的风险之一可能是未能及时提出关键问题。未来的公司治理实践,除了遵守监管要求外,还将取决于企业是否具备以洞察力、诚信和前瞻性来引导AI应用的能力。
如需就治理和风险管理获取定制化建议与支持,可联系 Gowling WLG 的 AI 团队。
署名:Gowling WLG 合伙人 Alexandra Brodie、Jocelyn Paulley、Patrick Arben 及法律总监 Dan Smith。
