英国律师协会:现行法律框架足以规范人工智能应用

richlovec 1500_400 (1)
 

英国政府正寻求通过放宽部分监管规则,加快人工智能技术在各行业的应用,但英国律师协会认为,法律职业界并不需要额外豁免,而是需要更清晰地理解现行法律在人工智能时代的适用方式。

政府推动“人工智能增长实验室”

英国科学、创新与技术部(DSIT)近期就拟议中的“人工智能增长实验室”发起征求意见。该跨行业监管沙盒拟通过向企业提供“有时限的监管豁免”,以加速自主技术的部署。

政府方面认为,许多现行监管规定制定于自主软件出现之前,通常以人为决策主体为前提,因而在人工智能广泛应用的背景下显得过时。部长们提出,如果英国在全球竞争中率先放宽相关规则,有望获得“决定性经济优势”,并预计到2030年可为国民产出额外贡献约1400亿英镑。

根据政府的初步分析,法律服务业被视为通过消除“不必要的法律障碍”在未来十年内可释放数十亿英镑价值的重点领域之一。

律师协会:问题在于不确定性而非监管负担

尽管被视为潜在受益行业,法律界并未主动要求监管豁免。英国律师协会在对上述征求意见的正式回应中表示,现有法律与监管框架“足够健全”,阻碍人工智能进一步应用的主要因素并非规则本身,而是围绕规则适用的模糊与不确定。

律师协会指出,目前约有三分之二的律师已经在使用人工智能工具,但对如何在合规前提下更深入整合相关技术仍存在困惑,这被视为进一步采用的主要障碍。

律师协会首席执行官 Ian Jeffery 表示,人工智能创新“对法律行业至关重要,并已具备强劲势头”,而现有法律监管框架“支持行业进步”。他强调,主要挑战并非源自监管负担,而是与人工智能采用相关的不确定性、成本、数据和技能等问题。

责任与数据保护成“灰色地带”

律师协会指出,行业当前面临的关键问题是缺乏一套可操作的路线图,而非需要进行“监管大修”。在责任划分和数据保护方面,律所和企业被形容为处于“灰色地带”。

律师界希望获得更明确的指引,例如:

  • 客户数据在输入人工智能平台前是否必须进行匿名化处理;
  • 数据安全与存储应遵循何种标准化协议;
  • 在使用第三方人工智能工具时,如何满足现有数据保护和保密义务。

当人工智能工具输出错误或有害的法律建议时,责任归属问题尤为突出。目前尚无明确答案表明,相关责任应由个别律师、律所、技术开发者还是保险公司承担。

此外,关于人工智能使用过程中的监督要求也存在不确定性,包括是否每一次人工智能工具的部署都必须由人类律师进行审查和把关。

这些疑问在“保留法律活动”领域尤为敏感,例如出庭代理、产权转让和遗嘱认证等。执业律师希望明确,使用自动化辅助工具是否可能构成对其专业职责的违反。

保障措施与消费者保护仍是焦点

政府方面表示,拟议中的“人工智能增长实验室”将设置“红线”,以保护基本权利和安全,并向公众保证不会以创新为由牺牲核心保障。

然而,律师协会对任何可能以“提速”为理由削弱消费者保护的举措保持谨慎态度。Jeffery 指出,法律行业的技术进步不应使客户或消费者暴露于“无监管风险”之下。他表示,当前适用于法律行业的监管安排体现了议会认为对保护客户和公众“至关重要”的保障措施,这些安排被视为支撑全球对英格兰和威尔士法律体系信任的重要基础。

支持“法律服务沙盒”,前提是维护专业标准

律师协会表示,愿意参与专门面向法律服务的沙盒项目合作,但前提是相关机制用于维护而非绕开既有专业标准。该机构强调,在人工智能快速发展的背景下,维护司法体系的完整性应是首要任务。

Jeffery 表示,律师协会“坚决支持创新”,条件是创新必须与专业诚信保持一致,并在“稳健的监管环境”下运行。他呼吁政府与法律监管机构及相关机构合作,确保在人工智能应用过程中持续遵守行业专业标准,并强调任何涉及法律监管的变更都应纳入议会监督。


分享:


发表评论

登录后才可评论。 去登录