韩国“全球首创”人工智能法律生效:初创企业称合规压力大,民间团体指保护不足

richlovec 1500_400 (1)
 

韩国正式启动人工智能监管框架。《人工智能基础法》上周四生效之际,全球对人工智能生成媒体与自动化决策的担忧升温,各国政府正试图跟上技术快速演进的步伐。该法被外界称为全球最全面的人工智能法规之一,也被韩国政府视为推动其跻身继美国、中国之后全球三大人工智能强国的重要举措。

新法核心内容之一是对人工智能生成内容的标识要求。根据规定,提供人工智能服务的企业需对明显为人工生成的输出(如卡通或艺术作品)添加隐形数字水印;对逼真的深度伪造视频,则需加注可见标签。

在应用监管方面,法律引入“高影响力人工智能”概念,涵盖用于医疗诊断、招聘以及贷款审批等场景的系统。相关运营者需开展风险评估,并对决策过程进行记录。法律同时规定,若最终决策由人类作出,该系统可能不被归入“高影响力人工智能”范围。

对于“极其强大的人工智能模型”,法律要求提交安全报告,但门槛设定较高。政府官员承认,目前全球尚无模型达到该标准。

在执法与处罚上,违规企业最高可被处以3000万韩元(约1.5万英镑)罚款。不过,政府表示将至少给予一年宽限期后才开始处罚。

围绕新法的争议已在生效前后显现。部分本地科技初创企业认为规定过于严苛,合规成本与不确定性较高。韩国科学技术院(KAIST)计算机科学教授Alice Oh表示,法律并不完美,但意在在不扼杀创新的前提下逐步完善。与此同时,初创企业联盟去年12月的一项调查显示,98%的人工智能初创企业尚未做好合规准备。该联盟联合负责人林正旭称,行业普遍存在挫败感,并质疑为何韩国必须率先全面执行相关法律。

企业界的另一项担忧在于分类与适用范围。由于企业需要自行判断其系统是否属于“高影响力人工智能”,批评者认为这一过程冗长且带来不确定性。此外,有声音指出竞争可能失衡:韩国企业无论规模大小均受监管,而外国公司(如谷歌和OpenAI)则需达到一定门槛后才适用相关要求。

与企业界“过严”的批评相对,民间社会团体则认为法律对个人权利的保护力度不足。美国身份保护公司Security Hero在2023年报告称,韩国占全球深度伪造色情受害者的53%。2024年8月,一项调查揭露了庞大的Telegram聊天室网络,制造并传播女性和女孩的人工智能生成性影像。

不过,相关立法进程早于上述危机。首个人工智能相关法案于2020年7月提交国会,之后多次搁置,部分原因在于条款被指更偏向产业利益而非公民保护。

在法律生效次日,包括人权律师团体Minbyun在内的四个组织发表联合声明,称该法几乎没有条款保护公民免受人工智能风险。相关团体指出,法律所称的“用户”主要指使用人工智能系统的医院、金融公司和公共机构,而非受到人工智能影响的个人;法律未设定明确禁止的人工智能系统,且“人为介入”的豁免条款被认为存在漏洞。

韩国人权委员会也对执行细则提出批评,认为对“高影响力人工智能”的定义不够明确,并指出最可能遭受权利侵害的人群仍处于监管盲区。

韩国科学与信息通信部在声明中表示,预计该法律将“消除法律不确定性”,构建“健康安全的国内人工智能生态系统”,并将通过修订指南继续明确规则。

有专家指出,韩国在人工智能治理上选择了不同于其他司法管辖区的路径。汉阳大学研究人工智能治理的法学教授尹慧善表示,相较于欧盟严格的风险基础监管模式、美国和英国以特定行业为主的市场驱动做法,或中国结合国家主导产业政策与具体服务监管的模式,韩国采取了更灵活、基于原则的框架。她将其概括为“基于信任的促进与监管”,并称该框架有望成为全球人工智能治理讨论中的参考点。


分享:


发表评论

登录后才可评论。 去登录