在成本压力与数据主权之间:企业重估生成式人工智能风险

richlovec 1500_400 (1)
 

人工智能的成本效率与数据主权之间的矛盾,正在迫使全球企业重新审视自身的风险管理框架。

过去一年多,围绕生成式人工智能的讨论多集中在“能力竞赛”上,行业普遍以参数规模和各类基准测试分数作为衡量模型先进程度的主要指标。然而,在董事会层面,相关讨论正出现明显调整,关注点从单纯性能转向合规、主权与安全。

在这一背景下,低成本、高性能模型为企业快速推进创新提供了看似理想的路径,但与数据驻留及国家影响相关的潜在责任,正促使企业重新评估其供应商选择。总部位于中国的人工智能实验室 DeepSeek 近期成为业内广泛讨论的案例之一。

据前国际刑警组织和英国政府通信总部(GCHQ)顾问、现任 Jitterbit 首席执行官比尔·康纳(Bill Conner)介绍,DeepSeek 最初在市场上获得积极反响,原因在于其展示出“高性能大型语言模型不一定需要硅谷规模的预算”,从而对既有行业格局形成挑战。

对于希望压缩生成式人工智能试点项目高昂成本的企业而言,这类效率优势具有明显吸引力。康纳表示,这些“报告的低训练成本,无疑重新点燃了业界关于效率、优化以及‘足够好’人工智能的讨论”。

数据主权与地缘政治风险抬头

然而,对低价高性能的追逐正在与地缘政治现实发生碰撞。运营效率正越来越难与数据安全相分离,尤其是在模型托管于隐私保护和国家访问规则截然不同的司法管辖区时。

围绕 DeepSeek 的最新披露,正在改变部分西方企业的风险评估方式。康纳指出,“美国政府最近披露,DeepSeek 不仅在中国存储数据,还积极与国家情报机构共享数据。”

在他看来,这一情况使相关问题超出了传统《通用数据保护条例》(GDPR)或《加州消费者隐私法案》(CCPA)合规范畴,其“风险特征从典型的隐私问题升级到国家安全领域”。

对企业管理层而言,这一变化具有直接影响。大型语言模型的部署通常并非孤立行为,而是与企业专有数据湖、客户信息系统以及知识产权库深度连接。如果底层模型存在“后门”,或被要求与外国情报机构共享数据,数据主权将被削弱,企业既有安全防线也可能被绕过,任何表面上的成本优势都难以成立。

康纳警示称,“DeepSeek 与军事采购网络的纠缠及涉嫌规避出口管制的行为,应成为首席执行官、首席信息官和风险官的重要警示。”他认为,使用此类技术可能在无意间将企业卷入制裁违规或供应链安全相关问题。

在此背景下,衡量人工智能项目“成功”的标准正在发生变化,不再局限于代码生成效率或文档摘要能力,供应商所处的法律与伦理框架正成为关键考量因素之一。尤其在金融、医疗和国防等高度敏感行业,对数据来源和数据流向的不透明容忍度极低。

在技术团队推进概念验证时,性能指标和集成便利性往往被置于优先位置,工具的地缘政治背景及数据主权要求则可能被忽视。康纳认为,风险官和首席信息官需要在治理层面发挥更大作用,不仅要审查模型“能做什么”,还要明确“由谁提供”和“部署在哪里”。

治理与问责压过成本考量

在是否采用或禁止特定人工智能模型的问题上,企业面临的是治理与责任问题。股东和客户普遍期望,其数据应保持安全,并仅用于事先约定的商业目的。

康纳强调,对于西方企业领导层而言,“这不是模型性能或成本效率的问题”,而是“治理、问责和受托责任问题”。

他指出,企业“无法为集成数据驻留、使用意图和国家影响根本不透明的系统辩解”。在他看来,这种不透明会带来难以接受的责任风险。即便某一模型以约半价提供竞争对手 95% 的性能,潜在的监管罚款、声誉受损以及知识产权流失,足以迅速抵消所有成本节约。

DeepSeek 相关争议正推动企业对现有人工智能供应链展开审计。管理层被要求确保对模型推理发生的地点以及谁掌握底层数据拥有充分可见性。

随着生成式人工智能市场逐步成熟,业内人士预计,信任、透明度和数据主权等因素在企业决策中的权重将持续上升,相较之下,单纯的成本效率吸引力可能被显著削弱。


分享:


发表评论

登录后才可评论。 去登录