在今年2月举行的香港共识大会上,围绕“区块链三难困境”的讨论再度升温。卡尔达诺(Cardano)创始人查尔斯·霍斯金森在相关议题中回应称,谷歌云(Google Cloud)和微软Azure等超大规模云服务商并不构成去中心化的风险,并向与会者作出相应解释。
部分观点认为,主流区块链项目在现实运行中“需要”依赖超大规模云服务商,且无需过度担忧单点故障。其理由包括:先进密码学可对冲风险、多方计算(MPC)可分散密钥材料、保密计算可保护使用中的数据。该论点基于“云无法看到数据就无法控制系统”的逻辑,但在会议现场未被进一步展开。
MPC与保密计算降低暴露面,但难消除基础设施层风险
围绕霍斯金森的表态,另一种更受关注的讨论焦点在于:MPC与保密计算等技术确实能降低硬件提供者对底层数据的可见性,但并不意味着潜在风险被完全消除。
在MPC机制下,密钥材料被拆分并分布在多个参与方之间,单一参与者无法重构秘密,从而降低单点被攻破的风险。不过,系统的安全依赖随之转移到协调层、通信通道以及参与节点治理等环节。由单一密钥持有者带来的风险并未消失,而是演变为更分散的信任与攻击面。
保密计算(尤其是受信执行环境,TEE)通过在执行过程中对数据加密,减少托管方对数据的直接暴露。但TEE依赖硬件层面的假设,包括微架构隔离、固件完整性与实现正确性。相关学术研究反复指出,侧信道与架构漏洞在封闭技术体系中仍会持续出现,这意味着其安全边界并非绝对。
此外,MPC与TEE通常运行在超大规模云基础设施之上,物理硬件、虚拟化层与供应链仍可能高度集中。即便密码学手段限制了数据检查能力,基础设施提供者仍可能通过带宽、机器资源或地理区域访问控制等方式施加影响,吞吐限制、停机或政策干预等风险并不会因此消失。
“没有任何L1能处理全球计算”与链外执行的现实
霍斯金森还提出,超大规模云服务商之所以必要,是因为没有单一Layer 1能够承载全球系统的计算需求,并提及建设数据中心所需的数万亿美元投入。
相关讨论指出,Layer 1网络的设计目标并非运行AI训练、高频交易或企业分析管道,而是用于维护共识、验证状态转变并提供持久的数据可用性。在这一点上,霍斯金森对L1用途的界定被认为是准确的。
不过,争议在于全球系统更核心的需求并非“在链上完成所有计算”,而是让任何人都能验证计算结果,即便计算发生在链外。随着rollup、零知识系统与可验证计算网络的发展,越来越多的重计算在链外完成,关键在于结果能否在链上被证明与验证。
在此框架下,讨论焦点被认为应转向“谁控制验证背后的执行与存储基础设施”。如果链外计算依赖集中式基础设施,系统可能继承集中化的故障模式:结算层在理论上保持去中心化,但生成有效状态转变的路径在实践中可能趋于集中。

密码学“中立”不等于参与“中立”
围绕“密码学中立性”的讨论也被带入该议题。所谓密码学中立性强调规则不可被任意更改、协议保持公平、难以引入隐藏后门。但相关观点强调,密码学最终运行在硬件之上。
硬件与基础设施层决定了谁能参与、参与成本以及在吞吐与延迟约束下谁会被排除。如果硬件生产、分发与托管仍高度集中,即便协议在数学意义上保持中立,参与也可能在经济层面受到限制。
在高计算需求场景中,硬件被视为决定成本结构、扩展能力与审查压力下韧性的关键因素。由此,讨论提出应将重点转向“与硬件所有权多样化相结合的密码学”,以降低在压力情境下的脆弱性。
计算市场:专业化路径与通用云的差异
在计算市场层面,相关讨论认为,将与AWS等超大规模云服务商的竞争简单理解为“规模之争”可能存在偏差。超大规模云服务商强调通用性与灵活性,其基础设施需要同时服务大量不同工作负载,虚拟化、编排、合规工具与弹性保障构成通用计算优势,但也带来额外成本层。
与之相对,零知识证明与可验证计算被描述为确定性强、计算密集、受内存带宽约束且对流水线敏感的工作负载,更倾向于奖励专业化。相关观点认为,专门构建的证明网络可在“每美元证明量、每瓦特证明量、每单位延迟证明量”等维度竞争;当硬件、证明软件、电路设计与聚合逻辑实现垂直整合时,效率可能叠加提升,并通过减少不必要抽象层降低开销。
同时,经济结构也被认为存在差异:超大规模云服务商定价面向企业利润与广泛需求波动,而围绕协议激励对齐的网络可通过不同方式摊销硬件成本,并围绕持续利用而非短期租赁模型调整性能。
“使用云但不依赖云”的架构主张
在上述争论中,一种折中主张是:超大规模云服务商并非对立面,其优势在于效率、可靠性与全球分布,关键问题在于系统是否对其形成依赖。
相关观点提出,更具韧性的架构可以将主要云服务商用于突发容量、地理冗余与边缘分发,但不应将核心功能锚定在单一或少数提供者的集群之上。结算、最终验证以及关键数据与证明材料的可用性,应在云区域故障、供应商退出或政策限制收紧时仍能保持完整。
在这一框架下,去中心化存储与计算基础设施被视为可行替代选项:证明材料、历史记录与验证输入不应由单一提供者自由裁量提取或限制,而应部署在与协议经济激励对齐、结构上更难被关闭的基础设施之上。相关主张强调,超大规模云应作为“可选加速器”而非产品基础设施的锚点使用,以降低关键能力受单一供应商约束的风险。