去中心化GPU网络正被越来越多地视为人工智能计算中的低成本补充层,主要承接推理和日常生产工作负载,而最新一代大模型的训练仍高度集中在少数超大规模数据中心内。
从技术路径看,前沿人工智能训练依赖规模庞大且高度一体化的算力集群,需要数千块GPU在极低延迟环境下紧密同步运行。业内人士指出,这种对协调性和可靠性的要求,使得通过开放互联网连接的去中心化网络难以胜任顶级模型训练任务。
前沿训练仍由超大规模数据中心主导
当前,最前沿的AI训练工作主要掌握在少数大型科技企业和云服务提供商手中。最新硬件产品(例如英伟达的Vera Rubin)专门针对数据中心场景进行优化,以提升在高度集成环境中的整体性能。
基础设施公司 Ovia Systems(前身为 Gaimin)首席执行官 Nökkvi Dan Ellidason在接受 Cointelegraph 采访时,将前沿模型训练比作“在集中式数据中心建造摩天大楼”——所有“工人”在同一脚手架上协同作业,彼此之间可以直接“传递砖块”。他表示,如果在去中心化网络中尝试完成同样的工作,就好比“通过开放互联网邮寄每一块砖”,效率大幅下降。
目前行业内的大规模训练集群规模持续扩大。Meta 使用超过 10 万块英伟达 H100 GPU 训练其 Llama 4 模型。OpenAI 尚未披露其训练集群的具体规模,但该公司基础设施负责人 Anuj Saharan 表示,GPT-5 的发布得到了超过 20 万块 GPU 的支持,未区分其中用于训练、推理或其他工作负载的具体比例。
Ellidason认为,2024 年训练仍是 GPU 需求的主要驱动力,但到 2026 年,由推理、智能体(agents)和预测类任务带来的需求可能占到整体的 70%。在他看来,这一变化意味着算力正在从一次性、以研究为导向的成本,转向持续性的“公用事业”成本,从而为去中心化计算在混合架构中提供了空间。
推理与日常工作负载为去中心化网络打开空间
与前沿训练不同,大多数生产环境中的AI工作负载并不需要大规模集群的紧密同步,而是以推理和各类日常任务为主。这类任务更关注成本、弹性和地理分布,为去中心化GPU网络提供了切入点。
Theta Network 联合创始人兼首席执行官 Mitch Liu 对 Cointelegraph 表示,越来越多开源及其他类型的模型在体量和优化程度上已足以在消费级 GPU 上高效运行,这正在推动市场向开源、更高效模型以及更具成本优势的处理方式转变。
去中心化计算平台 Fluence 联合创始人 Evgeny Ponomarev 则指出,推理是一个“量大”的业务,会随着每个部署的模型和智能体持续放大需求。在这一阶段,成本、弹性和地理分布的重要性往往高于“完美互联”。

在实际应用中,这意味着分布在去中心化网络和消费级设备上的游戏级 GPU,更适合那些优先考虑吞吐量和灵活性、而非极致协调性的生产工作负载。
闲置消费级 GPU 聚合平台 Salad Technologies 首席执行官 Bob Miles 表示,消费级 GPU 通常显存较小,且依赖家庭宽带连接,不适合训练或对延迟高度敏感的任务。但在他看来,这类硬件目前更适用于 AI 药物发现、文本生成图像/视频以及大规模数据处理流水线等对成本敏感的场景,在性价比方面具有优势。
此外,去中心化 GPU 网络也被用于数据采集、清洗和准备等模型训练前的工作。这类任务往往需要广泛访问开放网络,并可高度并行执行,对节点间的实时协调要求较低。Miles 称,这些工作若完全在超大规模数据中心内部完成,往往需要大量代理基础设施才能保持效率。
地理分布与延迟优势
在面向全球用户提供服务时,去中心化网络的地理分布特性被视为一项优势。由于算力节点更接近终端用户,请求在网络中的传输距离和中转次数有望减少,从而降低整体延迟。
Theta Network 的 Liu 表示,在去中心化模型架构下,GPU 分布在全球多个地点,通常比集中式数据中心更靠近用户,因此用户与 GPU 之间的延迟相较将流量统一回传至集中式数据中心时“显著降低”。
与此同时,Theta Network 也面临法律纠纷。两名前员工于 2025 年 12 月在洛杉矶对该公司提起诉讼,指控其存在欺诈和代币操纵行为。Liu 称,由于诉讼仍在进行中,暂不便发表评论。Theta 此前已否认相关指控。
人工智能算力结构中的互补层角色
业内观点普遍认为,在可预见的未来,前沿AI训练仍将集中在超大规模数据中心,但整体算力需求正向推理、智能体和其他对协调要求相对较低的生产工作负载转移。这些任务更强调成本效率、地理分布和系统弹性,为去中心化GPU网络提供了发展空间。
Theta 联合创始人兼技术主管 Jieyi Long 对 Cointelegraph 表示,本轮周期中涌现出大量开源模型,虽然规模不及 ChatGPT 等系统,但性能已足以在配备 RTX 4090 或 5090 GPU 的个人电脑上运行。Long 称,借助这类硬件,用户可以在本地运行扩散模型、三维重建模型及其他“有实际意义”的工作负载,从而为零售用户共享 GPU 资源创造机会。
从行业定位看,去中心化 GPU 网络并未被视为超大规模运营商的替代方案,而是逐步成为其上的互补层。随着消费级硬件性能提升以及开源模型效率提高,更多AI任务有望从集中式数据中心迁出,在去中心化架构中完成,后者也由此在人工智能算力体系中找到相对清晰的角色分工。
