专家警告AI扩展或逼近结构性瓶颈:算力、数据与社会成本成关键变量

richlovec 1500_400 (1)
 

近期人工智能能力快速提升,能够总结文档、编写代码和回答问题的系统已进入日常应用场景。但与此同时,越来越多研究人员与企业高管提出警告称,过去数年的跃进式进展可能正接近一类“硬性极限”:单纯依靠更大模型与更高预算,未必还能持续带来同等幅度的性能突破。

相关担忧并非指向技术“突然失灵”,而是认为当前路径可能遭遇结构性障碍,包括物理层面的计算与能耗约束、企业内部数据治理不足,以及扩展带来的政治与经济成本上升引发的社会反弹。业内人士普遍认为,未来几年将检验行业能否通过新的方法绕开这些限制。

扩展逻辑承压:收益递减引发路线调整

过去十年,主流研发路径强调“规模化”——更大的模型、更多的数据与更强的算力通常意味着更好的表现。但多位研究人员近期指出,现有扩展规律下,新增计算投入带来的边际收益正在下降。由此,“堆叠更多GPU不再必然显著提升系统能力”的观点在行业内扩散。

在这一背景下,部分公司开始将重点从追逐更大架构与基准测试成绩,转向提升可用性与可部署性,包括加强数据整理、面向特定领域的微调,以及用于现实场景的安全工具建设。相关变化被一些观察者概括为行业从“炒作”走向“务实”。

“是否撞墙”成研究社区争论焦点

关于是否接近扩展上限,研究社区内部出现分歧。一些业内人士公开质疑大型语言模型是否正在触及规模化的边界,理由是新系统在训练规模显著增加的情况下,基准测试表现仅较前代小幅提升。Marc Andreessen 与 Ben Horowitz 也在 a16z 播客中讨论扩展规律的极限问题,并提出其可能在未来几年影响美中AI竞争格局。

也有观点认为,“撞墙”更像阶段性错觉。相关报告提到,AI行业在 2025 年一度认为预训练扩展规律已触顶,但随后新模型在未引入复杂新技巧的情况下仍实现明显性能提升。另有技术评述将当前阶段描述为简单扩展规律的“终结”——并非规律失效,而是需要更精细的扩展策略,在模型规模、数据质量与训练时间之间进行更谨慎的平衡。

算力与芯片供应链:物理约束与资本开支风险并存

即便算法层面仍能维持扩展,硬件与能源约束正变得更难回避。分析师预计,2026 年生成式AI计算结构将从以大规模训练为主,转向训练与推理更均衡的组合,并增加在边缘设备上使用小型芯片进行推理的比重。该变化被认为与成本压力及物理限制相关:数据中心功耗难以无限扩张,政府也日益关注超大规模AI的能源足迹。

与此同时,先进加速器供应链承压。有观察者称,已出现新AI芯片交付延迟,并警告若超大规模云服务商囤积最新硬件,部分已安装设备可能在充分利用前就面临过时风险,从而抬升资本开支泡沫的可能性。也有乐观观点认为,扩展并未终止,而是进入新阶段,更多依赖更智能的技术路径与专用架构来释放效率。

企业落地的现实瓶颈:数据混乱拖慢部署

在理论上限之外,企业侧的障碍更为直接。多项面向高管的调查将“数据混乱”视为采用受阻的重要原因:数据库分散、数据模式不一致、治理缺失,使得强大模型难以在不经历数月清理的情况下接入真实业务流程,导致演示效果与生产系统之间的差距扩大。

麻省理工学院《2025 年生成式 AI 商业现状报告》显示,95% 的企业正在试验生成式工具,但真正实现大规模部署的仍是少数;该报告数据来自麻省理工与 Prosper Insights & Analytics。与此同时,部分受访群体在认可技术潜在益处的同时,也对其对地球环境以及AI基础设施所需关键矿产的影响表达担忧,扩展所需的“社会许可”不再被视为理所当然。

价值释放与“代理”落地:市场在调整预期

尽管存在“撞墙”担忧,也有观点认为风险在于低估现有系统可释放的价值。相关经济研究提出,技术可能覆盖价值 4.5 万亿美元的工作量,涉及大量例行办公任务与客户互动,并影响美国消费者 4.5 万亿美元的购买;该估计基于现有工具的渐进改进,而非假设中的“超级智能”。

不过,部分被高度关注的方向也在接受现实检验。《德勤科技趋势报告》指出,企业对自主代理的早期实验难以达到高水平,促使团队重新评估代理系统的适用场景与价值边界。与此同时,市场层面也在调整预期:在AI相关股票普遍下跌的背景下,从业者强调,既将大型语言模型视为“骗局”,也将其视为“万能钥匙”都可能偏离现实;当前模型能力强但仍较脆弱,在其基础上构建稳健产品往往比展示演示更具挑战。


分享:


发表评论

登录后才可评论。 去登录