西班牙初创公司 Multiverse Computing 正推进大模型压缩技术应用,试图缩小前沿模型能力与企业实际部署条件之间的差距。
推出免费压缩模型 HyperNova 60B
Multiverse Computing 近日在模型平台 Hugging Face 上发布了更新版 HyperNova 60B 模型,向开发者免费开放使用。公司表示,该模型基于 OpenAI 发布的 gpt-oss-120b 模型进行压缩,旨在在降低资源消耗的同时尽量保持性能和准确度。
根据公司介绍,HyperNova 60B 模型大小约为 32GB,大约为其衍生来源模型 gpt-oss-120b 体积的一半。Multiverse 称,在更小体积的前提下,该模型具备更低的内存占用和更低的推理延迟。
此次发布的更新版本 HyperNova 60B 2602,进一步强化了对工具调用和代理编码等场景的支持。公司指出,这类应用通常推理成本较高,是企业部署时的重要考量方向之一。
Multiverse 还表示,计划在 2026 年开源更多基于其压缩技术的模型,以覆盖更广泛的应用场景。
量子计算启发的压缩技术
Multiverse Computing 的核心技术为 CompactifAI,这是一种受量子计算理念启发的模型压缩方法。公司已将该技术应用于 OpenAI 发布的相关模型,用于在不显著牺牲性能的前提下缩减模型规模。
公司方面称,采用 CompactifAI 压缩后的模型在准确度和整体性能上与原模型接近,同时在资源占用和响应速度方面具有优势。
与 Mistral 模型的对比
Multiverse 表示,HyperNova 60B 在部分对比测试中优于法国初创公司 Mistral AI 发布的 Mistral Large 3 模型。Mistral AI 被市场视为“十角兽”企业,两家公司在技术路线和市场定位上存在一定交集。

除技术层面竞争外,Multiverse 和 Mistral 在业务布局上也有相似之处。与 Mistral 一样,Multiverse 已走出本土市场,在美国、加拿大及多个欧洲国家设立办公室,并面向企业客户提供服务。Multiverse 披露的客户包括 Iberdrola、博世以及加拿大央行等机构。
融资与估值进展
市场消息称,Multiverse 目前正在筹备新一轮约 5 亿欧元融资,相关交易对公司估值的预期超过 15 亿欧元。若交易完成,该公司有望跻身独角兽行列。
Multiverse 在向 TechCrunch 提供的声明中确认,正在与潜在投资者就新一轮融资进行积极洽谈,但表示目前讨论估值或融资规模“为时尚早”。对于有报道称公司年经常性收入(ARR)在 1 月已达到 1 亿欧元,Multiverse 未予置评。
报道提到,即便上述 ARR 数据属实,Multiverse 的收入规模仍远低于 OpenAI 约 200 亿美元的 ARR,但与 Mistral 超过 4 亿美元的 ARR 差距相对较小。相关报道认为,Mistral 的收入部分受益于市场对美国科技替代方案需求的上升。
Multiverse 在最新发布的新闻稿中,将自身定位为能够“在 AI 全栈提供主权解决方案”的企业。
地缘政治因素与本土支持
在地缘政治和“技术主权”议题升温的背景下,Multiverse 近期与西班牙东北部阿拉贡自治区政府达成合作。西班牙技术转型署(SETT)也参与了该公司去年完成的 2.15 亿美元 B 轮融资。
自成立以来,Multiverse 一直获得巴斯克地区的支持。相关表述指出,该地区有望在不久的将来迎来其首家独角兽企业。
