总部位于旧金山的 AI 初创公司 Arcee AI 于 2026 年 4 月 1 日正式发布了大规模语言模型 「Trinity-Large-Thinking」。该模型拥有 3990 亿参数,以开放权重(Open Weights)的形式提供,并采用 Apache 2.0 许可证,允许用户自由改造、再训练以及用于商业用途。
这一举措意味着企业和研究机构可以在自有环境中对模型进行微调和部署,有望进一步推动开放 AI 模型在各类业务和研究场景中的应用。
面向推理任务的 3990 亿参数模型
Trinity-Large-Thinking 是一款参数规模达到 399B(3990 亿) 的大语言模型,重点强化了在以下场景中的表现:
- 复杂问题求解
- 需要多步推理的任务
- 需要长链思考过程的应用
根据公开的技术报告,Trinity-Large-Thinking 采用了 Mixture-of-Experts(MoE,专家混合)结构。这一结构的核心特点是:
- 对每个输入 token,只激活其中一部分「专家」模块参与计算
- 在保持总参数量巨大的同时,推理时实际参与计算的参数量相对可控
借助 MoE 架构,模型在理论上可以在 性能与计算效率之间取得平衡:既具备大模型的表达能力,又能在推理阶段降低计算成本。
此外,Trinity-Large-Thinking 在设计时就面向:

- 需要长时间思考链路的推理任务
- 各类 AI Agent(智能体) 应用
官方介绍称,该模型能够处理多轮推理对话,并支持结合工具调用(tool calling)等复杂流程,适用于构建具备规划、决策与执行能力的智能体系统。
Hermes AgentとTrinity-Large-Thinkingを使用してローカルデスクトップを整理する
@YouTube
以 Apache 2.0 许可证开放
Arcee AI 以 Apache 2.0 许可证 发布 Trinity-Large-Thinking 的模型权重。
在这一许可证下,开发者和企业可以合法地进行包括但不限于以下操作:
- 对模型进行修改与定制
- 进行微调(Fine-tuning)等再训练
- 在自有服务器或本地环境中部署与托管
- 将模型集成到商业产品或服务中
模型权重已在 Hugging Face 平台公开,开发者可直接下载并在自身项目中使用或二次开发。
发表评论
登录后才可评论。
去登录