Together AI在AI Native Conf大会发布多项研究与产品进展

richlovec 1500_400 (1)
 

Together AI今日启动首届AI Native Conf大会,面向致力于构建下一代AI应用的开发者。Together AI将自身定位为“AI Native云”服务提供商,并表示大会举办之际,公司业务正处于快速扩张阶段。

据Together AI披露,公司目前服务数千家客户,支持超过一百万名开发者;年度合同收入(ACR)同比增长10倍,其中包括27笔超过100万美元的客户交易,并有一笔交易超过10亿美元。

Together AI称,其已成为Cursor、Decagon和Cartesia等AI原生公司的核心基础设施提供商,提供生产级推理、预训练和模型塑形服务。公司还提到,其系统研究实验室由FlashAttention和ThunderKittens的创始人领导,聚焦将前沿研究成果落地到实际部署。

Together AI联合创始人兼CEO Vipul Ved Prakash在大会上表示,AI技术演进速度超过以往任何技术变革,本次活动旨在汇聚AI原生开发者,分享在大规模生产环境中运行AI的实践经验。他称,公司优势在于研究人员与生产系统团队高度重合,能够将基础研究成果快速应用于客户依赖的系统。

发布研究突破与新产品

Together AI在AI Native Conf上发布了多项“从研究到生产”的最新进展,覆盖内核、强化学习与推理优化方向。公司表示,这些进展旨在帮助企业提升训练与推理性能,以更好利用生成式AI与智能代理相关能力。

大会披露的主要内容包括:

  • FlashAttention 4:Together AI发布该内核的最新版本,称其在长序列长度场景下可实现最高4倍性能提升,面向编码代理、文档推理等长上下文工作负载。
  • 强化学习API:公司推出新的强化学习API,强调实现推理与训练解耦,并支持全球分布式强化学习流水线。
  • ThunderAgent:Together AI发布开源的程序感知系统ThunderAgent,用于服务与训练智能代理工作负载,称其可带来最高3.6倍吞吐量提升,并显著降低内存开销。
  • ATLAS-2:公司介绍ATLAS-2可利用实时用户数据进行自适应优化,并称可立即实现1.5倍更快的推理速度。

聚焦AI原生开发者与产业实践

Together AI表示,AI Native Conf的设立旨在回应AI原生初创企业的快速增长。公司援引麦肯锡数据称,70%的公司已在使用生成式AI,使其成为采用速度最快的主要技术平台之一。Together AI同时提到,一批AI原生公司正以更快速度扩张,部分公司实现了更快达到1亿美元年经常性收入(ARR)的进展。

大会嘉宾包括Gamma联合创始人兼CEO Grant Lee、Cartesia联合创始人Arjun Desai,以及从事大规模AI系统部署的研究人员与工程师。Together AI表示,关于本次大会研究与产品公告的完整回顾,可在其博客的当日文章中查看。


分享:


发表评论

登录后才可评论。 去登录