Coveo今日宣布推出Coveo托管模型上下文协议(MCP)服务器,以扩展其Coveo AI相关性平台,并实现与包括ChatGPT Enterprise以及Anthropic的Claude在内的主流大型语言模型(LLM)的集成。公司表示,该方案在对接大模型能力的同时,保留企业级安全与治理要求。
Coveo称,新发布的MCP服务器基于模型上下文协议(MCP)标准构建,使组织能够通过Coveo将大量数据源连接至ChatGPT Enterprise或Claude等大模型。通过该服务器,AI代理可直接访问Coveo的统一内容索引,无需定制化集成或额外基础设施。Coveo表示,此举旨在成为企业AI项目的互操作层,支持客户与合作伙伴在生成式AI与智能代理工作流中的规模化采用。
Coveo联合创始人兼首席执行官Laurent Simoneau表示,随着企业在关键工作流中部署多种大模型,Coveo具备推动互操作AI发展的条件。他称,公司已与10家客户合作,使用托管MCP服务器增强Anthropic的Claude与OpenAI的ChatGPT等模型的能力,并将其视为推动客户扩大AI计划采用的重要机会。

在产品落地方面,Coveo表示,其应用已通过ChatGPT Enterprise的官方Apps & Connectors目录提供,用作ChatGPT与Coveo索引内容之间的安全桥梁。该方案支持基于事实的检索、复用Coveo的相关性逻辑,并可用于多类AI驱动场景。
在供应与计费方面,Coveo称,Coveo MCP服务器现已面向ChatGPT Enterprise、Anthropic的Claude及其他主流模型全面开放。使用该服务器包含在Coveo AI相关性平台中,相关查询将计入现有按使用量计费的许可。
