如果担心个人数据被用于训练模型或广告投放,新一代人工智能个人助理的普及正在引发部分用户的隐私焦虑。使用此类服务往往需要输入大量个人信息,而这些数据通常会被服务提供方长期保存。随着OpenAI开始测试广告服务,有观点认为,推动Facebook和Google发展的数据收集模式,可能同样出现在聊天机器人产品中。
在此背景下,Signal联合创始人 Moxie Marlinspike 于 2023 年 12 月推出了新项目 Confer,尝试展示一款以隐私为核心设计的人工智能服务可能采取的技术路径。Confer在界面和使用体验上刻意贴近 ChatGPT 或 Claude,但在后端架构上采取了不同做法,避免数据收集,并延续了令 Signal 获得信任的开源技术路线。
根据介绍,用户在 Confer 中的对话不会被用于训练模型,也不会被用于广告定向。原因在于,服务托管方在技术上无法访问这些对话内容。
Marlinspike 表示,这些设计是针对此类服务本身高度私密属性所作出的回应。他指出,这类聊天界面“是一种主动邀请用户倾诉的技术形式”,像 ChatGPT 这样的产品“比以往任何技术都更了解人们”。在他看来,一旦与广告模式结合,就类似于“有人付钱给你的心理医生,劝你买东西”。
为实现上述目标,Confer依赖多层技术机制协同运作。

在客户端,Confer使用 WebAuthn 密码密钥系统对进出系统的消息进行加密。该标准在移动设备或运行 Sequoia 的 Mac 上表现最佳,在 Windows 或 Linux 上则需要借助密码管理器才能使用。
在服务器端,所有推理计算均在受信执行环境(TEE)中完成,并配备远程认证系统,用于验证环境未被篡改。在这一受保护环境内,Confer使用一组开源权重的基础模型处理所有输入请求。
与常规推理部署相比,这一架构明显更为复杂,而常规架构本身已相当复杂。但项目方认为,这种设计是兑现对用户隐私承诺的关键前提。在这些保护措施有效运行的情况下,用户可以与模型进行敏感话题的交流,而不必担心信息在系统外泄露。
在使用门槛方面,Confer提供免费和付费两种方案。免费版本每天限制 20 条消息和 5 个活跃聊天。每月支付 35 美元的用户则可获得无限制访问权限,并可使用更先进的模型以及个性化服务。与 ChatGPT 的 Plus 订阅计划相比,这一定价更高,项目方将其定位为为隐私付出的额外成本。
