美国科技媒体 The Information 于当地时间 2026 年 4 月 28 日报道,Google 已与美国国防部达成一项协议,允许后者在机密环境中使用 Google 的 AI 模型,用于「一切合法的政府目的」。
同一天,Business Insider 报道称,包括 Google DeepMind 部门和 Cloud 部门在内的约 600 名员工,向 CEO 桑达尔·皮查伊(Sundar Pichai)递交联名信,要求公司不要向美军提供可用于机密任务的 AI 系统。该媒体还全文刊登了这封信。
Google AI 或将用于美国国防部机密任务
据 The Information 报道,这份协议将允许美国国防部在机密业务中部署 Google 的 AI 模型。报道指出,这意味着 Google 将与 OpenAI、xAI 等公司一道,成为向美国国防部提供 AI 技术的企业之一。

另一方面,报道也提到,协议中据称包含若干限制条款,例如不得将 Google 的 AI 用于美国国内的大规模监控,或用于缺乏「适当人类参与」的自主武器系统。
约 600 名员工联名致信皮查伊,要求拒绝参与机密业务
根据 Business Insider 的报道,约 600 名 Google 员工于 4 月 28 日联名致信 CEO 桑达尔·皮查伊,明确要求公司不要将其 AI 系统提供给所谓的「classified workloads(机密业务)」。
报道指出,签名者包括来自 Google DeepMind 和 Cloud 部门的员工。联名信提到 The Information 关于「Google 正与美国国防部就 Gemini 在机密环境中的使用进行谈判」的报道,并强调 AI 系统具有集中权力、且可能出错的特性。

在 Business Insider 刊登的联名信中,员工写道:「作为从事 AI 工作的人,我们深知这些系统会集中权力,也会犯错。」他们表示,正因为自己身处 AI 技术一线,更有责任识别并阻止「最不道德、最危险的用途」。

这些员工还对 Google 的 AI 可能被用于不人道或高度有害的场景表示担忧。联名信中点名提到的潜在用途包括致命性自主武器以及大规模监控等。
核心担忧:机密业务下用途不可见、难以制止
员工们特别强调,机密业务的性质会导致 Google 内部员工难以了解 AI 的具体用途,更难在发现问题时叫停相关项目。他们认为,若要确保公司不会与有害用途产生关联,唯一可行的方式就是从一开始就拒绝参与机密业务。
联名信指出,一旦 Google 的 AI 被部署在机密环境中,其具体使用方式可能在员工毫不知情的情况下推进,而员工也不再拥有制止的权力或渠道。
此外,员工们警告称,如果此时做出错误决策,可能会对 Google 的声誉、业务前景以及其在全球科技与社会中的角色造成「不可逆转的损害」。
据 Business Insider 报道,Google 尚未就此事向该媒体作出正式回应。代表部分员工一方的公关公司 Justice Speaks 创始人 Jane Chung 也表示,Google 目前尚未对这封联名信作出答复。