Anthropic与美国国防部的合作在近期陷入复杂局面:一方面,其模型仍被用于美伊冲突中的军事目标决策;另一方面,多家国防行业客户已开始逐步停止使用该公司产品。
政策限制与实际使用并行
现有局面部分源于美国政府内部相互交织且存在矛盾的限制安排。根据报道,特朗普总统已指示民用机构停止使用Anthropic产品,但同时允许该公司在未来六个月内逐步结束与国防部的合作关系。
在这一过渡期尚未结束之际,美国与以色列于次日对伊朗首都德黑兰发动突袭,相关军事行动持续推进,特朗普的指令尚未完全落地执行。在此背景下,美国继续对伊朗实施空中打击,Anthropic模型仍被用于多项目标相关决策。
报道指出,尽管国防部长皮特·赫格塞斯已表示计划将Anthropic列为“供应链风险”,但目前尚未出台正式的行政或法律措施。因此,从法律层面看,军方继续使用该系统暂不存在明确障碍。
与Palantir系统联合用于目标筛选
《华盛顿邮报》周三刊文披露了Anthropic系统在军事行动中的具体应用细节。报道称,Anthropic模型与Palantir的Maven系统被联合使用,为五角大楼官员策划打击行动提供支持。

根据该报道,这些系统在作战规划中“建议了数百个目标,提供了精确的位置信息,并根据重要性对目标进行了优先排序”。文章将这一组合系统的功能描述为“实时目标定位与优先级排序”,用于辅助相关决策流程。
国防承包商加速更换模型
与军方持续使用形成对比的是,国防工业领域的商业客户正在明显收缩对Anthropic产品的依赖。路透社报道称,洛克希德·马丁及其他多家国防承包商本周已开始用竞争对手的模型替换Anthropic的解决方案。
类似情况也出现在分包商和初创企业中。J2 Ventures一位管理合伙人对CNBC表示,其投资组合中的10家公司“已减少在国防用例中使用Claude,并正积极寻找替代服务”。
供应链风险认定成关键不确定因素
目前,市场关注的焦点在于赫格塞斯是否会正式将Anthropic列为供应链风险。一旦这一指定落地,相关决定可能引发一系列法律争议。
在最终结论尚未作出之前,Anthropic作为一家领先的人工智能实验室,正面临在军事技术领域被快速边缘化的局面。然而,与此同时,其模型仍在活跃战区中被用于关键的目标决策流程,形成政策限制与实际应用并存的矛盾状态。
