Anthropic与五角大楼围绕自主武器使用权分歧加剧

Anthropic拒绝放宽模型军用限制

围绕人工智能在军事领域的用途,美国AI公司 Anthropic 与五角大楼的分歧持续升级。双方此前签署了一份价值 2 亿美元的合同,其中明确规定,美国军方不得将 Anthropic 的 Claude 模型用作自主武器的“中枢大脑”,也不得用于针对美国人的大规模监控。

美国国防部长皮特·赫格塞斯(Pete Hegseth)随后公开表示,军方应当能够将 Anthropic 的模型用于“所有合法目的”。据报道,他在本周二上午于五角大楼召见 Anthropic 首席执行官达里奥·阿莫代(Dario Amodei)时,向对方设定了最后期限:要求 Anthropic 在周五下午 5 点 01 分前同意放宽使用限制。

报道援引会议信息称,赫格塞斯威胁,如果 Anthropic 不予配合,国防部可能动用《国防生产法》,强制该公司向政府提供不附加任何限制条件的模型访问权。同时,政府还可能将 Anthropic 模型列为“供应链风险”,从而指示所有政府供应商避免或停止使用该公司产品。

阿莫代在与赫格塞斯会面后接受采访时表示,公司无意遵从这些新要求,并强调政府此前已同意合同条款。他解释称,军方目前依赖人类判断来避免侵犯公民的宪法权利,而如果将关键决策交由 AI 作出,就可能缺乏人类对相关行为提出异议的机制。

自主武器趋势与“人类在环”争议

在这场争议背后,是军事技术快速朝自主化方向发展的现实。多年来,各国防务机构一直强调在 AI 武器系统中保持“人类在环”(human in the loop),通常由政府律师等人员在战场上就交战规则作出判断。

但报道指出,如今五角大楼更多谈论的是“完全自主武器”,即能够在更大范围内接管所谓“杀伤链”的系统——从发现目标到最终打击的一系列通信与决策流程。军方领导人常用“谁能利用技术缩短杀伤链,谁就能赢得战争”来描述相关目标。

随着电子战(包括网络战)、高超音速导弹以及无人机集群等技术的发展,战场节奏不断加快,留给人类审查和决策的时间窗口被压缩。报道认为,美国军方未来可能面临压力,被迫在部分场景中将人类从决策环节中移除,以维持与潜在对手的竞争力。

在此背景下,Anthropic 坚持限制模型用于自主武器的立场,被认为可能与现代战争的技术演进产生错位。报道指出,这场对峙的一个潜在结果是:一家强调安全和约束的 AI 实验室被迫退出相关合作,而像 xAI 这类被视为在安全问题上相对不那么谨慎的公司,可能成为替代选择。

特朗普提出数据中心“自供电”构想 被指与凯利方案相似

在另一则与 AI 相关的政策动向中,美国前总统唐纳德·特朗普在国情咨文演讲中谈及为新一代 AI 数据中心供电的问题。科技行业预计,为支撑大规模 AI 计算需求,未来需要建设数百个新数据中心,而为此进行的电网升级可能推高居民电费,已引发选民关注。

特朗普在演讲中称,他已谈判达成新的“纳税人保护承诺”,并表示已“告诉主要科技公司,他们有义务为自己的电力需求提供保障”。

这一表述被指与亚利桑那州民主党联邦参议员马克·凯利(Mark Kelly)此前提出的主张高度相似。凯利的“AI 为美国”(AI for America)计划设想,由行业出资设立“AI 地平线基金”(AI Horizon Fund),用于支付电网升级和劳动力再培训成本。

根据凯利的构想,国会可以要求数据中心开发商购买或租赁足够土地,不仅用于建设数据中心本身,还要容纳为其供电和冷却的可再生能源基础设施。数据中心运营方还可能被要求承担将可再生能源接入本地电网的费用,以防止自建电力未被充分利用。

报道指出,特朗普目前的表态更接近政策建议而非约束性措施,尚未涉及科技公司如何具体实现“自给自足”发电。文中提到的一个现有案例是,埃隆·马斯克旗下 xAI 为其位于孟菲斯的大型 Colossus 数据中心自建电力供应,但采用的是甲烷燃气涡轮机。报道称,该设施已迅速成为当地主要污染源之一。

CodeSignal:技术招聘评估作弊率大幅上升

在人才市场方面,开发者技能评估平台 CodeSignal 的最新研究显示,2025 年技术招聘评估中的作弊行为显著增加,欺诈尝试次数较前一年翻倍以上。

CodeSignal 为软件工程师招聘提供在线技能测试。该公司数据显示,去年 35% 的监考评估出现作弊或欺诈迹象,而 2024 年这一比例为 16%。常见作弊方式包括抄袭他人答案、找人代考以及在不允许的情况下使用 AI 工具。

初级岗位候选人的作弊率上升尤为明显:从 15% 跃升至 40%,增幅接近三倍,使早期职业招聘成为整个流程中最易受影响的环节。CodeSignal 首席执行官兼联合创始人蒂格兰·斯洛扬(Tigran Sloyan)在新闻稿中部分将此归因于 AI 工具的普及。他援引数据称,约 80% 的 Z 世代在日常生活中使用 AI,这在一定程度上模糊了“合理辅助”和“彻底作弊”之间的界限。

斯洛扬表示,AI 的易得性也使未经授权的帮助更难被发现,从而增加了保持技能评估公平性和可靠性的难度。

监考与技术手段揭示作弊模式

CodeSignal 表示,其作弊检测系统结合了 AI 分析、人为审查和数字监控,识别出多种常见模式:

  • 约 35% 的候选人在考试过程中频繁离开屏幕,被视为可能查阅外部资源的信号;
  • 23% 的考生呈现异常线性的打字模式,在几乎没有停顿或调试的情况下完成复杂解答;
  • 15% 的答案与已知解决方案或泄露内容高度相似。

该公司强调,上述数字仅反映被识别出的作弊尝试,并不包括所有可能逃避检测的案例。

数据还显示出明显的地域和考试环境差异:亚太地区的欺诈尝试率为 48%,而北美为 27%。在无监考环境下,考生成绩的提升幅度是有监考环境的四倍以上,显示监考对遏制作弊具有显著威慑作用。

CodeSignal 称,其防欺诈基础设施已建设约十年,目前已应用于数百万次评估。公司使用专有的“怀疑分数”和防泄露测试设计,用于标记抄袭、代考、未经授权使用 AI 以及身份欺诈等行为。


更多相关报道包括:

  • 哈佛研究显示,AI 股票交易表现与许多基金经理的选股相当;
  • 一档关于爱泼斯坦档案的热门播客完全由 AI 生成;
  • 有观点质疑所谓“SaaSpocalypse”(SaaS 末日)是否只是一个神话;
  • 一家 AI 笔记初创公司称,其产品正在成为聊天机器人的“方向盘”。

分享:


发表评论

登录后才可评论。 去登录