周五下午,采访刚刚开始,一则突发消息出现在电脑屏幕上:特朗普政府正在切断与Anthropic的合作关系。
这家由Dario Amodei于2021年在旧金山创立的人工智能公司,被国防部长Pete Hegseth依据国家安全法列入黑名单,禁止与五角大楼开展业务。报道指称,原因在于Amodei拒绝允许Anthropic的技术用于对美国公民的大规模监控,或用于能够自主选择并杀死目标的武装无人机。
据称,这一决定意味着Anthropic将失去价值高达2亿美元的合同,并被禁止与其他国防承包商合作。此前,特朗普总统在社交平台Truth Social上发文,要求所有联邦机构“立即停止使用Anthropic技术”。Anthropic随后表示,将就此对五角大楼提起诉讼。
“自我监管”承诺遭质疑
长期关注人工智能风险的麻省理工学院物理学家Max Tegmark认为,Anthropic当前的处境与其所在行业多年来的选择密切相关。他指出,Anthropic、OpenAI、Google DeepMind等公司长期强调“自我负责治理”,但在关键时刻并未推动具有约束力的安全监管框架。
Tegmark回顾称,自己在2014年创立了生命未来研究所,并参与组织了一封呼吁暂停先进人工智能发展的公开信,该信最终获得包括埃隆·马斯克在内的3.3万名签署者。他表示,从更长时间尺度看,当前危机并非始于五角大楼,而是源于行业多年前普遍抵制强制监管的决定。
他指出,Anthropic本周早些时候放弃了其安全承诺中的核心原则——在确信不会造成伤害之前不发布更强大的人工智能系统。在他看来,在缺乏明确规则的情况下,这些企业“几乎没有什么保护”。
安全定位与军工合作的张力
Anthropic一直将自身定位为“安全优先”的人工智能公司,但自至少2024年起又与国防和情报机构展开合作,这种做法被问及是否存在矛盾时,Tegmark给出了肯定回答。
他表示,如果从实际行动而非对外宣传来看,Anthropic、OpenAI、Google DeepMind和xAI等公司都声称重视安全,却没有一家支持类似其他行业那样的有约束力安全监管。他举例称:
- 谷歌早年提出“不要作恶”的口号,后来予以淡化,并放弃了不将人工智能用于造成伤害的更长承诺,以便销售用于监控和武器的人工智能技术;
- OpenAI近期从其使命声明中删除了“安全”一词;
- xAI解散了整个安全团队;
- Anthropic则在本周放弃了“不在确信安全前发布强大系统”的关键承诺。
在Tegmark看来,这些变化与企业此前的公开表述形成反差。
“三明治店”与AI:监管落差的比喻
对于这些公司如何走到今天的局面,Tegmark认为,尤其是OpenAI和Google DeepMind,在一定程度上还有Anthropic,一直反对人工智能监管,并主张“相信我们,我们会自我监管”。
他用食品安全作比喻称,如果一家三明治店在卫生检查中被发现厨房有大量老鼠,监管部门会禁止其继续营业,直至问题解决;而在人工智能领域,即便企业推出面向未成年人的产品,或开发可能对社会稳定构成威胁的系统,目前监管却远不如食品行业严格。
他表示,美国目前在人工智能系统方面“处于完全的监管真空”,而历史上在缺乏约束的情况下,曾出现沙利度胺、烟草向儿童营销、石棉致癌等案例。他认为,人工智能企业过去抵制将自愿安全承诺上升为法律,最终“讽刺地反噬了自己”。
在他看来,目前没有法律禁止制造用于杀害美国人的人工智能系统,因此政府可以提出相关需求。如果这些公司早些时候主动推动立法,明确划定红线,它们可能不会陷入如今的困境。
“中国竞赛”论点遭反驳
对于企业常用的“如果美国不做,中国会做”的论点,Tegmark表示并不认同。他称,人工智能企业的游说力量在资金和规模上已超过化石燃料、制药和军工复合体的游说者,而他们经常以“中国”为理由反对更严格监管。

Tegmark提到,中国正在全面禁止“人工智能女友”类产品,不仅限于年龄限制,而是禁止所有拟人化人工智能,理由是担心其对青少年造成不利影响。他认为,这一做法并非出于对美国的考虑,而是出于对本国社会影响的判断。
在超级智能问题上,他指出,目前人类尚不清楚如何控制这类系统,如果一味加速发展,可能导致人类将对地球的控制权让渡给“外星机器”。他认为,中国共产党高度重视控制权,不太可能容忍某家中国人工智能公司制造出足以推翻政府的系统;同样,如果第一家实现超级智能的美国公司发动政变,对美国政府而言也将构成重大威胁,因此这本身就是国家安全问题。
从“资产”到“威胁”的安全视角
被问及“超级智能是国家安全威胁而非资产”的框架在华盛顿是否有可能获得支持时,Tegmark提到,Dario Amodei曾在演讲中提出“很快会有一个‘天才国家’存在于数据中心”的愿景。
在他看来,如果国家安全界人士从“国家”的角度理解这一表述,可能会将这种“天才国家”视为潜在威胁,而非单纯工具。他将此与冷战时期美苏竞赛作类比,认为当时双方在经济和军事主导权方面展开竞争,但并未进入“谁能在对方制造更多核弹坑”的第二场竞赛,因为那被视为“没有赢家的自杀式行为”。他认为,同样的逻辑也适用于不可控的超级智能。
技术进展与就业担忧
谈及人工智能发展速度,Tegmark表示,六年前他所认识的大多数人工智能专家都预测,人类距离拥有掌握人类水平语言和知识的人工智能还有几十年,可能是2040年或2050年,但这一预测已经被现实推翻。
他称,当前人工智能系统已经从“高中水平”快速提升到“大学水平”“博士水平”,在某些领域甚至达到“大学教授水平”。他提到,去年人工智能在国际数学奥林匹克竞赛中获得金牌,而这被视为人类任务中难度极高的一类。
Tegmark表示,自己几个月前与Yoshua Bengio、Dan Hendrycks及其他研究者共同发表论文,对通用人工智能(AGI)给出严格定义。根据该定义,GPT-4达到了27%,GPT-5达到了57%。他认为,虽然尚未完全达到AGI,但从27%到57%的快速提升,显示出未来可能不会太遥远。
他还提到,自己在麻省理工学院授课时提醒学生,即便相关系统在四年后才出现,也意味着他们毕业时可能面临就业压力,认为“现在开始准备绝不为过”。
行业表态与后续走向
在Anthropic被列入黑名单后,外界关注其他人工智能公司将如何回应:是公开支持Anthropic划定相同红线,还是有企业选择承接相关合同。
Tegmark提到,Sam Altman在前一晚表示支持Anthropic,并称自己持有相同的“红线”。他称赞这一表态“需要勇气”。在采访开始时,谷歌尚未就此公开表态,xAI也未发声。他认为,这一事件迫使主要参与者“必须表明立场”。
在采访结束数小时后,OpenAI宣布与五角大楼达成协议。相关协议的具体内容在采访中未被详细披露。
可能的“较好结果”路径
被问及是否存在“较好版本”的结果时,Tegmark表示,自己在某种意义上仍保持谨慎乐观。他认为,一个“显而易见的替代方案”是:将人工智能公司纳入与其他行业类似的监管框架,取消事实上的“企业大赦”。
在他设想的路径中,企业在发布极其强大的产品前,需要经过类似“临床试验”的程序,由独立专家评估并证明其具备控制能力。Tegmark认为,在这种前提下,社会有可能享受人工智能带来的“黄金时代”,而无需承受“生存焦虑”。
他同时指出,这并非当前现实路径,但“完全有可能成为未来的道路”。
