黄金周值得一读的两本新书:从“超智能风险”到“技术与国家”的AI大讨论

在黄金周前夕,日本接连出版了两本围绕人工智能未来展开讨论的新书,它们从截然不同的角度切入,却共同勾勒出当下AI争论的广度与深度。一部是聚焦“超智能风险”的《超知能AIをつくれば人類は絶滅する》,作者为以研究AI安全著称的埃利ーザー・ユドコウスキー(Eliezer Yudkowsky);另一部则是由 Palantir Technologies CEO アレックス・カープ(Alex Karp)撰写的《テクノロジカル・リパブリック 国家、軍事力、テクノロジーの未来》,从国家、军事实力与技术的关系切入,讨论AI与地缘政治的未来走向。


《超知能AIをつくれば人類は絶滅する》:人类能否真正控制“超越人类的智能”?

这本书由机器智能研究所(MIRI)的共同创始人埃利泽·尤德科夫斯基等人撰写,系统梳理了开发“超智能AI”可能带来的生存风险。作者在开篇就指出,如今“AI引发的人类灭绝风险”已被与大流行病、核战争并列为全球性重大议题,而现实中的AI开发正不断逼近“超越人类智能”的门槛,这一趋势本身就值得高度警惕。

书中强调,AI的危险并不在于它会像科幻作品那样“憎恨人类”,而在于它可能拥有与人类完全不同的目标,并以极端高效的方式去贯彻这些目标。一旦这种目标与人类的生存和价值发生冲突,其行为就可能对人类造成灾难性后果。

作者不时使用非常强烈的表述,例如:如果按照与当前主流AI技术“稍有相似”的方式去构建人工超智能,“地球上所有人类都有可能因此丧命”。通过这种近乎极端的警示,书中不断强调AI安全(alignment,对齐)问题的严峻性。围绕这一议题的讨论,也被认为深刻影响了包括 Sam Altman 在内的多位当下AI开发核心人物。

全书分为三大部分:

  • “非人类的智能”:讨论AI能力的本质,以及机器智能与人类智能在结构和动机上的根本差异。
  • “某种灭绝情景”:描绘超智能失控可能出现的路径与场景,试图让读者具体理解“灭绝风险”并非抽象威胁。
  • “直面困难”:分析为何停止或放缓相关开发极其困难,并探讨在现实政治与产业格局下,人类还能做些什么。

通过这种层层递进的结构,作者试图让读者从“AI很强”这一直观印象,走向“超智能为何可能不可控、以及这对人类意味着什么”的更深层思考。

5210513.jpg

《テクノロジカル・リパブリック 国家、軍事力、テクノロジーの未来》:技术究竟应服务谁?

与前一本聚焦“终极风险”的作品不同,《テクノロジカル・リパブリック 国家、軍事力、テクノロジーの未来》则将视角拉回现实世界的权力结构与国家安全。作者是 Palantir Technologies 的CEO 亚历克斯·卡普,他在书中强烈主张:必须重新构建“技术与国家”的关系。

卡普批评,当下的硅谷过度围绕“面向消费者的服务”进行优化,刻意与国家安全、社会基础设施等领域保持距离。这种倾向在他看来,削弱了自由主义阵营在创新与地缘政治上的优势,使得关键技术能力与国家战略出现脱节。

在AI快速崛起的背景下,作者认为,人类第一次面临来自技术本身、对“人类优势地位”的实质性挑战。在这种局面下,如果仍将技术发展完全交由市场逻辑驱动,而缺乏与国家层面的协同与约束,将可能带来严重后果。因此,他主张应进入一个“技术与国家深度联动”的新阶段。

全书大致沿着以下脉络展开:

  • 回顾硅谷的形成历史,分析其价值观与商业模式如何塑造了当今的科技产业;
  • 反思美国社会与科技产业之间关系的扭曲,尤其是科技公司与国家安全之间的紧张与疏离;
  • 提出以工程文化为基础,重建“技术立国”路径的设想,主张将关键技术置于国家战略的核心位置。

在这一框架下,AI不再只是“提高效率的工具”,而是与国家安全、军事力量、国际秩序紧密相连的战略资源。技术应由谁掌控、为谁所用、在怎样的规则下运作,成为书中反复追问的核心问题。

9784296124862.jpg

从“灭绝风险”到“国家战略”:AI讨论的广阔光谱

这两本新书都以AI为主题,却代表了当下围绕人工智能展开讨论的两端:

  • 一端是以尤德科夫斯基为代表的“超智能风险”视角,将目光投向人类长期存续与文明走向,强调对齐问题与生存风险;
  • 另一端则以卡普为代表,从现实政治与安全出发,将AI视为国家竞争与制度博弈中的关键筹码。

对于希望在黄金周期间系统思考“AI究竟会把人类带向何方”的读者而言,这两本书提供了彼此张力十足、却又相互补充的两种视角:既有对遥远未来的极端情景推演,也有对当下制度与权力结构的现实审视。通过对照阅读,或许能更立体地理解,当我们谈论“AI的未来”时,究竟在谈些什么。


分享:


发表评论

登录后才可评论。 去登录