前OpenAI员工、人工智能研究者丹尼尔·科科塔伊洛(Daniel Kokotajlo)近日更新其对人工智能发展节奏的判断,表示能够自主编写代码并加速自身向“超级智能”演进的关键能力,出现时间可能晚于其在《AI 2027》报告中的设想。
科科塔伊洛在今年4月发布《AI 2027》报告后引发广泛讨论。该报告提出一种情景设想:人工智能在不受控制的情况下持续进化,最终诞生“超级智能”,并在智胜世界领导人后导致人类灭绝。
围绕该报告的观点,外界反应不一。美国副总统JD·万斯在去年5月谈及美国与中国的人工智能军备竞赛时,被认为似乎提及《AI 2027》。纽约大学神经科学名誉教授加里·马库斯(Gary Marcus)则将该报告称为“虚构作品”,并表示其中多项结论是“纯粹的科幻胡言乱语”。
在人工智能安全领域,“变革性人工智能”的时间表一直是常见议题。这一概念有时被称为通用人工智能(AGI),通常指能够替代人类完成大多数认知任务的人工智能。自2022年ChatGPT发布后,部分官员与专家对AGI到来的预期明显提前,时间跨度从几十年缩短至几年。
在《AI 2027》中,科科塔伊洛及其团队将2027年作为人工智能实现“完全自主编码”的“最可能”年份,但也指出团队内部有人持更长时间表。随着讨论推进,关于AGI是否迫近以及相关术语是否仍具明确意义的质疑也在增加。
国际人工智能安全报告作者之一、人工智能风险管理专家马尔科姆·默里(Malcolm Murray)表示,过去一年不少人延后了时间表,原因在于人工智能表现存在较大波动性。他称,要实现《AI 2027》所描绘的情景,人工智能需要掌握更多能在现实世界复杂环境中发挥作用的实际技能,同时现实世界存在“巨大的惯性”,可能延缓社会发生彻底变革。

法国人工智能非营利组织SaferAI执行董事亨利·帕帕达托斯(Henri Papadatos)也表示,当人工智能系统仍较为狭窄、例如专注于国际象棋或围棋时,“通用人工智能”一词更有意义;而在当前已有相对通用的系统背景下,该术语的含义不如以往清晰。
《AI 2027》的核心设想之一是:到2027年,人工智能代理将实现对编码与人工智能研发的完全自动化,从而触发“智能爆炸”,即人工智能代理不断创造更聪明的版本。在该报告的一种可能结局中,超级智能于2030年中期杀死所有人类,以腾出空间安装更多太阳能电池板和数据中心。
不过,在最新更新中,科科塔伊洛及其合著者将“完全自主编码”更可能出现的时间调整为2030年代初,而非2027年;同时将“超级智能”的时间点推迟至2034年,并未再对人工智能可能毁灭人类的具体时间作出猜测。
科科塔伊洛在X平台发文称,相关进展“似乎比《AI 2027》情景稍慢”,并表示其团队在发布报告时给出的时间表本就比2027年更长,如今又进一步延长。
尽管时间表出现调整,打造能够开展人工智能研究的人工智能仍是领先企业的明确目标。OpenAI首席执行官萨姆·奥特曼(Sam Altman)去年10月表示,在2028年3月前拥有自动化人工智能研究员是公司的“内部目标”,但他同时称“可能完全无法实现这个目标”。
驻布鲁塞尔的人工智能政策研究员安德里亚·卡斯塔尼亚(Andrea Castagna)则指出,激进的AGI时间表未能涵盖许多复杂因素。他表示,即便拥有专注于军事活动的超级智能计算机,也不意味着能够将其直接纳入过去20年形成的战略文件体系,并称随着人工智能发展,人们愈发意识到现实世界远比科幻叙事复杂。
