OpenAI 首席执行官 Sam Altman 于 2026 年 2 月 19 日出席在印度新德里举办的「India AI Impact Summit 2026」,并在演讲中首次对人类将何时迎来远超人类智能的「超知能(Super Intelligence)」给出了相对明确的时间预期。
他在演讲中表示:
“If we are right by the end of 2028 more of the world's intellectual capacity could reside inside of data centers than outside of them”
(如果我们的判断是正确的,那么到 2028 年底,世界上的智力能力将有一半以上存在于数据中心之中,而不是人类大脑之中。)
这一表述意味着,在研究、设计、推理、决策、代码生成等各类智力活动中,AI 系统在数据中心内完成的工作总量,可能会超过人类亲自完成的部分。
“数年之内”出现早期超知能
阿尔特曼还谈到真正意义上的超知能早期形态,称其可能会在 “a couple of years(数年之内)” 出现。
他指出,仅在一年前,AI 系统在高中水平的数学上仍然表现吃力,而如今已经能够处理研究级别的数学问题和理论物理课题。如果这种进步速度得以延续,AI 将有能力在更大范围内自动化完成专家级的智力工作。
“比 CEO 更会当 CEO”的超智能
在谈到超知能的能力上限时,阿尔特曼给出了更具冲击力的判断:
“A super intelligence at some point on its development curve would be capable of doing a better job being the CEO of a major company than any executive certainly me or doing better research than our best scientists”
(在其发展曲线的某个阶段,超知能将能够比任何一位高管——当然也包括我自己——更适合担任大型企业的 CEO,也能做出比我们最优秀科学家更出色的研究。)
这意味着,企业高层决策、前沿科研等传统意义上的高端专业岗位,其角色和分工都可能在超知能出现后被重新定义。

集中化风险与“民主化”访问
与此同时,阿尔特曼也强调了 AI 能力过度集中带来的风险。他以“用癌症治愈方案换取全体主义(totalitarianism in exchange for a cure for cancer)”为例,提醒人们警惕强大技术与权力高度集中之间的危险交换。
在他看来,AI 的能力不应被少数国家或大型企业垄断,而应尽可能以分散、开放的方式向更多人提供访问和使用权,从而降低技术被滥用或形成极权控制的风险。
经济结构与劳动形态的重塑
谈到 AI 对经济的影响时,阿尔特曼给出了一句颇具象征性的评价:
“It'll be very hard to outwork a GPU in many ways”
(在很多方面,人类将很难比一块 GPU 工作得更卖力、更高效。)
随着 AI 能力不断提升,智力劳动的生产率有望大幅提高,许多实体产品和服务的成本也可能随之下降。但与此同时,在大量工作场景中,计算资源的效率将明显超过人类个体,这会对现有的劳动分工、薪酬结构以及就业形态带来深远影响。
全球治理框架与印度的潜在角色
在安全与治理层面,阿尔特曼认为,未来需要类似 IAEA(国际原子能机构)那样的全球性机构来对 AI 尤其是超知能的发展进行协调与监管。
他还特别提到印度在 AI 时代可能扮演的重要角色:一方面,印度拥有庞大的 ChatGPT 用户群体,另一方面,其工程与技术人才储备也十分可观。这些因素使得印度有机会在推动 AI 的广泛、民主化应用方面发挥关键作用。
总体来看,这次演讲最大的意义在于:阿尔特曼不再将超知能仅仅描述为一个模糊的远景,而是明确给出了“到 2028 年底”这一时间节点。关于“全球过半智力劳动或将由 AI 承担”的判断,也使围绕 AI 发展速度、社会影响和治理模式的讨论进入了一个更为紧迫和具体的新阶段。
