过去数十年,企业首席执行官(CEO)的职位描述相对稳定。无论互联网、移动技术还是云计算如何演进,战略制定、文化塑造、资源分配和组织设计始终被视为CEO的核心职能,技术更多被视作提升效率和执行力的工具。
随着人工智能(AI)的快速应用,这一格局正在发生变化。与以往技术不同,人工智能不仅执行指令,还参与判断和决策,直接影响客户体验、员工管理和企业战略方向。企业在部署人工智能时,不再只是引入一套软件系统,而是在组织内部嵌入一个带有特定价值观和判断标准的“决策主体”。
在这一背景下,“成为CEO”的内涵被重新界定。作为对组织思考方式和行动结果负最终责任的人,CEO被要求具备一组新的关键能力,以应对人工智能带来的结构性变化。
首席人工智能协调者
在人工智能应用上,CEO不再只是将相关事务交由技术部门处理,而是需要主动统筹企业的人工智能创新组合,在变革性项目与渐进式改进之间取得平衡。
这一角色主要体现在三个方面:
-
愿景设定:清晰阐述人工智能如何服务于企业使命,而不仅仅是降低成本。当员工理解人工智能与组织长期目标的关系时,内部采纳阻力有望降低,落地速度也更快。
-
边界设定:明确人工智能介入的范围和边界,包括哪些决策必须保留人类判断,哪些流程可以自动化。如果缺乏有意识的边界设计,组织的行为模式和文化可能被动地由外部技术产品形态所塑造。
-
文化转型:通过自身行为示范人工智能时代所需的学习心态和试错空间。当CEO公开分享自己使用人工智能的过程及其中的失误时,有助于在组织内形成鼓励实验的文化氛围,推动新技术的吸收与调整。
在实践中,企业既可能因沉迷宏大愿景而忽视短期成果,也可能因拘泥局部优化而错失结构性机会。CEO被要求同时在宏观和微观层面运作:一方面思考人工智能如何重塑行业格局,另一方面关注其如何在短期内帮助具体业务团队改进产品和服务。
商业“哲学官”
人工智能系统在运行过程中,会对“什么是真实”“什么重要”“什么被允许”作出判断。企业在引入人工智能时,实际上也在引入一整套隐含的价值体系和认识框架,这可能与企业既有的原则和实践产生偏差。
相关风险主要体现在三类“不匹配”上:
-
伦理不匹配:当人工智能吸收并放大了与企业公开价值观相冲突的偏见时,就会出现伦理风险。有案例显示,某大型科技公司曾开发基于历史数据训练的招聘算法,该系统在忠实反映既有数据模式的同时,系统性地不利于女性候选人,将过去的歧视固化为自动化决策。
-
认知不匹配:当人工智能采用的“判断真伪”的标准,与组织在其他场景中采用的标准不一致时,会造成认知层面的张力。例如,一个在医疗场景中优先依赖同行评审研究而弱化临床经验的系统,体现的是对“正式知识”与“实践经验”的特定取舍,而这些架构选择往往由远离一线的工程团队做出,却会成为组织必须长期承受的约束条件。
-
战略不匹配:当算法优化目标与企业整体战略目标发生冲突时,可能带来品牌或业务层面的风险。例如,一个以最大化广告观看次数为目标的算法,可能会将广告投放在任何高参与度内容旁,包括不利于品牌安全的内容环境。
在这种情况下,被视为“具备人工智能准备度”的CEO,需要具备一定的哲学素养,能够识别人工智能系统背后隐含的价值取向,并判断其与企业使命、文化和长期定位之间的契合程度。
矛盾的导航者
在人机协同成为常态的商业环境中,企业几乎每一个重要决策都伴随结构性张力,例如个性化与隐私保护、自动化与真实性、决策速度与审慎反思之间的权衡。
传统领导实践往往倾向于“选边站队”,即在一组价值中确定优先级,然后据此推进。但在人工智能广泛应用的情境下,单一取向往往会在其他维度产生反作用:
- 若完全优先效率而忽视就业和人才承载,企业可能失去支撑创新的机构知识;
- 若完全优先隐私而忽视个性化服务,可能在与找到平衡点的竞争对手较量中失去客户。
相关张力并不会因一次性选择而消失,而是可能以新的问题形式重新出现。由此,一种新的领导要求正在形成:在矛盾中保持张力,而非试图彻底消解。

在某些案例中,人机之间的“创造性张力”被视为创新来源。例如,在Moderna,新冠疫苗的研发过程中,人工智能用于生成mRNA序列并分析实验结果,科学家负责设计和验证实验。公开信息显示,相关疫苗设计阶段在42天内完成。相关突破被描述为人类直觉与算法分析共同作用的结果,而非任何一方单独完成。
生态系统管理者
上述能力主要聚焦企业内部,而人工智能带来的另一项要求,则指向更广泛的产业与经济生态。
在成本压力和竞争压力下,企业通过自动化削减人力、提升利润率的逻辑看似直接。然而,当这一逻辑在行业内被大规模同时采用时,就会出现集体行动层面的风险:
- 多家企业同步裁员,可能削弱整体市场的购买力;
- 被裁减的员工及其所在社区的需求下降,可能反过来影响企业产品和服务的销售前景。
与以往技术变革相比,人工智能被认为可能在更短周期内影响就业结构。有机构预测,到2026年,20%的组织将利用人工智能裁减超过一半的中层管理岗位。在这种情形下,将单个企业的裁员决策视为“在大局中无足轻重”,可能低估了叠加效应带来的系统性影响。
在此背景下,一些企业被认为可能通过“抵制单纯以裁员为导向的自动化竞赛”获得三方面优势:
-
人才吸引力:部分高技能人才更倾向于选择在技术应用上强调“增强人类”而非“替代人类”的雇主,这类企业在招聘中可能具备相对优势。
-
知识保留:流程形成原因、客户关系脆弱点、历史重组教训等机构记忆主要存在于员工之中。若大规模裁撤相关人员,企业在训练和使用人工智能系统时,可能面临“组织不再理解自身”的风险。
-
关系维护:长期积累的客户关系难以完全由自动化工具复制。保留人工服务接触点的企业,可能在客户黏性和信任方面维持与高度自动化竞争对手不同的关系结构。
在这一视角下,所谓“生态系统管理者”的CEO,被要求在评估自动化收益时,同时关注高管群体集体决策对更大经济系统可能造成的风险。
近期可执行的四项举措
围绕人工智能带来的角色变化,有观点提出了四项可在较短期内启动的行动方向:
-
采用组合策略:在人工智能项目布局上,平衡1至3个月的快速成果、3至12个月的战略性项目和12个月以上的远期探索。有数据指出,2024年已有42%的公司放弃了大部分人工智能项目,单一押注被认为风险较高。
-
价值观对齐压力测试:在部署人工智能前,围绕“数据反映了什么”“相关利益方会如何看待”“是否应该这样做”三个问题进行审视,并通过“红队演练”等方式暴露潜在的价值边界问题。
-
有意识地保护人类判断:定期安排不依赖人工智能的决策和问题解决流程,保留人类独立判断能力。同时记录决策日志,标注哪些决策由人工智能参与或主导,以便监测依赖程度的变化。
-
模拟二阶效应:在宣布因自动化而进行裁员前,评估“如果行业内其他公司同步采取类似措施”可能产生的连锁反应,包括对客户购买力、人才供给和供应商稳定性的影响。仅从单一企业效率角度优化,被认为可能忽视其所处经济环境的可持续性。
董事会对CEO的要求正在调整
在财务管理方面,不具备阅读和理解财务报表能力的候选人难以获得CEO职位。类似的门槛正在人工智能领域形成:董事会越来越关注候选人是否能够清晰阐述企业的人工智能战略,不是因为技术本身“新潮”,而是因为其正与企业整体战略深度耦合。
在这一框架下,协调人工智能项目组合、识别价值观不匹配、在结构性矛盾中保持张力等能力,被视为与财务素养同等重要的基础要求,而非技术爱好者的“加分项”。
同时,有观点指出,即便企业在人工智能应用上具备较高成熟度,若其优化方向指向一个无法支撑自身业务的经济环境——例如所在行业集体削弱了所依赖的客户、人才和社区基础——相关能力也难以转化为长期优势。
在人工智能重塑商业规则的过程中,企业能否在技术部署与经济生态可持续性之间取得平衡,正成为衡量CEO角色演变的一项重要维度。
