在人工智能时代,人类需要掌握哪些能力才能不被机器取代?

人类优势来自“人类技能”,而不是和机器比谁更像机器

校友、作家兼机器学习专家 Vivienne Ming 指出,要抵御人工智能可能带来的负面冲击,最有效的策略是:持续投资于人类自身的能力,并以好奇、探究的态度主动使用人工智能,而不是被动接受它给出的答案。

当 OpenAI 在 2022 年推出 ChatGPT 时,这一事件被视为人工智能发展的重要转折点。该工具在两个月内用户数就突破 1 亿,成为当时增长最快的消费级应用。随着此类工具迅速融入日常生活,越来越多的美国人对人工智能持谨慎甚至担忧态度,而非单纯兴奋。

Ming 于 2000 年毕业于加州大学圣地亚哥分校社会科学学院,主修认知科学。她认为,人们对人工智能保持警惕有充分理由。

作为理论神经科学家、发明家和企业家,Ming 在新书《机器人防护:当机器拥有所有答案时,培养更优秀的人类》中系统讨论了这些问题。这本书既是写给公众的提醒,也是写给人工智能开发者的警钟。

“我们必须谨慎,别让自己构建的技术,自动化掉那些真正让我们成为‘人类’的核心能力。”她说。

同时,她也非常清楚人工智能的巨大潜力。她曾利用人工智能帮助孤儿难民与远方亲属团聚;也曾改造儿子的糖尿病设备,发明了首个针对 1 型糖尿病的人工智能系统。

她承认,随着更多工作被自动化,经济结构必然会受到冲击。但她最担心的并不是“工作消失”本身,而是整个机器学习行业的方向:巨量资源被用来让人工智能变得更聪明、更自主,却很少真正围绕“人”来设计。

在她看来,最好的结果往往出现在:人工智能与具备某些传统教育体系常常忽视的能力的人类协作时——例如好奇心、创造力、伦理判断、换位思考,以及提出更好问题的能力。

最近,她在接受母校采访时,进一步谈到了这本书,以及人类如何以更有利于自身发展的方式与人工智能共处。


这不是“又一次工业革命”

问: 人工智能革命与工业革命、个人计算机革命、互联网兴起等早期技术变革相比,有什么根本不同?

Ming: 我在书里专门写了一章,标题就叫“这不是工业革命”。人们常用一个很偷懒的类比:“以前大家也抱怨过计算器,现在不也挺好吗?”好像一切只是历史重演。

但这次并不一样。计算器不会替你思考,它只是帮你做低层次的运算,你仍然需要用这些结果去推理、决策——你的认知活动依然在运转。

现在的情况不同了。现代具备“代理性”的系统,乐意替你把整件事都做完。危险在于,人们开始在可测量的层面上“退出思考”。

回顾印刷术、计算机、互联网等技术,我们确实看到人类认知方式的细微变化。但到了 GPS 和算法推荐时代,这种变化已经可以被清晰测量,而且坦率地说,更令人担忧。人们在使用这些工具时,思维方式发生了改变,这一点让我非常不安。

人工智能这次直接击中了我们的“认知核心”。它不只是自动化体力劳动,也不只是接管一些枯燥的低级认知任务,而是有能力自动化整个思考过程——这在历史上是全新的。这意味着,我们必须更认真地思考:到底要自动化什么,又要刻意保留和增强什么。

当然,有很多事情理应被自动化——没人应该每天在田里弯腰干 16 小时。但我们要警惕的是,不要让技术顺手把那些让我们真正“像人”的能力也一并自动化掉,尤其是在我们本可以把它当作“增强型伙伴”来使用的时候。


人工智能政策争论,忽略了最关键的问题

问: 你提到写这本书,是因为当前关于人工智能的政策讨论,往往没有从“对人类最有利”的角度出发。我们到底错在哪里?

Ming: 一边是人工智能的“乌托邦派”——相信只要挥动人工智能的魔杖,一切都会变好:不用再工作、疾病被彻底消灭……这种想法非常不现实。我把它叫作“想象力疾病”:

“我能想象一个完美世界,所以它一定会发生。”

当这种想象再叠加上数万亿美元的投资压力,问题就更严重了,因为人类社会根本承受不了那种单一方向的期待。

另一边是“反乌托邦派”:人工智能会毁灭人类、抢走所有工作、摧毁一切。我在这个领域已经工作了 30 年,用人工智能帮助儿子控制糖尿病,帮助难民,干预双相情感障碍、产后抑郁、更年期抑郁。我早期还参与过用人工智能改进人工耳蜗,让人们在嘈杂环境中也能听清语音。基于这些经历,我也不认同那种简单粗暴的“末日论”。

真正的问题在于:几乎没人讨论我认为最重要的视角——

如果把人工智能视为一种强大的“认知工具”,那么关键问题就变成:它如何让人类变得更好?

接下来才是:这对教育、劳动力政策、基础设施等意味着什么?这些才是我们应该集中讨论的方向。


实验发现:只有少数人会把自己变成“半机械人”

问: 你在书中提到做过一个实验,想找出哪一类人最善于使用人工智能。结果如何?

Ming: 我们做了一个实验,让一组加州大学伯克利分校的学生在一小时内完成 10 个“未来预测”任务,比如:六个月后油价会是多少?

人类在这种任务上表现一贯很差,这并不意外——我们本来就不擅长预测自己不了解的事情。我们用的一个非常小的开源模型,就已经明显优于表现最好的学生。模型越大、越复杂,预测表现越好。

接着,我们观察所谓的“混合智能”——人和人工智能一起工作时的表现。结果出现了两种截然不同的模式:

  • 一类人我们称为“自动化者”:他们基本上是“Gemini / GPT,给我答案,我直接交上去”。他们几乎不参与思考。

  • 我给其中几位戴上脑电图(EEG)设备,结果显示,他们在使用人工智能时的认知活动水平,明显低于那些自己独立推理,或者只是用谷歌搜索的人。

  • 另一类大约占伯克利学生的 10%,我们称之为“半机械人”:

    • 他们会和人工智能来回“辩论”——“那这个情况呢?”
    • 人工智能回答:“但数据表明……”
    • 他们再追问:“那如果不是这样,而是那样呢?”

他们不断探讨“为什么可能错”,而不是直接接受答案。结果是:

这些“半机械人”团队的表现,超过了最优秀的人类个体,也超过了最好的模型。

甚至有三名完全没有相关背景知识的学生,他们的预测表现,已经接近大型预测市场——那种有数万人参与下注的市场。这非常令人振奋。

但问题在于:

这类“半机械人”只占少数。

这意味着,我们不能简单说“人工智能会让所有人都变得更好”。我们必须进一步追问:是什么促成了“半机械人模式”?我们如何让更多人以这种方式使用人工智能?


决定成败的不是模型,而是“人怎么用”

问: 你说过,关键不在于用哪一个人工智能模型,而在于如何使用它。这对当前投入巨资打造更大模型的行业意味着什么?

Ming: 在实验中,一个最出乎意料的结果是:

无论参与者用的是最先进的大模型,还是较小的开源模型,对最终表现几乎没有影响。

真正重要的是:人类如何与人工智能互动。

现有的人工智能基准测试——也就是公司们拼命优化的指标——已经无法预测“混合智能”的表现。结果更多取决于“人力资本”:也就是人们在与人工智能交互时,带来的技能、习惯和思维方式。

这点非常关键,因为目前几乎所有大型公司都在围绕“自主性”来优化系统。

看看各种模型卡和基准测试:几乎全部关注“系统自己能做到什么”。但如果只围绕“自主性”来设计人工智能,从人类角度看,这是一条死路。

如果我们的目标是“让人类变得更好”,那么我们应该构建的是:

具有“建设性摩擦”的系统——它会挑战你、推动你探索,而不是只给你一个现成答案。

但这类系统在“自主性”基准测试上,分数必然不高,因为它们不是自己把所有事情做完。

从行业视角看,这意味着:

  • 我们在测量错误的指标;
  • 我们在朝错误的终点努力;
  • 我们忽略了最有价值的一类应用场景——真正能提升人类能力的那些用法。

真正的风险:长期的“认知能力下滑”

问: 你说,你最大的担忧不是科幻式的“人工智能接管世界”,而是人们过度被动依赖人工智能,把它当作批判性思维的替代品,从而在长期出现认知能力下降。能具体解释一下吗?

Ming: 认知能力下降是一个长期过程,并不是“孩子问了一次人工智能作业答案,就完蛋了”那种戏剧化情节。

更像是一种“生活方式问题”。

人们偶尔浅层使用工具没什么问题——我们不可能一直保持高强度思考,那会非常疲惫。真正值得担心的是,当这种“浅层使用”变成默认模式,认知参与长期处于极低水平时,会发生什么。

在我们的实验中,“自动化者”基本上把人工智能当作“替代品”:拿到答案就交卷,几乎不再思考。

在实验室之外,你也能看到类似现象:

  • 不停刷信息流;
  • 被动消费各种输出;
  • 很少问自己:“我为什么相信这个?”“这里缺了什么?”“有没有别的可能?”

所谓的认知能力下降,可能表现为:

  • 对世界的参与度降低;
  • 失去与不确定性“搏斗”的习惯;
  • 越来越不愿意、也不擅长检验自己的想法。

随着时间推移,这才是真正严重的损失。


如何成为“半机械人”,而不是被动的“自动化者”?

问: 怎样才能更建设性地使用人工智能,成为“半机械人”,而不是陷入认知下降的“自动化者”?

Ming: 核心在于:

人和人工智能必须真正“协作”——人类挑战人工智能,人工智能也挑战人类——这样才能得到比任何一方单独行动都更好的结果。

我们做过一个简单的干预实验:

  • 选用一个小型开源模型;
  • 微调它,让它不要直接给出答案,而是先向学生提问,逼他们多想一想。

学生们一开始非常不满:

“别装苏格拉底了,直接告诉我油价!”

但结果是:

  • 使用这种“爱提问”的模型的学生中,进入“半机械人模式”的比例翻了一倍;
  • 他们的表现达到了“超人”水平。

这给了我们一个重要提示:

目标不是“舒服”,而是“建设性摩擦”。

要用人工智能来挑战你,而不是只用它来肯定你的第一反应。

一个很实用的例子,是我写作时用的“死敌提示”:

  1. 我不会让人工智能直接写章节,而是先自己写一稿;
  2. 然后对人工智能说:
    • “你是我一生的死敌,你找到了我所有的错误。这是草稿,请详细指出我哪里错了,怎么改进。”
  3. 接着再反转角色:
    • “现在你是一个无聊的普通读者。告诉我这篇东西为什么对你毫无吸引力,以及如何在不降低深度的前提下,让它更有趣。”

这和“帮我写一章”或“直接给我答案”是完全不同的用法。

现在很多宣传口径是:“人工智能会帮你做完所有无聊的工作,让你只做有趣的部分。”

但在“半机械人”模式下,人类也要参与“无聊的部分”——因为:

如果你从不参与那些基础、琐碎的环节,你就很难真正理解“有趣的部分”。


在人工智能时代,如何教育孩子?

问: 对于希望孩子在人工智能时代也能茁壮成长的家长和教师,你有什么建议?

Ming: 我在书里提到,我们当前的教育体系,基本是围绕“明确的问题”设计的:

  • 题目问法清晰;
  • 我们已经知道标准答案或解题公式;
  • 然后根据孩子复述“正确答案”的程度来打分。

但现在,我不再需要这种教育模式了。

我口袋里有一个免费工具,能给出比大多数人更好、更快、更便宜的标准答案。

这并不意味着孩子不需要学习基础知识——基础依然重要。但“教育的重心”已经发生了变化。

剩下真正需要人类去做的,是:

探索未知——处理那些“模糊的问题”。

要做到这一点,孩子需要:

  • 愿意偶尔犯错;
  • 保持好奇心;
  • 拥有“知识上的谦逊”——听到“你错了”时,会感到好奇,而不是崩溃;
  • 具备换位思考能力——理解别人怎么想,也理解别人如何看待你的想法。

其中一部分能力,来自早期发展:

  • 丰富的对话;
  • 大量阅读;
  • 多样化的环境和经历;

这些有助于打好工作记忆和流体智力的基础。之后,更多的是“维护”和“练习”。

可以做一些非常具体的事情:

  • 奖励“好问题”,而不仅仅是“好答案”;
  • 在课堂和家庭中,刻意营造重视提问的文化;
  • 鼓励“建设性的失败”。

例如,可以尝试“失败日记”:

  • 不是美化失败,而是把错误和“学习、进步”联系起来;
  • 帮助孩子把错误视为信息,而不是羞耻。

在日常生活中,也可以不断强化这种思维方式:

  • 用 GPS 导航,但不要完全放弃自己的判断;
  • 偶尔检查路线,问自己:“我知道更好的路吗?”“为什么选这条?”

在享受便利的同时,刻意保持大脑的参与度。


总结:在人工智能时代,最值得投资的是“人本身”

Ming 的核心观点是:

  • 人工智能既不是自动带来乌托邦的魔法,也不是必然通向末日的灾难;
  • 真正关键的是,我们如何设计和使用它;
  • 决定成败的,不是模型参数有多大,而是人类是否具备好奇心、批判性思维、伦理判断和换位思考等“人类技能”;
  • 最值得担心的风险,不是机器“接管一切”,而是人类主动放弃思考,把自己的认知能力一点点外包给机器。

在这样的时代,最好的“防护”不是拒绝人工智能,而是学会与之协作,成为能与机器共同进化的“半机械人”。


分享:


发表评论

登录后才可评论。 去登录