人工智能培训从业者:有效使用AI关键在于把它当作技能而非捷径

richlovec 1500_400 (1)
 

在为团队提供人工智能(AI)培训的过程中,伦敦人工智能培训公司General Purpose的创始人兼首席人工智能官汤姆·休伊特森(Tom Hewitson)观察到,职场对AI的使用正在出现分化:一类人将任务几乎全部交给系统、减少独立思考;另一类人则选择完全不使用;还有一类人尝试以批判性方式与AI协作,将其视为需要管理与支持的“聪明实习生”。

休伊特森称,这种差异往往并非由技术能力决定,更常见的分界在于好奇心与试错意愿,即是否愿意持续尝试并弄清AI真正擅长与不擅长的领域。

认识AI的工作方式是使用效果的前提

休伊特森表示,他接触到的用户常在两种极端之间摇摆:要么把AI当作无所不知的“神谕”,要么在遭遇一次错误后就全盘否定。

他指出,当前的大型语言模型主要依据训练数据中的模式来预测词语,因此在常见话题上能够生成流畅文本,但在不熟悉的领域可能会“自信地编造内容”。在他看来,一旦用户理解这一点,使用方式通常会转向为AI提供更明确的目标与更充分的上下文;而当有人反馈“输出都是垃圾”时,原因往往是使用了过于通用的提示,从而得到通用答案。

将AI视为需要学习的技能,而不是“魔法盒子”

休伊特森称,能取得更好效果的用户通常把AI当作一项需要持续练习的技能,而不是一个“要么有效要么无效”的工具。他表示,表现更好的使用者往往每天都在尝试,并复盘如何在下一次获得更好的结果。

他强调,目标应是让机器为人工作,而不是替人思考,这意味着在使用过程中保持积极、批判与投入。

“人类在环”:指导、反馈与纠正不可缺位

休伊特森认为,许多人其实已经具备使用AI所需的关键能力,即沟通与委派。他将AI比作实习生:不会把项目交出去就不再过问,而是需要拆分任务、定期检查,并在必要时调整方向。

他同时指出,最终对产出负责的是使用者本人,这也是“人类在环”(human-in-the-loop)的核心含义:确保AI在正确轨道上运行,并使结果符合标准。

不外包判断力,避免输入敏感数据

在风险层面,休伊特森提到,几个月前他曾遇到一家小型零售连锁的经理展示其用AI制作的人力资源(HR)仪表盘,但对方将敏感信息导入系统,未充分考虑数据泄露后果或合规政策。他表示已要求对方与IT部门沟通处理。

他还称,风险不仅限于安全。由于AI系统训练于人类生成的数据,可能反映人类社会的偏见,因此不应让AI承担“是否让候选人进入面试”等可能带有偏见的主观判断;相对而言,可将其用于更偏事实性的核对,例如评估候选人是否具备足够的工作年限。

回避AI并不能消除其影响

休伊特森表示,AI在环境、伦理与社会层面的影响正在扩大。他提到,在近期为一家环保慈善机构举办的会议上,一位主管在组织能力提升与运行AI系统带来的碳排放等道德成本之间感到为难。

不过,他认为AI不会消失。具备AI素养的公众能够推动其以更负责任、更民主的方式被构建与使用,而不是选择忽视。他将AI形容为“已经在旅途中”的事物,并提出关键在于“由谁来掌舵”。

技术迭代加速,社会应对需同步推进

休伊特森称,当前的AI处于其“最差的状态”,但进步速度远超多数人的想象。他举例称,一年前难以完成的任务如今已变得常规;过去需要熬夜调试的代码问题,现在可能通过几个提示在数小时内完成应用搭建。

他还提到,去年不少开发者曾嘲笑Anthropic首席执行官关于“90%的代码将由AI编写”的说法,但如今不少人承认这一判断并非夸大。

在他看来,与以往技术革命相比,此轮技术扩散速度更快:从蒸汽机到机车历时约一百年,从法拉第的电磁感应到爱迪生的发电厂约五十年,而当下从突破到全球普及的时间差可能只有数月。他表示,社会与民主层面的应对需要与技术进步同步推进。

休伊特森称,影响AI如何改变世界的人不一定是技术专家,也可以是愿意尝试并认真对待能力与风险的人。他表示,公众不仅需要理解AI,也应推动雇主、社区与政府以不让任何人掉队的方式使用相关技术。

汤姆·休伊特森为总部位于伦敦的人工智能培训公司General Purpose的创始人兼首席人工智能官。


分享:


发表评论

登录后才可评论。 去登录