AI在企业中的应用正快速扩张,从处理繁琐的日常事务,到参与内容创作等更具创意的工作场景。然而,围绕其使用的核心问题并非“能不能用”,而是“应不应该用、在什么边界内使用”。
近期,多家公司的实践凸显了这一矛盾。语言学习平台Duolingo曾宣布,将逐步用AI生成内容替代自由撰稿人和翻译人员。此举引发公众反弹,一些用户反馈称,AI生成的课程内容公式化,缺乏文化细微差别。随后,Duolingo对外澄清其立场。
该公司CEO Luis von Ahn表示,他并不认为AI会取代员工的工作,而是视其为一种在保持相同或更高质量前提下,加速工作的工具。这一表态反映出部分企业在实践中逐步调整对AI角色的定位。
有企业管理者指出,单纯因为AI“能够”完成某项任务就将其完全交给AI,与出于担忧而完全抵制AI一样,都可能带来风险。对于强调自动化的公司而言,关键在于帮助员工形成判断:在何种情境下应依赖AI提升效率,何时必须依靠人的洞察力和主观判断。
明确AI边界,保留人的最终责任
目前的经验显示,许多与AI相关的失误,往往出现在其使用过程缺乏透明度的情况下。员工可能对AI产生过度依赖,将本应由人主导的创造力、同理心以及主观判断等环节,交由AI处理。
在此背景下,企业被认为需要制定清晰的AI使用政策,并确保所有员工可以方便获取和理解,而非将其束之高阁。部分公司通过内部备忘录的形式,概括AI相关原则。
例如,Shopify CEO Tobi Lütke在一份简短的内部备忘录中,将公司“AI优先”策略概括为:在请求增加人手和资源之前,团队必须先证明为何无法通过AI完成所需工作。
有公司则采用更为频繁和多元的沟通方式。以Jotform为例,管理层除了定期发布备忘录,还在每周全员会议中通过聊天和演示,介绍AI相关更新、获准使用的工具以及正确使用案例,并分享偶发的失误情况。
无论采用何种形式,管理层被要求在各类沟通场合中,明确界定AI在决策中的信息提供角色,以及由人类作出最终决定的范围和责任。

将制度与实际使用场景结合
制定正式或非正式的AI政策只是起点,企业还需要观察这些政策在具体业务流程中的运行效果,并据此调整。
管理层的一项任务,是引导团队持续评估AI在实际工作中的优势与局限。当AI在某些环节暴露出不足时,企业需要重新审视使用策略。
招聘领域的实践是一个典型例子。部分组织曾利用AI提升招聘效率,初期结果显示,公司可以面试更多候选人,更快识别出看似更合适的人选。但在实际操作中,招聘团队也发现了问题,包括算法内置偏见,以及因筛选标准过于严格而无意排除高素质候选人。面对这些情况,一些公司开始调整AI在招聘流程中的角色,并重新强化人工判断的权重。
在不同业务条线中,对AI优劣势的评估被视为员工与管理层之间应持续进行的对话。企业可以鼓励员工尝试新工具并分享经验,同时安排定期回顾,避免不当或低效的使用方式长期存在而未被发现。
通过明确责任防止“无人负责”
随着AI工具被嵌入日常流程,责任边界模糊也成为潜在风险之一。例如,当AI驱动的聊天机器人向客户提供了过时信息时,责任主体并不总是清晰:是技术团队、业务团队,还是“系统本身”?如果简单将问题归咎于AI,往往不利于后续纠正和改进。
一些企业通过明确责任人来应对这一问题。在Jotform,每个团队会指定一名人工“负责人”监督AI辅助产出的结果。该负责人对任务的正确执行负有直接责任,但团队其他成员仍需参与审查和完善输出内容。
企业还可以在项目流程中增加与AI相关的审查环节,例如在检查清单中加入“AI结果核查”步骤,要求对事实和信息来源进行验证。对于重要程度较高的任务或项目,安排两名人工进行复核也被视为一种可行做法。
通过这种共享责任机制,企业试图确保最终成果仍由团队负责,而非由AI“背锅”。Alphabet CEO Sundar Pichai曾表示,人们不应盲目信任AI。相关表态强调,AI应被视为增强人类判断的工具,而非替代品,团队需要在使用AI的同时,保持警惕并对由此产生的决策结果承担责任。
