企业在AI应用中把握“信任边界”的管理之道

richlovec 1500_400 (1)
 

AI在企业中的应用正不断扩展,从处理繁琐的日常事务,到参与内容创作等更具创造性的工作。然而,围绕“AI能做什么”与“AI该不该做这些事”的讨论在各类组织中持续存在。

以语言学习平台Duolingo为例,该公司曾宣布将逐步用AI生成内容,替代自由撰稿人和翻译。此举引发公众反弹,一些用户反馈称,AI生成的课程内容公式化明显,缺乏文化细节。随后,Duolingo对外澄清,公司并非意在用AI取代员工,而是将其视为提高效率的工具。

该公司CEO Luis von Ahn表示,他不认为AI会取代员工的工作,而是认为AI可以在保持甚至提升质量的前提下,加速现有工作流程。这一表态反映出部分企业在实践中形成的共识:如果仅仅因为AI“能做”,就将任务完全交给AI,其风险与完全拒绝使用AI同样值得警惕。

一些以自动化为核心的企业管理者指出,员工需要在实践中形成判断力,学会在何种情境下利用AI加速推进工作,何种情境下必须依赖人类的经验和洞察。围绕这一目标,企业正在从制度设计、流程管理和责任划分等多个层面进行探索。

明确责任主体:AI参与不等于责任转移

当前的使用经验显示,AI相关错误往往发生在“看不见”的环节。员工可能在创意构思、同理心沟通以及需要主观判断的任务中,过度依赖AI输出,而这些领域仍高度依赖人类的参与。

因此,多家企业开始制定清晰的AI使用政策,并强调这些规则必须对全体员工透明、易于获取,而非停留在形式化的内部文件中。有公司通过内部备忘录的方式,简明阐述AI优先策略和使用边界。

例如,Shopify CEO Tobi Lütke在一份内部备忘录中提出,团队在申请增加人手和资源之前,需要先证明为何无法通过AI完成相关工作。这类表述在企业内部为AI的使用设定了基本原则:优先考虑AI工具,但并不意味着放弃人工判断。

在在线表单公司Jotform,管理层则通过定期备忘录和每周全员会议,持续向员工更新AI相关政策和工具清单,并通过聊天和演示分享正确使用AI的案例,偶尔也会展示使用不当的实例。管理层在这些场合中反复强调,哪些决策可以由AI辅助,哪些必须由人来最终拍板。

无论采用何种形式,企业管理者都在尝试通过制度和沟通,划清AI辅助决策与人类决策之间的界限,确保责任主体始终是人,而非技术本身。

将制度落到实处:在真实场景中反复试错

制定正式和非正式的AI政策只是起点,关键在于观察这些规则在实际业务流程中的运行效果,并据此不断调整。

有管理者指出,领导层需要引导团队持续评估AI在具体工作场景中的优势和局限。当问题暴露时,应及时检视并修正既有策略。招聘领域的实践是一个典型例子。

不少组织曾尝试利用AI提升招聘效率。初期结果显示,AI工具帮助企业在更短时间内筛选更多候选人,并更快锁定部分“高潜力”人选。但在实际操作中,招聘团队也发现了潜在问题,包括算法偏见,以及因筛选条件过于严格而将部分高质量候选人排除在外。

在此背景下,一些公司开始调整AI在招聘流程中的角色,重新赋予人力资源团队更大的决策权和审核权。相关案例显示,在所有业务领域,围绕AI优劣势的评估应成为员工与管理层之间的持续对话,而非一次性决策。

企业内部也在鼓励员工主动尝试新工具,并分享使用经验。管理层则通过定期回顾和检查,识别不当或低效的使用方式,避免问题长期积累。

建立持续对话与问责机制:AI输出仍需人类“兜底”

随着AI工具被嵌入越来越多的业务流程,责任边界有时会变得模糊。例如,当AI客服机器人向客户提供了过时信息时,责任由谁承担,以及由谁负责防止类似情况再次发生,并不总是清晰。

有企业管理者指出,如果将责任简单归咎于AI本身,往往会延误纠错和改进。相反,明确且共享的责任机制,有助于防止团队将任务和所有权完全外包给技术。

在Jotform,每个团队会指定一名人工“负责人”,对AI参与生成的成果进行监督。该负责人负责确保任务按要求完成,但团队其他成员仍需共同参与审查和完善输出结果。

一些企业还在项目流程中增加了专门的AI审核环节,将事实核查和来源验证写入检查清单。对于重要程度较高的任务或项目,安排两名人工审核员进行复核,也被视为一种额外的安全措施。

通过这类安排,企业试图确保最终结果仍由团队共同承担,而不是由AI“独自负责”。有观点援引Alphabet CEO Sundar Pichai的表述指出,人们不应对AI抱有“盲目信任”。在这些企业看来,AI被定位为增强人类判断的工具,而非替代品,团队需要在使用过程中保持警惕,并对借助AI做出的决策承担责任。

在这一框架下,如何在效率与风险之间取得平衡,如何在信任与审慎之间划定边界,正成为企业在推进AI应用时持续探索的议题。


分享:


发表评论

登录后才可评论。 去登录