企业管理层正面临AI生成内容快速增加带来的识别与治理挑战。安永(EY)首席创新官Depa表示,在其日常工作中,用于判断内容是否可能由AI生成的最可靠线索,并非依赖复杂检测工具或隐蔽水印,而是观察文本或材料是否“过于流畅、完美或可预测”。
Depa将这一方法概括为一个核心信号:当内容呈现出教科书式的清晰与顺滑、缺少人类表达中常见的细微瑕疵与个性化特征时,他会提高警惕,认为模型可能完成了主要写作工作。他指出,真实的人类产出往往带有不对称与个人风格,例如客户备忘录中意想不到的措辞、推介材料中略显笨拙的图表等;当这些特征消失,内容即便技术上正确,也可能显得异常普通。
在Depa看来,“过于完美”的判断并非出于对杂乱无章的偏好,而是一种模式识别。他表示,大型语言模型通过预测最可能的下一个词进行训练,因此更倾向于安全、中庸的措辞与熟悉的结构,这种统计意义上的流畅性会让文本在形式上无懈可击,却缺少独特声音与经验支撑。在高管被演示文稿、邮件和战略文件大量淹没的环境中,他将这种“过度优化的光滑感”作为筛选信号,用于决定何时需要进一步追问、索要工作笔记,或要求团队补充自身判断。
Depa的关注点不仅在于合规层面的合成内容识别。他表示,当组织内部大量内容趋同、听起来“都一样”时,企业可能削弱来自独特声音与实际经验的优势。例如,若管理者过度依赖模型起草绩效反馈,文本可能措辞严谨但情感空洞,即便评分公正也可能影响信任;类似风险也可能出现在投资者更新、销售推广和内部战略笔记中,使材料更像模板拼接而非基于具体业务。
他还提到,过度使用AI的团队可能逐渐趋同于相似的语言、比喻与论证结构,导致作品更容易被忽视。当每份提案都像精心打磨的案例研究时,反而难以突出差异。因此,他将“过于流畅、完美、可预测”视为真实性与有效性的警示信号,提示内容可能为形式优化而牺牲洞见。

在应对策略上,Depa表示不主张禁止生成式工具,而是强调将其定位为“合作者”而非“代笔者”。他建议员工先形成自己的大纲、论点与示例,再使用AI优化结构、检验逻辑或提出反驳。例如,顾问可先草拟问题陈述与建议,再让模型提供替代框架或检验假设,而不是让模型从零生成完整客户备忘录。
他同时鼓励团队在作品中保留可验证的个人印记,包括客户项目的具体轶事、内部数据引用,或体现特定区域与行业细微差别的措辞。Depa在研讨会中将其视为一种工作纪律:如果一份草稿“任何拥有相同工具的人都能写出”,就不应视为完成;只有当内容明显反映团队自身经验与判断时,才适合发布。
在组织层面,Depa表示其做法正逐步形成一套实用护栏。其中一项侧重流程管理:鼓励领导要求团队说明精致成果背后的形成步骤,例如提示链、源文件摘要,或对哪些部分为人工撰写、哪些为AI辅助的简要说明。他强调,这并不依赖复杂检测软件,而是将“能够解释工作过程”正式化为预期;当相关人员无法说明结论如何形成,或回答始终停留在通用最佳实践层面时,“过于完美”的警报就会触发。
另一项护栏侧重文化导向。Depa表示,通过公开讨论过度光滑的AI内容风险,组织可以逐步形成“清晰胜过华丽”的偏好,例如在季度评审中认可略显粗糙但更有洞见的分析,或表扬在模型草稿基础上补充个人背景的管理者,以此引导员工将机器效率与人类特异性结合,而非依赖无瑕表象。
