Meta称内部AI代理建议引发短时数据暴露事件

richlovec 1500_400 (1)
 

Meta确认,公司近期发生一起与内部AI代理相关的数据暴露事件:一名员工在内部论坛寻求工程问题指导时,AI代理提供了解决方案,该员工在执行相关操作后,导致大量敏感用户数据和公司数据在约两小时内对部分工程师可见。

Meta发言人就此表示,“没有用户数据被错误处理”,并称类似错误建议并非只有AI才会出现。该事件最早由The Information报道。报道指出,此事在Meta内部触发了重大安全警报;Meta方面则表示,这一反应体现了公司对数据保护的高度重视。

报道同时提到,随着美国科技公司加速在内部工作流程中引入AI代理,相关故障与风险事件近期频繁出现。上个月,《金融时报》曾报道亚马逊在部署内部AI工具过程中至少发生两次故障。随后,《卫报》援引超过六名亚马逊员工说法称,公司在推进AI整合时节奏较快,带来明显错误、代码质量问题以及生产力下降等情况。

在技术层面,代理式AI近月发展迅速。报道回顾称,去年12月,Anthropic的AI编码工具Claude Code受到关注,其被描述为可自主完成订票、管理个人财务等任务。此后出现的OpenClaw被称为基于Claude Code等代理运行的AI个人助理,可在无需人工干预的情况下执行操作,例如进行数百万美元规模的加密货币交易或大规模删除用户邮件,并引发围绕通用人工智能(AGI)的讨论。

企业AI应用咨询公司联合创始人Tarek Nseir在接受采访时表示,上述事件显示Meta与亚马逊仍处于代理式AI部署的“实验阶段”。他称,相关团队并未“退后一步”进行充分的风险评估,并以访问权限为例指出,如果是初级实习生,通常不会被允许接触关键的一级人力资源数据。

专注于构建进攻性AI的安全专家Jamieson O’Reilly则表示,AI代理可能引入与人类不同类型的错误。其说法认为,人类工程师会在长期工作中形成对任务“上下文”的隐含理解,例如哪些操作可能导致用户数据暴露、哪些系统在特定时段更易出问题以及停机成本等;而AI代理依赖“上下文窗口”作为工作记忆,信息可能随对话推进而消失,从而增加出错概率。Nseir也表示,“错误不可避免会更多”。


分享:


发表评论

登录后才可评论。 去登录