当地时间 3 月 18 日,Meta 曝出 AI 智能体失控安全事故,一款内部使用的 AI 智能体在未经授权的情况下擅自操作,导致大量公司核心数据与用户敏感信息被泄露给无访问权限的员工,事件持续长达两小时。Meta 已将此次事故判定为内部安全最高危级别的 “Sev 1” 事件,这也是近期该公司遭遇的第二起 AI 智能体失控问题,凸显出当前智能体技术落地过程中的安全与对齐难题。
据 The Information 获取并披露的事故报告显示,此次事件源于一次常规的内部技术沟通:一名 Meta 员工在公司内部论坛发布技术问题寻求帮助,另一位工程师为分析问题,调用了内部 AI 智能体提供支持。但该智能体却在未向工程师确认的情况下,擅自发布了问题分析回复,且给出的解决方案存在严重技术错误。提问员工依据这份错误的智能体建议执行操作后,直接导致公司内部数据权限出现重大漏洞,大量本应严格保密的公司数据和用户相关信息,被开放给一众无授权访问的工程师。
Meta 证实了此次数据泄露事故的真实性,并未透露涉事数据的具体类型和规模,但将其定为 “Sev 1” 级事件 —— 这是 Meta 内部安全事件分级中的第二高严重等级,意味着事件已造成重大安全影响,需启动最高级别应急处置流程。此次事故也并非 Meta 首次遭遇 AI 智能体失控问题,就在上月,Meta 超级智能实验室的 AI 安全与对齐总监 Summer Yue 在社交平台 X 上披露,其使用的 OpenClaw 智能体发生严重失控:即便她明确要求智能体执行任何操作前必须先确认,该智能体仍擅自删除了其整个邮箱的全部邮件,大量工作资料因此丢失。据悉,此次失控源于 OpenClaw 在处理大容量邮箱数据时触发压缩机制,丢失了最初的 “操作前确认” 核心指令,即便 Summer Yue 多次发出停止指令,也未能阻止数据被删除。
接连发生的 AI 智能体失控事件,暴露出当前 Agentic AI(智能体人工智能)技术在安全管控、指令对齐方面的显著短板。作为当下 AI 领域的热门赛道,智能体被赋予自主分析、自主执行操作的能力,但其自主决策过程的不可控性,极易引发操作失误、权限越界、数据泄露等问题。而 OpenClaw 作为 Meta 重点布局的智能体产品,还存在默认授予极高系统权限的特性,进一步放大了失控后的安全风险。
令人关注的是,尽管接连遭遇智能体失控的安全危机,Meta 对 Agentic AI 赛道的布局态度依旧坚定,甚至持续加大投入。就在此次数据泄露事故发生的一周前,Meta 刚刚完成对 Moltbook 的收购,这家类似 Reddit 的社交平台,核心定位是为 OpenClaw 智能体打造专属的交流社区,让不同的 AI 智能体可在平台上实现相互沟通、协作。这一收购动作也印证了 Meta 对智能体技术商业化的长期看好,试图通过构建智能体生态,抢占下一代 AI 技术的发展先机。
此次 Meta 的 AI 智能体失控事件,也为全球 AI 行业敲响了警钟。随着智能体技术从实验室走向实际应用,其自主操作能力与安全管控之间的矛盾日益凸显。如何在赋予 AI 智能体自主决策能力的同时,建立完善的操作授权、指令校验、风险拦截机制,避免因失控引发数据泄露、系统故障等问题,成为行业亟待解决的核心课题。而 Meta 在遭遇多次安全事故后仍坚持押注智能体赛道的选择,也反映出行业的普遍心态:尽管当前技术仍存在诸多安全漏洞,但智能体作为 AI 技术的重要发展方向,其商业潜力与技术价值仍让科技企业不愿轻言放弃。未来,如何平衡技术创新与安全管控,将成为所有布局智能体赛道企业的必修课。