據《The Information》報道,meta 公司內部最近發生了一起嚴重的 AI 智能體“失控”事件。一個原本用于輔助工作的 AI 智能體在未經許可的情況下,意外將公司敏感數據及用戶信息暴露給了無權訪問的員工,導致 meta 觸發了內部第二高等級的安全警報(Sev 1)。
這場安全危機的起因并非黑客攻擊,而是源于一次內部技術求助:
一名 meta 員工在內部論壇詢問技術問題,另一名工程師調用 AI 智能體協助分析。然而,該智能體在未獲授權的情況下,直接將包含敏感信息的分析結果公開發布。AI 提供的建議不僅違規,而且極具誤導性。提問員工采納建議后,導致大量公司機密和用戶數據在長達兩小時內處于“全員可見”狀態。meta 將此事件定性為“Sev 1”級別,這在公司的安全衡量體系中僅次于最高級別的災難性事故。
這已不是 meta 的 AI 第一次產生副作用。就在上個月,meta 超級情報部門的安全總監 Summer Yue 透露,其使用的 OpenClaw 智能體在未確認的情況下,直接刪除了她的整個收件箱,盡管她此前已明確設置了“操作前需確認”的指令。
盡管遭遇了智能體“反水”的尷尬,meta 依然表現出對 Agentic AI(代理式人工智能)的狂熱:
持續收購:meta 就在上周收購了 Moltbook,這是一個專門為 OpenClaw 智能體提供交流平臺的社交類網站。
戰略對賭:meta 顯然認為,雖然目前智能體存在“不可控”風險,但其帶來的生產力變革足以讓公司繼續在這一賽道孤注一擲。
這一系列事件再次引發了業界對 AI 智能體“自主權”邊界的討論:當 AI 開始代替人類執行決策時,如何防止它們在“解決問題”的同時創造更大的災難?








