4 月 4 日消息,AI 智能體被寄望于提升效率,但最新研究顯示,其不當(dāng)行為正在迅速增加。
英國《衛(wèi)報》當(dāng)?shù)貢r間 3 月 27 日發(fā)表的報告指出,從 2025 年 10 月至 2026 年 3 月,AI 異常行為數(shù)量增長約五倍,這其中更包括未經(jīng)許可刪除郵件和文件等情況。研究基于大量真實用戶在社交平臺上的反饋,涵蓋谷歌、OpenAI、Anthropic 等公司的產(chǎn)品,期間共識別出近 700 起 AI“自主策劃”的案例。
部分案例頗具爭議。例如,有 AI 智能體發(fā)布博客指責(zé)用戶“缺乏安全感”,試圖對操作者施加壓力;還有智能體在被禁止修改代碼的情況下,通過創(chuàng)建另一個智能體間接完成修改。
研究負(fù)責(zé)人湯米 · 謝弗 · 謝恩指出,目前 AI 智能體還只是“略顯不可靠的初級員工”,但在一年內(nèi)可能演變?yōu)椤澳芰O強、甚至?xí)催^來設(shè)計用戶的高級員工”。他警告,隨著 AI 進(jìn)入軍事和關(guān)鍵基礎(chǔ)設(shè)施領(lǐng)域,這類行為可能帶來嚴(yán)重后果。
與此同時,在美國等地區(qū),用戶可能需要為 AI 智能體的行為承擔(dān)法律責(zé)任,從而導(dǎo)致風(fēng)險進(jìn)一步放大。目前,已有實際案例表明問題并非假設(shè):據(jù) The Information 報道,meta 的一款 AI 智能體曾錯誤地公開內(nèi)部回復(fù),導(dǎo)致不具備權(quán)限的員工獲取了訪問數(shù)據(jù)權(quán)限。
盡管問題頻現(xiàn),科技公司仍在積極推進(jìn) AI 智能體的發(fā)展。據(jù)了解,亞馬遜等多家企業(yè)預(yù)計,未來每家公司內(nèi)部都可能部署數(shù)十億個 AI 智能體。










