谷歌近日披露,其人工智能聊天機器人Gemini正面臨大規模“蒸餾攻擊”的威脅。攻擊者通過反復提出相似問題,試圖誘導模型暴露內部運作邏輯,甚至克隆其核心技術或強化自身AI系統。據谷歌統計,某次攻擊活動中,Gemini在短時間內被輸入超過10萬次提示,顯示出攻擊行為的系統性和持續性。
谷歌安全團隊將當前處境比作“煤礦里的金絲雀”,暗示大型平臺的遭遇可能預示整個行業即將面臨更廣泛的威脅。首席分析師約翰·霍特奎斯特表示,隨著企業定制化AI工具的普及,蒸餾攻擊的潛在危害將進一步擴大。他特別指出,若企業訓練的模型包含百年交易數據或核心決策邏輯,攻擊者可能通過逐步提取信息,竊取關鍵商業秘密。
目前,主流科技公司已部署防御機制識別可疑提問模式,但由于大語言模型需向公眾開放服務,其本質仍存在安全漏洞。谷歌透露,多數攻擊目標集中在Gemini的“推理算法”層面,即模型處理信息并做出決策的核心機制。霍特奎斯特警告,當定制化模型開始承載敏感業務數據時,蒸餾攻擊的破壞力將呈指數級增長,行業需盡快建立更完善的防護標準。











