近日,一位名為Zhongpai Gao的開發(fā)者在社交平臺X上分享了自己使用OpenClaw AI助手配置GPT-5.4模型的截圖,引發(fā)技術圈關注。該開發(fā)者在帖文中提到,GPT-5.4在OpenClaw平臺上的運行速度明顯慢于Claude-Haiku-4.5這類小模型,但未詳細說明具體性能差異。
這則帖文迅速吸引了OpenClaw創(chuàng)始人Peter Steinberger的注意。他在回復中明確警告稱:"使用Haiku這類模型存在嚴重安全隱患,因其缺乏提示詞注入保護機制。"Peter進一步解釋,這類小模型或舊版本模型極易被惡意提示詞操控,可能導致AI突破安全限制、泄露敏感數(shù)據(jù)甚至執(zhí)行危險操作。
提示詞注入攻擊是一種新興的AI安全威脅,攻擊者通過精心設計的輸入指令,可繞過模型原有的安全防護,迫使其執(zhí)行非預期操作。例如,黑客可能通過特定話術讓AI系統(tǒng)忽略隱私條款,或直接輸出未經(jīng)授權的機密信息。
針對此次討論,安全專家建議開發(fā)者在高風險場景中應優(yōu)先選擇具備完善防護機制的大型模型。對于需要處理敏感數(shù)據(jù)的任務,必須嚴格驗證模型的安全認證,并定期更新至最新版本以防范已知漏洞。Peter在回應中也強調(diào),OpenClaw文檔中已明確標注各模型的安全等級,用戶應仔細閱讀相關說明后再進行部署。













