一位開發者在社交平臺分享了使用OpenClaw AI助手運行GPT-5.4模型的測試截圖,引發技術圈對模型安全性的討論。該開發者指出,相比Claude-Haiku-4.5這類小型模型,GPT-5.4在響應速度上存在明顯差距,但未對具體性能差異作出進一步解釋。
OpenClaw創始人Peter Steinberger在看到相關討論后迅速回應,特別針對模型選擇提出警示。他強調Haiku系列模型缺乏必要的提示詞注入防護機制,這類模型在處理用戶輸入時可能無法有效識別惡意指令,存在信息泄露或執行非授權操作的風險。
提示詞注入攻擊通過構造特殊文本指令,可繞過AI系統的安全限制,迫使模型執行原本被禁止的操作。這類攻擊在技術社區已引發廣泛關注,安全專家指出,小型模型由于訓練數據規模和架構限制,往往更難抵御此類精心設計的輸入。
Peter Steinberger建議開發者根據應用場景謹慎選擇模型,在涉及用戶隱私、財務數據等高風險領域,應優先采用具備完善防護機制的大型模型。對于僅需處理簡單查詢或無敏感權限的場景,小型模型仍可作為經濟高效的選擇。
這場討論暴露出AI應用開發中普遍存在的安全認知缺口。隨著生成式AI技術普及,如何平衡模型性能與安全性已成為開發者必須面對的核心問題,特別是在模型選擇階段就需要建立完整的風險評估體系。











