OpenAI公司近日宣布推出兩款專為高頻且延遲敏感任務設計的小型模型——GPT-5.4 mini與GPT-5.4 nano。這兩款模型在保持高效性能的同時,顯著提升了響應速度,為開發者提供了更多選擇。
據官方介紹,GPT-5.4 mini在代碼編寫、邏輯推理、多模態理解及工具調用等方面展現出卓越能力,其運行速度較前代產品提升超過兩倍。在多項基準測試中,該模型的成績已接近體積更大的GPT-5.4模型,尤其在需要快速迭代的代碼工作流中表現突出,能夠高效處理精準編輯、代碼庫導航及前端生成等任務。GPT-5.4 mini還能迅速解析密集的電腦用戶界面截圖,完成各類計算機操作任務。
另一款新模型GPT-5.4 nano則是目前體積最小、成本最低的版本。作為GPT-5 nano的升級版,它專為追求速度和成本效益的任務設計,適用于文本分類、數據提取、內容排序等場景,也可作為處理簡單輔助任務的代碼子代理。其低延遲特性使其在需要快速響應的應用中具有獨特優勢。
兩款模型均已正式開放使用。GPT-5.4 mini已全面接入API、Codex及ChatGPT平臺。其API版本支持400k上下文窗口,輸入與輸出成本分別為每百萬Token 0.75美元和4.50美元;在Codex中調用僅消耗GPT-5.4額度的30%;ChatGPT的Free和Go用戶可通過“思考”功能體驗該模型。
GPT-5.4 nano目前僅通過API提供服務,其輸入與輸出成本更低,分別為每百萬Token 0.20美元和1.25美元。這一價格優勢使其成為預算有限項目的理想選擇,同時保持了較高的性能水平。
官方強調,小型模型在代碼助手、系統截圖解析及實時圖像推理等對延遲要求極高的場景中,往往比大型模型更具優勢。這兩款新模型的推出,進一步豐富了OpenAI的產品線,為開發者提供了更多靈活的選擇。










