3 月 18 日消息,OpenAI 公司昨日(3 月 17 日)發布公告,宣布推出迄今最強大的小型模型 GPT-5.4 mini 與 GPT-5.4 nano,專為高頻且對延遲敏感的任務設計。
援引博文介紹,官方強調,在代碼助手、系統截圖解析以及實時圖像推理等對延遲要求極高的場景中,響應迅速且能可靠調用工具的小型模型往往比大型模型更具優勢。
這兩款模型不僅繼承了 GPT-5.4 的諸多優勢,還專門針對高頻工作負載優化,目的通過更快的響應速度和更高的效率,來提升產品體驗。
GPT-5.4 mini 在編寫代碼、邏輯推理、多模態理解以及工具調用方面的表現遠超 GPT-5 mini,同時運行速度提升了 2 倍以上。
它在 SWE-Bench Pro 和 OSWorld-Verified 等多項基準測試中,成績已經逼近體積更大的 GPT-5.4 模型。
憑借極低的延遲,GPT-5.4 mini 特別適合需要快速迭代的代碼工作流,能夠高效處理精準編輯、代碼庫導航及前端生成等任務。在多模態領域,它也能迅速解析密集的電腦用戶界面截圖,出色完成各類計算機操作任務。
GPT-5.4 nano 則是目前體積最小、價格最親民的版本。作為 GPT-5 nano 的重大升級版,它專為將速度和成本視為首要考量的任務而生。開發者可以將其廣泛應用于文本分類、數據提取、內容排序,以及處理簡單輔助任務的代碼子代理(Subagents)中。
兩款模型目前已正式開放使用。GPT-5.4 mini 已全面接入 API、Codex 及 ChatGPT。
其 API 版本支持 400k 上下文窗口,輸入與輸出成本分別為每百萬 Token 0.75 美元和 4.50 美元;在 Codex 中調用僅消耗 GPT-5.4 額度的 30%;在 ChatGPT 中,Free 和 Go 用戶可通過“思考(Thinking)”功能體驗。
相比之下,GPT-5.4 nano 目前僅通過 API 提供,其輸入與輸出成本極低,分別為每百萬 Token 0.20 美元和 1.25 美元。










