OpenAI公司近日宣布推出兩款全新小型模型——GPT-5.4 mini與GPT-5.4 nano,專為需要快速響應和高效處理的高頻任務設計。這兩款模型在保持低延遲特性的同時,顯著提升了代碼生成、邏輯推理和多模態理解能力,為開發者提供了更靈活的選擇。
官方介紹顯示,GPT-5.4 mini在編寫代碼、解析系統截圖以及實時圖像推理等場景中表現尤為突出。相比前代GPT-5 mini,其運行速度提升超過兩倍,在SWE-Bench Pro和OSWorld-Verified等基準測試中的成績已接近體積更大的GPT-5.4模型。該模型特別適合需要快速迭代的代碼開發流程,能夠高效完成精準編輯、代碼庫導航和前端界面生成等任務,同時在多模態領域可快速解析復雜用戶界面截圖并執行計算機操作。
另一款模型GPT-5.4 nano則主打輕量化與低成本優勢。作為GPT-5 nano的升級版本,它專為對速度和成本敏感的任務優化,開發者可將其應用于文本分類、數據提取、內容排序等場景,或作為處理簡單輔助任務的代碼子代理。該模型目前僅通過API提供服務,輸入成本低至每百萬Token 0.20美元,輸出成本為1.25美元,成為當前最經濟實惠的OpenAI模型選擇。
在接入方式上,GPT-5.4 mini已全面支持API、Codex和ChatGPT平臺。其API版本提供400k上下文窗口,輸入輸出成本分別為每百萬Token 0.75美元和4.50美元;在Codex中調用僅消耗GPT-5.4額度的30%;ChatGPT用戶可通過"思考"功能免費體驗。兩款模型均已開放使用,開發者可根據具體需求選擇適合的版本。











