OpenAI于近日正式推出兩款全新小型模型——GPT?5.4 mini與GPT?5.4 nano,宣稱這是公司迄今為止性能最強勁的小型模型系列,專為需要高效處理海量數(shù)據(jù)的工作場景設計。這兩款模型在保持輕量化架構的同時,顯著提升了復雜任務處理能力,為開發(fā)者提供了更具性價比的選擇。
GPT?5.4 mini聚焦于低延遲應用場景,其核心優(yōu)勢在于快速響應能力。該模型特別適用于需要即時交互的代碼生成工具、實時輔助型智能體、屏幕內(nèi)容解析系統(tǒng)以及多模態(tài)圖像推理等場景。開發(fā)團隊強調(diào),在追求極致性能的場景中,模型體積并非決定性因素,能否實現(xiàn)快速工具調(diào)用、保持復雜任務中的穩(wěn)定性才是關鍵。測試數(shù)據(jù)顯示,GPT?5.4 mini在代碼編寫、邏輯推理、多模態(tài)理解等維度較前代GPT?5 mini有突破性提升,運行效率提升超過200%,在SWE-bench Pro編程基準測試和OSWorld-Verified系統(tǒng)驗證測試中,其表現(xiàn)已接近參數(shù)規(guī)模更大的GPT?5.4標準版。
作為系列中最輕量級的成員,GPT?5.4 nano在速度與成本控制方面實現(xiàn)新突破。這款模型專為高頻次、低復雜度的任務優(yōu)化,特別適合文本分類、結構化數(shù)據(jù)提取、優(yōu)先級排序等場景,也可作為智能體的基礎組件處理簡單輔助任務。相較于已停更的GPT?5 nano,新版本在保持極低資源占用率的同時,顯著提升了任務處理精度與響應速度。OpenAI建議開發(fā)者將其部署在需要海量快速決策的邊緣計算場景。
在商業(yè)化落地方面,GPT?5.4 mini已同步接入API、Codex開發(fā)平臺及ChatGPT交互界面。該模型支持文本與圖像雙模態(tài)輸入,具備工具調(diào)用、函數(shù)執(zhí)行、網(wǎng)絡及本地文件檢索、計算機操作等擴展功能,提供40萬token的上下文記憶容量。其定價策略極具競爭力:輸入成本為每百萬token 0.75美元,輸出成本為4.50美元,較同級別模型降低約35%。
GPT?5.4 nano則采取純API接入模式,定價體系進一步下探:輸入成本降至每百萬token 0.20美元,輸出成本為1.25美元。這種差異化定價策略,使得開發(fā)者能夠根據(jù)任務需求靈活選擇模型版本,在保證性能的同時有效控制開發(fā)成本。兩款模型的推出,標志著OpenAI在大型模型與輕量化模型之間構建起更完整的產(chǎn)品矩陣,為不同規(guī)模的企業(yè)提供多樣化的AI解決方案。











