近期,人工智能領域再掀波瀾,有消息稱OpenAI正在秘密測試新一代模型GPT-5.4,這款模型被曝具備多項突破性功能,引發業界廣泛關注。從代碼生成能力到推理模式,再到上下文處理和記憶機制,GPT-5.4似乎正在重新定義大語言模型的邊界。
多方線索顯示,GPT-5.4已進入內部測試階段。開發者Corey Noles在使用OpenAI Codex時意外觸發系統日志,其中出現"gpt-5.4-ab-arm1-1020-1p-codexswic-ev3"的模型標識。隨后,OpenAI官方代碼倉庫中出現兩個被快速刪除的Pull Request,分別涉及"minimum model version = (5, 4)"和"toggleFast mode for GPT-5.4"的設置。更戲劇性的是,Codex團隊成員Tibo在社交平臺發布的截圖顯示,模型選擇器中赫然出現GPT-5.4選項,盡管該帖子很快被刪除,但已引發連鎖反應。
測試者反饋顯示,新模型在代碼生成領域表現驚人。有開發者報告稱,GPT-5.4可一次性生成超過6000行代碼,且推理速度顯著提升。這種突破性進展得益于可能采用的多級延遲管道架構,以及新增的"Fast Mode"功能。該模式允許用戶根據需求選擇不同速度檔位,暗示OpenAI正在探索更靈活的推理架構設計。
在核心能力方面,GPT-5.4的升級幅度令人矚目。據爆料,其上下文窗口將從40萬tokens擴展至100萬tokens,甚至有傳聞稱可達200萬tokens。這意味著模型可同時處理整部書籍或大型代碼庫,在長文本處理能力上追平谷歌Gemini和Anthropic Claude等競爭對手。更值得關注的是"極限推理模式",該模式允許模型在解決復雜問題時調用更多計算資源進行深度推理,盡管這可能犧牲部分響應速度,但對科研領域和企業級應用具有重大價值。
最引發爭議的傳聞是GPT-5.4可能具備"永久記憶"功能。爆料稱,該模型通過結合狀態空間模型(SSM)與Transformer架構,實現了隱藏狀態的持續傳遞。這種設計使模型能夠像人類一樣積累長期記憶,而非依賴短期上下文窗口。硅谷投資人Garry Tan轉發的相關討論指出,若該技術實現,將標志著AI發展進入全新階段,使模型能夠真正理解并記憶跨會話信息。
OpenAI的加速迭代策略折射出行業競爭的激烈程度。今年以來,該公司已連續推出GPT-5.1、GPT-5.2等多個版本,更新頻率接近每月一次。這種"月更"模式背后,是ChatGPT周活躍用戶達9.1億卻仍未實現10億目標的增長壓力,以及谷歌、Anthropic等競爭對手在長上下文、智能體和推理能力上的持續突破。如果GPT-5.4的傳聞功能全部實現,AI應用形態可能從當前的交互式工具轉變為能夠持續工作的自主智能體,這或將重新定義人機協作的邊界。














