2月11日,智譜正式推出新一代旗艦模型GLM-5,主攻編程與智能體能力,官方稱已實現開源領域最優表現。這是繼DeepSeek后,國產AI大模型春節檔的又一重要發布。
GLM-5參數規模由上一代的355B擴展至744B,激活參數從32B提升至40B。智譜方面證實,此前在全球模型服務平臺OpenRouter登頂熱度榜首的神秘模型“Pony Alpha”即為GLM-5。
內部評估顯示,GLM-5在前端、后端、長程任務等編程開發場景中,平均性能較上一代提升超20%,真實編程體驗逼近Claude Opus 4.5水平。該模型已上線chat.z.ai平臺。此次發布標志著國產大模型在技術路徑與能力表現上持續縮小與國際領先水平的差距,為開發者群體提供了新的開源選擇。
參數規模翻倍 預訓練數據大幅擴容
智譜新一代旗艦模型GLM-5在模型架構層面實現關鍵升級。參數規模由上一代355B(激活32B)擴展至744B(激活40B),預訓練數據量從23T提升至28.5T,更大規模的算力投入驅動通用智能能力顯著增強。
該模型首次引入DeepSeek稀疏注意力機制,在保持長文本處理效果無損的前提下,有效降低部署成本并提升Token利用效率。該技術路線與DeepSeek-V3/V3.2保持一致。
架構配置方面,GLM-5構建78層隱藏層,集成256個專家模塊,每次激活8個,激活參數約44B,稀疏度5.9%,上下文窗口最高支持202K token。
編程能力顯著提升
新一代旗艦模型GLM-5在內部Claude Code評估集中表現突出。前端、后端及長程任務等編程開發場景下,該模型較上一代GLM-4.7實現全面超越,平均性能提升逾20%。
GLM-5能夠以極少人工干預,自主完成Agentic長程規劃與執行、后端重構、深度調試等復雜系統工程任務。官方稱,真實編程環境中的使用體感已逼近Claude Opus 4.5水平。
智譜將GLM-5定位為最新一代旗艦級對話、編程與智能體模型,重點強化其在復雜系統工程與長程Agent任務中的處理能力。
智能體能力實現開源最優表現
GLM-5在Agent能力上達成開源SOTA,多項評測基準中位列開源第一。在BrowseComp(聯網檢索與信息理解)、MCP-Atlas(大規模端到端工具調用)及τ2-Bench(復雜場景下自動代理工具規劃與執行)三項測試中,GLM-5均取得最優表現。
為實現能力突破,該模型構建了全新的“Slime”訓練框架,支持更大規模模型架構與更復雜的強化學習任務,顯著提升強化學習后訓練流程效率。
智譜提出異步智能體強化學習算法,使模型具備從長程交互中持續學習的能力,有效激發預訓練模型的深層潛力。該機制已成為GLM-5的核心技術特色之一。
國產大模型春節檔密集發布
智譜清言GLM-5的發布,成為國產AI大模型春節檔密集競逐的最新注腳。同日晚間,Minimax亦上線Minimax 2.5,距離上一版本2.2發布僅間隔一個多月。
此輪發布潮已持續升溫。DeepSeek此前已推出新模型,阿里千問的Qwen 3.5、字節跳動的SeeDance 2.0等產品也于近期相繼亮相。多家廠商不約而同選擇在春節窗口期集中推新,折射出國產大模型賽道競爭正進入白熱化階段。
目前GLM-5與Minimax 2.5的詳細技術文檔尚未完全披露,其實際性能表現仍有待開發者社區與專業機構的后續驗證。








