2月22日消息,春節期間國產AI大模型輪番登場,除了DeepSeek V4還在低調之外,幾家熱門模型都來了,其中智譜的GLM-5是其中熱度最高的之一。
從智譜官網介紹來看,GLM-5重點就是提升編程與智能體能力,其參數量達到了7440億,是上代GLM-4.X的2倍左右,性能提升很明顯。
此前有海外的AI博主測試其代理編程能力世界第一,綜合編程能力世界第三,僅次于Opus 4.6及Gemini 3 Pro,但超越了Opus 4.5。
發布之后由于太受歡迎,導致GLM-5需求暴漲,甚至導致算力不夠,用戶體驗下滑,為此智譜還發布了道歉信,并給出了補償方案,其能力表現可見一斑。
今天智譜還發布了GLM-5大模型的技術報告,特別提到了性能提升主要來自于四大技術創新,具體如下:
1、引入DSA稀疏注意力機制(DeepSeek Sparse Attention, DSA),極大降低了訓練與推理成本。
此前的GLM-4.5依賴標準MoE架構提升效率,而DSA機制則使GLM-5能夠根據Token的重要性動態分配注意力資源。在不折損長上下文理解和推理深度的前提下,算力開銷得以大幅削減。
得益于此,智譜將模型參數規模擴展至 744B,同時將訓練Token規模提升至28.5T。
2、構建全新的異步RL基礎設施
基于GLM-4.5時期 slime 框架“訓練與推理解耦”的設計,智譜的新基建進一步實現了“生成與訓練”的深度解耦,將GPU利用率推向極致。系統支持模型開展大規模的智能體(Agent)軌跡探索,大幅減緩了以往拖慢迭代速度的同步瓶頸,讓RL后訓練流程的效率實現了質的飛躍。
3、提出全新的異步Agent RL算法
該算法旨在全面提升模型的自主決策質量。GLM-4.5曾依靠迭代自蒸餾和結果監督來訓練Agent;而在GLM-5中,研發的異步算法使模型能夠從多樣化的長周期交互中持續學習。
這一算法針對動態環境下的規劃與自我糾錯能力進行了深度優化,這也正是GLM-5能夠在真實編程場景中表現卓越的底層邏輯。
4、全面擁抱國產算力生態
從模型發布伊始,GLM-5就原生適配了中國GPU生態。智譜已完成從底層內核到上層推理框架的深度優化,全面兼容七大主流國產芯片平臺:華為昇騰、摩爾線程、海光、寒武紀、昆侖芯、天數智芯與燧原。
據介紹,GLM-5在單臺國產算力節點上的性能表現,已足可媲美由兩臺國際主流GPU組成的計算集群,不僅如此,在長序列處理場景下,其部署成本更是大幅降低了 50%。








