近日,智譜推出的新一代大模型GLM-5引發行業關注,摩爾線程憑借其旗艦級AI訓推一體全功能GPU MTT S5000,在發布當日即完成對該模型的全流程適配與驗證,展現了國產硬件與軟件協同創新的強大實力。這一成果不僅標志著MUSA軟件棧的成熟度達到新高度,更凸顯了國產全功能GPU對前沿大模型的即時支持能力。
作為GLM系列的里程碑版本,GLM-5以頂尖的Coding模型定位亮相,其整體性能較前代提升20%,核心突破在于Agentic Engineering能力的飛躍。該模型不僅能處理復雜代碼,更具備系統工程與長程Agent任務的全流程開發能力,可實現從需求分析到應用落地的端到端閉環。在全球權威的Artificial Analysis榜單中,GLM-5躋身全球第四,在開源模型中穩居榜首,其編程能力已對齊國際頂尖的Claude Opus 4.5,在SWE-bench-Verified和Terminal Bench 2.0等主流基準測試中分別取得77.8和56.2的開源模型最高分,超越Gemini 3 Pro等競品。
MTT S5000的硬件設計為GLM-5的高效運行提供了堅實基礎。這款基于第四代MUSA架構“平湖”打造的全功能GPU智算卡,單卡AI算力高達1000 TFLOPS,配備80GB顯存與1.6TB/s顯存帶寬,卡間互聯帶寬達784GB/s,支持從FP8到FP64的全精度計算。其原生適配PyTorch、Megatron-LM、vLLM及SGLang等主流框架的特性,使得用戶可實現“零成本”代碼遷移,無論是構建萬卡級訓練集群還是部署高并發推理服務,均能展現對標國際主流產品的性能與穩定性。
在技術實現層面,摩爾線程通過三大創新突破實現了GLM-5的快速適配。首先,MUSA架構的生態兼容性發揮了關鍵作用,其TileLang原生算子單元測試覆蓋率超80%,使得絕大多數通用算子可直接復用,顯著降低移植成本。針對GLM-5的長序列推理場景,MTT S5000通過充沛算力儲備與稀疏Attention架構級支持,在處理大規模上下文時仍能保持高吞吐與低延遲。其次,原生FP8加速技術通過SGLang-MUSA推理引擎與硬件計算單元的深度優化,在保持模型精度無損的前提下,將顯存占用大幅降低,推理吞吐量顯著提升,為大規模部署提供了更高性價比的解決方案。最后,獨創的異步通信引擎(ACE)通過將通信任務從計算核心卸載,實現“通信計算重疊”,有效釋放15%的被占算力,配合細粒度重計算技術將開銷降至原有四分之一,全方位提升系統效率。
在AI Coding場景中,MTT S5000與GLM-5的組合展現出顯著優勢。通過算子融合與框架優化,該方案在確保代碼生成質量的同時,將響應延遲控制在極低水平。無論是復雜代碼庫分析還是長周期Agent任務,均能保持首字延遲(TTFT)低、生成速度快的流暢體驗。在函數補全、漏洞檢測等核心場景中,這一組合的表現超越同級產品,充分釋放了模型的規劃與調試能力,成為執行長程開發任務的理想選擇。
從GLM-4.6到GLM-5的迭代過程中,摩爾線程已形成“發布即適配”的常態化能力。這種對主流軟件棧的無縫兼容與敏捷響應,不僅驗證了國產全功能GPU及MUSA軟件棧的成熟度,更確保開發者能第一時間獲取最新模型能力。隨著MTT S5000在更多場景中的落地應用,國產AI生態正迎來硬件與軟件協同發展的新階段。










