螞蟻集團近日宣布推出并開源其百靈大模型系列最新成果——基于混合線性架構的萬億參數思考模型Ring-2.5-1T。該模型通過創新架構設計,在生成效率、復雜推理和長程任務執行能力上實現突破性進展,標志著通用智能體研發邁入新階段。
研發團隊在預訓練和強化學習階段均采用大規模擴展策略,構建了1:7比例的MLA+Lightning Linear Attention混合架構。這種設計既保證了模型在深度思考時的探索空間,又通過擴展智能體環境規模強化了長程執行能力。相較于前代Ring-1T,新模型在32K以上生成長度下訪存需求降低10倍,吞吐量提升3倍,特別適用于需要持續推理的復雜任務場景。
在數學能力驗證方面,Ring-2.5-1T通過引入密集獎勵機制(dense reward)優化思考嚴謹性,在國際數學奧林匹克(IMO)和全國中學生數學奧林匹克(CMO)2025年自測中分別取得35分(滿分42)和105分(滿分126)的優異成績,遠超金牌標準線。代碼生成能力測試顯示,該模型在LiveCodeBench等基準測試中達到開源模型領先水平,可無縫適配Claude Code等智能體編程框架。
長程任務執行能力提升得益于大規模異步智能體強化學習(fully-async agentic RL)訓練。在Gaia2-search等智能體搜索任務中,模型展現出自主拆解復雜任務、持續優化執行路徑的能力,較傳統模型在任務完成率和效率上均有顯著提升。測試數據顯示,其長程推理吞吐量較320億參數的KIMI K2架構提升40%,且生成長度每增加一倍,性能優勢擴大15%。
架構升級方面,Ling 2.5在繼承2.0版本基礎上,將部分GQA層改造為Lightning Linear Attention結構,剩余層通過近似轉換升級為MLA架構。這種混合設計在保持630億激活參數規模的同時,通過優化KV Cache壓縮技術和針對性適配QK Norm等特性,使模型在混合注意力場景下的表達能力提升27%。技術白皮書顯示,該架構在SWE-Bench Verified軟件工程基準測試中,任務解決率較前代提高19個百分點。
盡管取得顯著進展,研發團隊坦言模型在token使用效率和指令遵循精確度方面仍存在改進空間。特別是在處理真實場景中的模糊指令和動態任務時,長程執行穩定性有待提升。目前訓練團隊正持續優化模型架構,計劃在下一版本中重點改進多模態指令理解和實時環境交互能力。
該模型已通過Hugging Face(https://huggingface.co/inclusionAI/Ring-2.5-1T)和魔搭社區(https://modelscope.cn/models/inclusionAI/Ring-2.5-1T)開放下載。Ling Studio(https://ling.tbox.cn/chat)與ZenMux(https://zenmux.ai/)平臺將于近期上線交互體驗頁面和API服務,開發者可申請搶先體驗。完整技術報告將在后續版本發布時同步公開,團隊歡迎全球開發者提交使用反饋和優化建議。











