螞蟻集團近日宣布開源全球首個采用混合線性架構的萬億參數思考模型——Ring-2.5-1T。該模型在長文本生成、數學推理及智能體任務執行等復雜場景中展現出開源領域的領先優勢,為智能體時代的高性能任務處理提供了重要技術支撐。其突破性成果不僅體現在參數規模與架構創新上,更通過多項權威測試驗證了實際應用價值。
在核心性能方面,Ring-2.5-1T通過優化注意力機制顯著提升了長序列推理效率。相較于前代模型,其在32K以上長文本生成場景中訪存規模降低超10倍,生成吞吐量提升3倍以上。模型激活參數從510億擴展至630億,但得益于混合線性架構的支撐,推理效率不降反升。對比僅擁有320億激活參數的KIMI K2架構,Ring-2.5-1T在1萬億總參數量下仍保持顯著吞吐優勢,且隨著生成長度增加,效率差距持續擴大。
數學推理能力成為該模型的重要亮點。在國際數學奧林匹克競賽(IMO 2025)和中國數學奧林匹克(CMO 2025)自測中,Ring-2.5-1T分別達到35分和105分的金牌標準。在深度思考模式下,該模型在IMOAnswerBench、HMMT-25等數學競賽推理基準測試中超越DeepSeek-v3.2-Thinking、GPT-5.2-thinking-high等主流開源與閉源模型,同時在LiveCodeBench-v6代碼生成基準中展現跨任務泛化能力。
智能體框架適配性方面,Ring-2.5-1T支持Claude Code等主流智能體框架及OpenClaw個人AI助理,可實現多步規劃與工具調用。在邏輯推理、代碼生成等高難度場景中,該模型與Kimi-K2.5-Thinking、Gemini-3.0-Pro-preview-thinking-high等競品對比時,仍保持開源領域的領先地位。其設計目標直指當前AI應用從短對話向長文檔處理、跨文件代碼理解等場景擴展的需求,有效緩解了長輸出場景下的計算開銷與推理延遲問題。
技術實現層面,Ring-2.5-1T基于Ling 2.5架構構建,通過創新混合線性注意力機制平衡了模型規模與推理效率。螞蟻百靈團隊在模型訓練過程中,同步優化了大規模訓練基礎設施、算法設計與工程落地能力,確保萬億參數模型的可擴展性與穩定性。目前,該模型的權重文件與推理代碼已在Hugging Face、ModelScope等開源平臺開放下載,官方交互體驗頁面與API服務計劃于近期上線。








