螞蟻集團近日宣布開源全球首個基于混合線性架構的萬億參數思考模型Ring-2.5-1T,該模型在長文本生成、數學推理及智能體任務執行等核心領域達到開源模型領先水平,為復雜場景下的AI應用提供高性能算力支撐。據技術文檔披露,模型在32K以上長文本生成場景中,訪存規模較前代降低超10倍,生成吞吐量提升3倍以上,顯著優化了長序列推理的效率與穩定性。
在數學能力驗證方面,Ring-2.5-1T通過國際數學奧林匹克競賽(IMO 2025)及中國數學奧林匹克(CMO 2025)自測,分別取得35分與105分的金牌級成績。技術團隊透露,模型基于深度思考(Heavy Thinking)模式,在IMOAnswerBench、HMMT-25等數學競賽推理基準測試中超越所有對比模型,同時在LiveCodeBench-v6代碼生成基準上展現跨任務泛化優勢。該模型已實現與Claude Code等智能體框架及OpenClaw個人AI助理的無縫適配,支持多步規劃與工具鏈調用。
架構創新方面,Ring-2.5-1T采用Ling 2.5混合線性注意力機制,將激活參數規模從51B提升至63B,但通過優化注意力計算路徑,推理效率較前代實現質的飛躍。對比實驗顯示,在1T總參數量下,該架構長序列推理吞吐量顯著優于32B激活參數的KIMI K2架構,且隨著生成文本長度增加,效率優勢呈指數級擴大。技術白皮書指出,這種設計突破了傳統大模型在參數量與推理速度間的矛盾,為萬億參數模型的工程化落地提供新范式。
在生態兼容性測試中,Ring-2.5-1T與DeepSeek-v3.2-Thinking、Kimi-K2.5-Thinking、GPT-5.2-thinking-high等主流開源及閉源模型展開系統對比。結果顯示,其在數學推理、代碼生成、邏輯推理等高難度場景中均保持開源領域領先地位,尤其在需要多步驟推理的復雜任務中,模型展現出更強的上下文理解與決策能力。研發團隊強調,這種性能提升源于架構層面對注意力機制的重新設計,而非單純依賴參數規模擴張。
目前,Ring-2.5-1T的模型權重與推理代碼已正式登陸Hugging Face、ModelScope等開源平臺,開發者可自由下載部署。官方同步宣布,基于該模型的交互式聊天體驗頁面及API服務將于近期上線,支持實時調用萬億參數級推理能力。行業分析師指出,這一開源舉措將加速大模型技術在金融、醫療、科研等垂直領域的落地應用,推動AI從感知智能向認知智能階段跨越。











