全球AI領(lǐng)域迎來重大突破,螞蟻集團(tuán)正式推出全球首個(gè)開源混合線性架構(gòu)萬億參數(shù)模型——Ring-2.5-1T。這款模型在數(shù)學(xué)邏輯推理與長(zhǎng)程任務(wù)執(zhí)行能力上展現(xiàn)出卓越實(shí)力,不僅在國(guó)際數(shù)學(xué)奧林匹克競(jìng)賽(IMO)中斬獲35分金牌水平,更在中國(guó)數(shù)學(xué)奧林匹克(CMO)中以105分遠(yuǎn)超國(guó)家集訓(xùn)隊(duì)分?jǐn)?shù)線。在復(fù)雜任務(wù)處理方面,該模型在搜索、編碼等場(chǎng)景中均能獨(dú)立完成工作,標(biāo)志著AI從理論推導(dǎo)向?qū)嶋H應(yīng)用邁出關(guān)鍵一步。
該模型的核心創(chuàng)新在于突破深度思考領(lǐng)域的"不可能三角"——傳統(tǒng)模型在追求邏輯嚴(yán)密性時(shí),往往面臨推理速度下降與顯存消耗激增的困境。Ring-2.5-1T通過架構(gòu)革新,在生成長(zhǎng)度超過32K時(shí),將訪存規(guī)模壓縮至1/10以下,同時(shí)使生成吞吐量提升3倍以上。這種技術(shù)突破使其同時(shí)獲得"最聰明的開源奧數(shù)專家"與"最快的萬億參數(shù)思考者"雙重稱號(hào),目前模型已適配Claude Code、OpenClaw等主流框架,權(quán)重與推理代碼同步開放于Hugging Face、ModelScope等平臺(tái)。
混合線性注意力架構(gòu)是支撐模型性能的關(guān)鍵技術(shù)。基于Ring-flash-linear-2.0路線演進(jìn),該架構(gòu)采用1:7比例的MLA(多頭潛在注意力)與Lightning Linear Attention混合設(shè)計(jì)。訓(xùn)練過程中,研究團(tuán)隊(duì)將部分GQA(分組查詢注意力)層轉(zhuǎn)化為L(zhǎng)ightning Linear Attention以提升長(zhǎng)程推理吞吐量,剩余層通過近似轉(zhuǎn)換與QK Norm、Partial RoPE等特性適配,在保持63B激活參數(shù)量的同時(shí),將推理效率較前代提升顯著。這種設(shè)計(jì)使長(zhǎng)程推理從高成本操作轉(zhuǎn)變?yōu)檩p量化任務(wù),有效解決行業(yè)痛點(diǎn)。
在思維訓(xùn)練機(jī)制上,模型引入密集獎(jiǎng)勵(lì)系統(tǒng),通過嚴(yán)格評(píng)估每個(gè)推理步驟的嚴(yán)謹(jǐn)性,大幅減少邏輯漏洞并提升高階證明技巧。結(jié)合大規(guī)模全異步Agentic RL訓(xùn)練,模型在搜索、編碼等長(zhǎng)鏈條任務(wù)中的自主執(zhí)行能力得到質(zhì)的飛躍。實(shí)測(cè)中,面對(duì)有限群論證明題,模型準(zhǔn)確運(yùn)用Cauchy定理排除低階交換群可能性,并創(chuàng)造性地引入Heisenberg群作為反例,完整推導(dǎo)出非交換群階數(shù)≥27的結(jié)論,展現(xiàn)出嚴(yán)密的邏輯鏈條處理能力。
系統(tǒng)級(jí)編程測(cè)試進(jìn)一步驗(yàn)證模型實(shí)力。在Rust語言高并發(fā)線程池開發(fā)任務(wù)中,模型無需調(diào)用現(xiàn)成庫(kù),僅使用Arc、Mutex和Condvar即構(gòu)建出完整任務(wù)分發(fā)系統(tǒng)。其設(shè)計(jì)的監(jiān)控模塊通過panic::catch_unwind精準(zhǔn)捕獲線程崩潰,配合獨(dú)立監(jiān)控線程實(shí)現(xiàn)自動(dòng)重啟,確保任務(wù)隊(duì)列不丟失且無死鎖現(xiàn)象。優(yōu)雅關(guān)機(jī)機(jī)制通過活動(dòng)線程計(jì)數(shù)與信號(hào)量喚醒配合,成功實(shí)現(xiàn)所有任務(wù)清空目標(biāo),展現(xiàn)出對(duì)內(nèi)存安全與并發(fā)控制的深刻理解。
螞蟻集團(tuán)同步推進(jìn)的擴(kuò)散語言模型LLaDA2.1與全模態(tài)大模型Ming-flash-omni-2.0,共同構(gòu)建起通用人工智能技術(shù)矩陣。LLaDA2.1通過革新生成范式,實(shí)現(xiàn)535tokens/s的推理速度,在Humaneval+編程任務(wù)中吞吐量達(dá)892tokens/s,并具備Token編輯與逆向推理能力。Ming-flash-omni-2.0則打通視覺、音頻與文本邊界,通過全模態(tài)感知強(qiáng)化與統(tǒng)一生成框架,實(shí)現(xiàn)實(shí)時(shí)音畫同步創(chuàng)作。這些技術(shù)成果旨在為行業(yè)提供可復(fù)用的能力底座,降低多模態(tài)應(yīng)用開發(fā)門檻。
GitHub:https://github.com/inclusionAI/Ring-V2.5
Huggingface:https://huggingface.co/inclusionAI/Ring-2.5-1T
ModelScope:https://www.modelscope.cn/models/inclusionAI/Ring-2.5-1T











