同樣的算力與數據,憑什么有的模型效果更好?月之暗面 (Moonshot AI) 給出了一個直擊底層邏輯的答案。
3月16日,Kimi發布重磅技術報告 《Attention Residuals》(注意力殘差)。該研究針對自2015年以來幾乎從未被變動的大模型“基石”——殘差連接(Residual Connections)進行了徹底重構。實驗證明,在相同算力下,新方法訓練出的模型效果等同于基線模型花費 1.25倍 算力達成的水平。
這一突破迅速引發硅谷 AI 圈震動,在社交媒體公開評價其為“令人印象深刻的工作(Impressive work from Kimi)”。
Jerry Tworek(OpenAI o1主要發明者): 稱其為“深度學習2.0”的開端。
為何要動“祖傳地基”?
傳統的殘差連接雖然解決了深層網絡難以訓練的問題,但其“等權相加”的方式過于粗暴。隨著網絡加深,每一層的新貢獻極易被龐大的累積信息淹沒,導致大量中間層淪為“無效干活”。
Kimi 的“優雅旋轉”:
團隊發現,深度方向上的信息丟失與 RNN 在時間維度上的遺忘在數學結構上高度一致。于是,他們將原本用于處理文字序列的“注意力機制”橫向轉動90度,應用到了縱向的深度維度上。
通過 ,每一層不再是被動接受疊加信息,而是通過一個微小的“查詢向量”,主動、有選擇性地決定從前面哪些層提取多少信息。為了解決大規模訓練中的內存開銷,團隊還創新性地提出了 Block AttnRes 方案,將網絡劃分為若干塊,在確保性能的同時,將推理延遲增量控制在 2% 以內。
在 的實驗中,該架構展現了極強的泛化能力。在 GPQA-Diamond 科學推理任務上實現了 7.5% 的飛躍,數學與代碼生成任務也分別獲得了 3.6% 和 3.1% 的顯著增益。
正如創始人 在 GTC2026演講中所言,行業正逐漸遭遇 Scaling 的瓶頸,必須對優化器、殘差連接等底層基石進行重構。當大多數人還在“高層精裝修”時,選擇下沉到最深處,用一記重錘撬動了深度學習的未來。









