阿里巴巴達摩院近日宣布推出具身智能大腦基礎模型RynnBrain,并同步開源涵蓋30B混合專家架構(MoE)在內的七個全尺寸模型。該技術突破首次為機器人賦予時空記憶與物理空間推理能力,使其在復雜任務執行中可自主記錄歷史狀態,并在中斷后精準恢復工作場景。例如,當機器人執行任務A時被臨時要求優先處理任務B,系統能完整保留任務A的時間軌跡與空間位置信息,待任務B完成后無縫銜接原任務。
在權威評測機構開展的16項具身智能開源基準測試中,RynnBrain展現出顯著優勢。該模型在環境動態感知、第一視角視覺問答、三維空間推理等核心領域均取得領先成績,其綜合性能超越谷歌Gemini Robotics ER 1.5及英偉達Cosmos Reason 2等國際主流模型。評測數據顯示,RynnBrain在復雜場景理解準確率上較前代技術提升27%,任務切換恢復效率達到98.6%。
達摩院具身智能實驗室負責人趙德麗指出,新模型通過構建物理世界認知框架,實現了智能體對現實環境的深度解析與可靠規劃。這項突破標志著通用具身智能發展進入新階段,為機器人自主適應動態環境提供了關鍵技術支撐。實驗室團隊透露,RynnBrain采用多模態感知融合架構,通過時空注意力機制將視覺、觸覺、運動數據轉化為可計算的物理表征,使機器人具備類似人類的場景記憶能力。
作為持續推進AI實體化應用的重要舉措,達摩院此前已陸續開源WorldVLA視覺語言模型、RynnEC運動控制模型等核心技術組件,并發布機器人上下文交互協議RynnRCP。這些開源項目累計獲得全球開發者超過12萬次下載使用,在工業巡檢、家庭服務、物流搬運等領域形成數十個應用案例。此次全系列模型開源將進一步降低具身智能研發門檻,加速相關技術在真實場景中的落地進程。









