阿里巴巴達摩院近日宣布推出具身智能大腦基礎模型RynnBrain,并同步開源包含30B MoE架構在內的7個全尺寸模型系列。該模型通過引入時空記憶與物理空間推理能力,使機器人首次具備任務執行過程中的狀態記憶與場景恢復功能。當機器人執行任務被意外中斷時,系統可精準記錄當前任務的時間坐標與空間位置,待完成新任務后無縫銜接原任務進程。
在權威機構開展的16項具身智能基準測試中,RynnBrain展現出顯著優勢。該模型在環境感知精度、第一視角視覺問答準確率及三維空間推理效率等核心指標上,均超越谷歌Gemini Robotics ER 1.5和英偉達Cosmos Reason 2等國際主流模型。測試數據顯示,其空間定位誤差較同類產品降低37%,任務恢復成功率達到92%。
達摩院具身智能實驗室負責人趙德麗指出,RynnBrain通過構建物理世界認知框架,實現了智能體對復雜場景的深度解析與可靠決策。該模型采用動態記憶網絡架構,可實時更新任務狀態圖譜,配合多模態感知融合技術,使機器人具備類似人類的場景理解能力。此前,該團隊已陸續開源WorldVLA視覺語言模型、RynnEC運動控制模型等基礎組件,并發布機器人通信協議RynnRCP。
目前,RynnBrain全系列模型已在Hugging Face等開源平臺開放下載,支持機器人導航、工業分揀、家庭服務等場景的快速部署。研究團隊透露,下一代模型將重點優化動態障礙物規避與多智能體協作能力,進一步拓展具身智能的應用邊界。











