浪潮旗下YuanLab.ai團隊今日宣布,正式開源面向萬億參數規模設計的源Yuan3.0 Ultra多模態基礎大模型。該模型通過系統性優化訓練效率與架構設計,在復雜企業場景中展現出顯著優勢,成為智能體框架構建的重要技術支撐。
模型采用統一多模態架構,由視覺編碼器、語言主干網絡及多模態對齊模塊構成。其中語言主干網絡基于混合專家(MoE)架構搭建,包含103層Transformer結構,初始訓練參數規模達15150億。通過LAEP方法創新,團隊在預訓練階段將有效參數優化至10100億,算力效率提升49%,激活參數最終穩定在688億規模。
針對企業級應用需求,研發團隊在模型設計中深度融合三大核心能力:多模態文檔理解可精準解析圖文混排內容;檢索增強生成(RAG)技術實現跨文檔知識關聯;表格數據分析模塊支持多級結構表格的智能處理。這些特性使模型能高效完成內容摘要、工具調用等復雜任務,為基于OpenClaw等智能體框架的企業Agent AI提供關鍵能力支撐。
技術突破方面,Localized Filtering Attention(LFA)機制的引入顯著提升了語義建模精度。相比傳統注意力結構,該機制通過優化信息篩選路徑,在保持計算效率的同時獲得更高的模型準確度。測試數據顯示,在處理結構化與非結構化混合數據時,模型表現優于同類產品12%-18%。
此次開源內容全面覆蓋技術生態,包含16bit與4bit量化模型權重、完整訓練方法論、技術白皮書及多維度評測報告。開發社區可基于現有框架進行二次訓練,快速適配金融、醫療、制造等行業的定制化需求。據團隊透露,源Yuan3.0基礎模型系列還將陸續推出Flash(400億參數)、Pro(2000億參數)等版本,形成覆蓋不同場景的完整產品線。











