在人工智能技術持續突破的背景下,英偉達正式發布面向企業級多智能體系統的新一代開源大語言模型Nemotron 3 Super。該模型采用混合Mamba-Transformer骨干網絡架構,結合潛在專家混合模型(latent MoE)與多token預測(MTP)技術,在推理效率上實現顯著突破——總參數量達1200億的模型僅需激活120億參數即可運行,原生支持100萬token的超長上下文處理能力,其推理吞吐量較前代產品提升超過五倍。
與行業常見的API服務模式不同,英偉達此次采取全面開源策略,不僅公開模型權重參數,還同步開放預訓練及后訓練階段使用的完整數據集,并附上全流程訓練方案。這種開放模式為企業用戶提供了深度定制化空間,可基于自身業務需求調整模型性能,同時降低技術依賴風險。據技術文檔披露,模型在數學推理、代碼生成等復雜任務中展現出顯著優勢,尤其在多智能體協同場景下,其長上下文處理能力可支持跨領域知識整合。
AI搜索領域頭部企業Perplexity已率先完成模型接入測試,成為首個商業化應用案例。該公司技術團隊表示,Nemotron 3 Super的超長上下文窗口使其能夠直接處理完整文獻或代碼庫,大幅減少信息截斷導致的誤差。與此同時,企業軟件巨頭Palantir與西門子宣布啟動部署計劃,前者將模型整合至其數據分析平臺,后者則聚焦工業自動化場景的智能決策優化。行業分析師指出,開源策略與硬件生態的深度綁定,或將成為英偉達鞏固AI市場地位的關鍵舉措。











