在近日舉辦的NVIDIA GTC 2026大會上,Intel與NVIDIA宣布達成一項重要合作:Intel Xeon 6(至強6)處理器將作為主機CPU,應用于NVIDIA下一代旗艦AI服務器系統DGX Rubin NVL8。這一合作標志著兩家科技巨頭在x86架構領域的協作進一步深化,此前雙方已在基于DGX B300 Blackwell的平臺上,通過Xeon 6776P處理器建立了技術協同。
DGX Rubin NVL8是NVIDIA面向智能體AI和推理系統等新興場景推出的新一代服務器系統,其核心架構對主機CPU的性能提出了更高要求。作為系統“大腦”,主機CPU需承擔任務編排、內存管理、數據調度以及向GPU加速器傳輸數據等關鍵職能。隨著AI推理工作負載向高復雜度場景轉型,單核性能與內存帶寬的瓶頸問題愈發突出,這對硬件架構的協同效率提出了嚴峻挑戰。
針對這些需求,Intel至強6處理器通過多維度技術升級構建了解決方案。該平臺支持最高8TB系統內存,這一特性對處理鍵值緩存持續擴張的大型語言模型至關重要。通過引入MRDIMM技術,其內存帶寬較前代提升2.3倍,顯著優化了數據向GPU傳輸的效率。在I/O層面,PCIe 5.0通道與“優先核心睿頻加速”功能的結合,使單線程性能能夠精準聚焦于關鍵任務,確保GPU在復雜工作負載下保持高利用率。
安全與兼容性是此次合作的另一重點。至強6處理器搭載的Intel信任域擴展(TDX)技術,通過加密反彈緩沖區和硬件級隔離認證,構建了從CPU到GPU的全鏈路安全防護體系。這一設計完美契合AI推理在數據中心、云端及邊緣場景部署時對端到端機密計算的需求。處理器新增對NVIDIA Dynamo推理編排框架的支持,實現了集群內CPU與GPU資源的異構調度,進一步提升了系統整體效能。
Intel公司副總裁兼數據中心戰略項目總經理杰夫·麥克維強調,在AI加速系統中,主機CPU的性能直接決定著GPU的編排效率、內存訪問速度、模型安全性及系統吞吐量。至強系列處理器成熟的x86軟件生態、廣泛的企業部署經驗,以及與現有AI軟件棧的高度兼容性,成為NVIDIA選擇其作為合作伙伴的核心考量因素。
此次技術協作延續了DGX B300的架構基礎,在Blackwell與Rubin兩代產品間實現了平臺連續性。這種設計不僅降低了用戶的遷移成本,更通過硬件與軟件的深度適配,為AI推理技術在多場景的規模化應用提供了技術保障。隨著智能體AI等新興領域的快速發展,此次合作有望推動相關技術從實驗室走向實際生產環境,重塑AI基礎設施的競爭格局。










