3月17日消息,在圣何塞舉辦的NVIDIA GTC 2026大會上,Intel正式宣布一項重磅合作,其Xeon 6(至強6)處理器將成為NVIDIA下一代旗艦AI服務器系統DGX Rubin NVL8的主機CPU。
這一合作讓兩家企業在x86架構上的合作更進一步,此前在基于DGX B300 Blackwell的平臺上,雙方就已采用Xeon 6776P處理器建立了x86架構合作,這也意味著Intel成功“抱上”NVIDIA的大腿,在AI服務器領域站穩了腳跟。
據悉,DGX Rubin NVL8是NVIDIA新一代旗艦AI服務器系統,主打智能體AI和推理系統等新興應用場景。在這套系統中,主機CPU的作用至關重要,主要負責任務編排、內存管理、調度,以及向GPU加速器傳輸數據。
而隨著AI推理工作負載逐漸向智能體AI和推理系統轉型,這些工作對單核性能和內存帶寬的要求也越來越高。
Intel方面表示,至強6處理器通過內存容量、帶寬和I/O性能的綜合提升,剛好能滿足這些需求。這款處理器所在的平臺可支持高達8TB的系統內存,Intel稱這一點對支持鍵值緩存不斷擴大的大型語言模型來說尤為關鍵。
借助MRDIMM技術,其內存帶寬較上一代提升了2.3倍,能顯著提升數據傳輸到GPU加速器的速度。
與此同時,PCIe 5.0通道可實現高帶寬的加速器連接,Intel推出的“優先核心睿頻加速”(Priority Core Turbo)功能,還能把強勁的單線程性能集中用于編排、調度和數據傳輸任務,即便工作負載變得更復雜,也能保證GPU維持高利用率。
在安全和兼容性上,至強6處理器通過Intel信任域擴展(TDX),能為CPU到GPU的整個數據路徑提供安全防護。其中TDX技術會通過加密反彈緩沖區,增加基于硬件的隔離和認證功能,剛好能滿足AI推理在數據中心、云端、邊緣等多場景部署時,對端到端機密計算的需求。至強6還新增了對NVIDIA Dynamo推理編排框架的支持,借助這一框架,同一集群內的CPU和GPU資源可實現異構調度。
“在這個新時代,主機CPU的作用至關重要。”Intel公司副總裁兼數據中心戰略項目總經理杰夫·麥克維表示,它直接決定著GPU加速系統的編排效率、內存訪問速度、模型安全性以及吞吐量。
Intel還提到,至強處理器成熟的x86軟件生態、豐富的企業部署經驗,以及與現有AI軟件棧的良好兼容性,正是NVIDIA選擇它的關鍵原因。
此次雙方的合作,沿用了與DGX B300相同的架構基礎,讓Blackwell和Rubin兩代產品實現了平臺層面的連續性,有望推動AI推理技術在數據中心、云端、邊緣等場景的規模化落地。





