英特爾與Google宣布深化技術合作,共同推進下一代人工智能(AI)與云基礎設施的協同創新。此次合作聚焦多代英特爾?至強?處理器的深度優化,以及基于定制專用集成電路(ASIC)的基礎設施處理單元(IPU)的聯合開發,旨在為全球用戶構建更高效、靈活且可擴展的AI系統。
隨著AI應用的快速普及,數據中心對異構計算的需求日益增長。英特爾?至強?處理器憑借其強大的通用計算能力,成為支撐AI訓練、推理及通用工作負載的核心組件。Google Cloud已在其全球基礎設施中廣泛部署基于至強?處理器的平臺,包括采用最新英特爾?至強? 6處理器的C4和N4實例。這些平臺不僅支持大規模AI訓練的協調調度,還能滿足低延遲推理和通用計算的需求,顯著提升了系統性能與能效。
為應對超大規模AI環境對基礎設施效率的挑戰,英特爾與Google正聯合開發基于定制ASIC的IPU。作為一種可編程加速器,IPU能夠將網絡、存儲和安全功能從主機CPU中分離,從而釋放更多算力資源,優化系統利用率,并提升性能表現的可預測性。通過將傳統由CPU承擔的基礎設施任務轉移至IPU,云服務提供商得以在擴展規模的同時降低整體系統復雜性。
英特爾首席執行官陳立武強調,AI的規模化部署需要均衡的系統架構,而非單一加速器的堆砌。CPU與IPU的協同設計,能夠平衡通用計算與專用加速能力,為現代AI工作負載提供性能、效率與靈活性的完美結合。他指出,此次合作將推動AI基礎設施向更開放、可擴展的方向發展,助力全球企業加速創新。
Google高級副總裁兼AI基礎設施首席技術官Amin Vahdat表示,從訓練編排到推理部署,CPU始終是AI系統的基石。英特爾至強產品路線圖的持續演進,為Google滿足工作負載性能與效率需求提供了堅實保障。雙方近二十年的合作經驗表明,通用計算與專用加速的深度融合,是應對AI時代挑戰的關鍵路徑。
此次合作還涉及多代至強?處理器的協同優化,旨在降低Google全球基礎設施的總體擁有成本(TCO)。通過硬件與軟件的聯合調優,雙方將進一步提升AI訓練與推理的效率,同時優化通用計算任務的執行效果。這一成果不僅惠及Google自身業務,也將為全球開發者提供更強大的云服務支持。
業內分析認為,英特爾與Google的合作標志著AI基礎設施領域的一次重要突破。通過將CPU的通用性與IPU的專用性相結合,雙方正在重新定義現代數據中心的架構標準。這種“軟硬協同”的創新模式,有望成為未來AI系統設計的主流方向,為行業樹立新的技術標桿。











