在近日舉辦的MWC26巴塞羅那展會上,高通公司正式展示了其最新研發的AI200機架式AI推理解決方案實物。這一創新產品預計將于今年下半年正式投入商業應用,引發了行業廣泛關注。
據現場技術資料顯示,AI200機架采用模塊化設計,總高度達51U,由7個獨立的5U系統單元組成。每個系統單元中,4U空間專門用于安裝AI加速卡,通過1U托盤實現雙卡部署;剩余1U則配置了2顆AMD EPYC霄龍處理器,形成計算與加速的協同架構。在數據傳輸方面,該方案采用PCIe接口實現設備內高速互聯,同時支持800G以太網進行大規模集群通信。
從硬件配置來看,單個AI200機架可集成56塊AI加速卡,提供高達43TB的分布式內存容量。配合14顆AMD EPYC處理器,該系統能夠同時處理海量并行計算任務。這種設計特別適用于需要低延遲、高吞吐量的AI推理場景,如實時圖像處理、自然語言交互等領域。
值得關注的是,高通在展示中透露了其AI硬件的演進路線。2027年推出的AI250機架系統將繼續采用AMD處理器作為頭節點核心,而2028年的數據中心產品線將迎來重大升級——屆時將同時推出AI300系統與高通自研CPU,標志著該公司在異構計算領域的技術突破。這種逐步推進的硬件迭代策略,顯示出高通在AI基礎設施領域的長期布局。











