全球AI算力領域迎來重大合作——OpenAI與美國芯片企業Cerebras達成協議,將共同構建全球最大規模的高速AI推理平臺。根據雙方披露的信息,該平臺將基于Cerebras獨特的晶圓級系統架構,部署總功率達750兆瓦的計算集群,預計2026年起分階段投入運營,2028年全面建成。這一合作不僅標志著AI推理基礎設施的重大升級,更引發市場對算力競爭格局變化的廣泛關注。
據知情人士透露,這筆交易總金額超過100億美元,同時Cerebras正在進行新一輪融資,計劃以220億美元估值籌集10億美元資金。若融資成功,其估值將較此前81億美元的私募估值增長近三倍。值得關注的是,OpenAI首席執行官薩姆·阿爾特曼不僅是Cerebras的個人投資者,兩家公司的技術淵源更可追溯至創立初期——雙方團隊自2017年起便保持密切交流,共享研究成果與早期技術探索。
Cerebras的核心技術優勢在于其晶圓級芯片設計。該公司在單塊芯片上集成了4萬億個晶體管,通過將計算單元、內存和帶寬高度集成,突破了傳統GPU架構的推理速度瓶頸。測試數據顯示,其系統處理大模型的響應速度可達基于GPU系統的15倍。OpenAI基礎設施負責人Sachin Katti表示,現有芯片在編程等復雜任務中的延遲問題促使公司尋求技術突破,而Cerebras的架構恰好能滿足實時交互場景的嚴苛需求。
從行業背景看,這場合作折射出AI商業化進程對算力成本的深刻影響。Katti透露,過去兩年OpenAI的計算能力與收入均保持每年翻倍增長,算力效率直接決定其商業潛力。為降低對英偉達GPU的依賴,OpenAI近年加速多元化布局:除與Cerebras的合作外,公司還與博通聯合開發定制芯片,并引入AMD最新MI450芯片構建混合算力體系。











