廣發證券最新發布的行業研究報告指出,在人工智能大模型應用領域,基于SRAM(靜態隨機存取存儲器)的芯片架構正成為技術突破的關鍵方向。相較于傳統依賴外置HBM(高帶寬存儲器)的方案,SRAM通過縮短數據訪問路徑,有效降低了權重與激活數據的傳輸延遲和波動性,顯著提升了模型推理的響應速度和穩定性。
作為片上存儲的核心組件,SRAM直接集成于CPU或GPU計算單元附近,具備納秒級訪問時延和確定性帶寬優勢。盡管其容量和成本相對受限,但在AI推理場景中,這種"近計算存儲"架構展現出獨特價值。報告特別提到,Groq和Cerebras兩家創新企業已率先推出基于SRAM的專用AI芯片,并在性能測試中取得突破性成果。
Groq的LPU芯片單芯片集成230MB SRAM,實現80TB/s的片上存儲帶寬。在Llama3.3 70B模型測試中,該芯片以275-276token/s的穩定推理速度領先行業,較傳統平臺提升顯著。Cerebras的晶圓級引擎WSE-3則更進一步,集成44GB SRAM和21PB/s帶寬,在GPT-OSS 120B推理任務中達到每秒超3000token的輸出速度,是主流GPU方案的15倍。今年2月,OpenAI推出的GPT-5.3-Codex-Spark預覽版便運行于Cerebras加速平臺,實現每秒千token級的代碼生成響應。
行業動態顯示,SRAM架構正獲得頭部企業重點布局。去年12月,英偉達以200億美元獲取Groq知識產權的非獨家授權,涵蓋其語言處理單元及配套軟件庫,并引入核心工程團隊。今年2月,Cerebras完成10億美元F輪融資后估值達230億美元,同時與OpenAI簽署價值百億美元的芯片部署協議,計劃建設750兆瓦規模的定制AI算力中心。
研究報告強調,AI模型參數規模持續擴張背景下,存儲架構創新成為突破算力瓶頸的關鍵。SRAM通過將存儲單元與計算核心深度融合,有效解決了數據搬運帶來的能耗和延遲問題,這種技術路徑正在重塑AI基礎設施競爭格局。報告建議關注產業鏈中掌握核心存儲技術的企業,但同時提示需警惕AI產業需求波動、服務器出貨量不及預期以及國產技術迭代風險等潛在挑戰。












