AIPress.com.cn報道
3月20日消息,據 Decrypt 報道,英偉達將為亞馬遜云服務(AWS)提供大規模 GPU 支持,以應對日益增長的人工智能計算需求。AWS 本周宣布,計劃到 2027 年在全球云區部署約100 萬塊 Nvidia GPU,并擴展與英偉達在網絡和基礎設施方面的合作,以構建“能夠在復雜工作流中自主推理、規劃和行動”的智能系統。
AWS 正在研發自有 AI 芯片以支持訓練和推理計算。這一合作表明,AI 推理計算的需求正在推動云基礎設施的結構發生變化,而越來越多的活動與實時服務運行 AI 模型緊密相關。觀察人士指出,這一趨勢正在塑造云計算與芯片供應商之間的競爭格局。
策略與增長工作室ZenGen Labs聯合創始人 Dermot McGrath 表示:“英偉達 已不僅僅是芯片供應商,而正在成為云服務提供商底層基礎設施。”他指出,推理計算現已占 AI 計算量約三分之二,而 2023 年僅約占三分之一。德勤估計,到 2026 年,僅推理計算芯片市場規模就將超過 500 億美元。
在該部署計劃中,AWS 將同時使用 Nvidia 和自研芯片,為客戶提供比封閉系統更靈活的選擇,這種組合也是其差異化優勢之一。McGrath 指出:“現在 英偉達不僅提供芯片,還參與網絡和機架架構設計。”
推理計算芯片專門用于實時運行訓練好的 AI 模型,而無需重新訓練。專家認為,Nvidia 深度嵌入 AWS 云基礎設施,強化了客戶切換成本和上下文數據積累,這成為其長期競爭壁壘。
盡管 AWS 正在開發自有芯片,但英偉達在推理計算、網絡和系統層面的廣泛部署仍將確保其在云端 AI 基礎設施中的核心地位。分析人士指出,這種“基礎設施翻轉”現象表明,云服務商對 AI 推理計算的依賴正在加深,而英偉達的全棧方案為其奠定了長期競爭優勢。(AI普瑞斯編譯)









