3 月 3 日消息,在本周的巴塞羅那 MWC 2026 世界移動(dòng)通信大會(huì)期間,華為數(shù)據(jù)存儲(chǔ)產(chǎn)品線總裁袁遠(yuǎn)在產(chǎn)品與解決方案發(fā)布會(huì)上正式發(fā)布 AI 數(shù)據(jù)平臺(tái)。
當(dāng)下,大多模型尚未深入運(yùn)營(yíng)商核心業(yè)務(wù),其原因在于行業(yè)普遍“重訓(xùn)練、輕推理”。而推理才是 AI 應(yīng)用落地的關(guān)鍵。
為解決推理業(yè)務(wù)中幻覺(jué)頻發(fā)、響應(yīng)體驗(yàn)不佳及推理記憶缺失的瓶頸,華為首創(chuàng)“3+1”AI 數(shù)據(jù)平臺(tái),針對(duì)知識(shí)、KV Cache 和記憶進(jìn)行存儲(chǔ)與優(yōu)化,并通過(guò) UCM 技術(shù)實(shí)現(xiàn)調(diào)度與管理,助力用戶推理體驗(yàn)提升。附具體介紹如下:
知識(shí)庫(kù)提供高精度多模知識(shí),讓檢索更精準(zhǔn):在智能查詢場(chǎng)景中,該技術(shù)通過(guò)多模無(wú)損解析、Token 級(jí)編碼等方式,將文本、圖片、視頻等資源轉(zhuǎn)化成海量細(xì)粒度的知識(shí),結(jié)合多維度檢索與比對(duì),實(shí)現(xiàn)超 95% 檢索準(zhǔn)確率。
PB 級(jí) KV Cache 容納海量歷史數(shù)據(jù),讓推理更高效:在 AI 客服場(chǎng)景中,該技術(shù)不僅能在單次對(duì)話時(shí)大幅擴(kuò)展上下文窗口,還能在多輪對(duì)話中復(fù)用歷史 KV Cache,避免重復(fù)計(jì)算,實(shí)現(xiàn)首 Token 時(shí)延降低 90%,模型響應(yīng)速度顯著提升。
記憶庫(kù)提供上下文記憶管理,讓模型越用越聰明:在商業(yè)數(shù)據(jù)洞察場(chǎng)景中,該技術(shù)可精準(zhǔn)萃取歷史數(shù)據(jù)與經(jīng)驗(yàn),并沉淀成可召回的記憶。記得更多,推理就更精準(zhǔn),便可實(shí)現(xiàn)“越用越聰明”的持續(xù)進(jìn)化。
UCM 推理記憶數(shù)據(jù)管理技術(shù),全生命周期管理與調(diào)度記憶數(shù)據(jù):通過(guò)三層緩存架構(gòu),對(duì)知識(shí)庫(kù)、KV Cache 和記憶庫(kù)進(jìn)行分級(jí)管理與智能調(diào)度,進(jìn)一步優(yōu)化推理能力。
本次發(fā)布的 AI 數(shù)據(jù)平臺(tái)可提供一體化和分離式兩大部署模式:
一體化部署以 OceanStor A800 為底座,集成上述能力,同時(shí)兼具性能與靈活擴(kuò)展性;
分離式部署采用“數(shù)據(jù)引擎節(jié)點(diǎn) +OceanStor Dorado”架構(gòu),可在現(xiàn)有系統(tǒng)上新增數(shù)據(jù)引擎節(jié)點(diǎn),保護(hù)歷史投資,支撐業(yè)務(wù)平滑轉(zhuǎn)型。











