DeepSeek近期正加速推進新版本模型的灰度測試,業界普遍認為這或是其V4正式發布前的終極預覽版本。部分用戶反饋,在更新至1.7.4版本后,已能體驗到模型性能的顯著提升——上下文處理長度從128K擴展至1M,知識庫更新至2025年5月,核心能力覆蓋代碼生成、數學推理、多語言處理等多個領域。實測顯示,該版本在復雜任務處理上已與Gemini 3 Pro、K2.5等主流閉源模型持平,部分場景甚至表現更優。
據野村證券最新報告,DeepSeek V4預計于2月中旬正式亮相,但不會重現去年V3發布時引發的全球AI算力需求激增。報告指出,V4的核心突破在于通過底層架構創新推動AI商業化落地,而非顛覆現有技術生態。其引入的mHC(超連接與流形約束超連接)與Engram兩項技術,分別從訓練穩定性和內存調度效率切入,針對性解決國產硬件生態中的算力瓶頸問題。
mHC技術通過優化神經網絡層間信息流動機制,解決了深度Transformer模型訓練中的信息衰減問題。該架構在數學推理任務中表現尤為突出,實驗數據顯示其收斂速度較傳統模型提升30%以上。Engram架構則創新性地將靜態知識存儲與動態計算解耦,通過稀疏內存表設計將實體、固定表達等數據轉移至廉價DRAM,釋放GPU內存用于核心計算任務。野村測算,該技術可使HBM內存占用降低40%,同時推理速度提升15%。
成本優化成為V4最直接的商業價值。報告分析,訓練與推理成本的下降將激發下游應用需求,推動AI基礎設施建設進入新周期。中國硬件廠商有望從需求放量與投資前置中雙重受益,特別是在算力芯片互聯帶寬與計算密度存在代際差距的背景下,mHC技術可通過改善訓練穩定性部分對沖硬件短板,而Engram架構則通過內存調度優化突破顯存容量限制。
市場格局方面,DeepSeek正面臨與一年前截然不同的競爭環境。2024年底,其V3/R1模型曾占據OpenRouter開源模型Token使用量的半壁江山,但到2025年下半年,隨著meta、Anthropic等巨頭加速開源布局,其市場份額已顯著稀釋。野村認為,這種"群雄割據"的局面反而加速了中國大模型生態的成熟,推動開源模型成為全球開發者的重要選擇。
對于應用層企業,V4帶來的效能提升正在創造新的價值空間。報告觀察到,阿里通義千問等AI助手已能自動化執行多步驟任務,這類智能體與底層模型的交互頻率較傳統對話工具提升數倍,直接推高算力消耗。V4通過降低單位Token成本,使得軟件企業能在維持高性能的同時擴大用戶規模,形成"模型效率-應用規模-數據反饋"的正向循環。野村特別指出,那些能率先將V4能力轉化為顛覆性AI原生應用的廠商,其市場估值可能因技術代差優勢獲得重估。












