2月11日,多名用戶發(fā)現(xiàn) DeepSeek 網(wǎng)頁端與移動應(yīng)用同步迎來版本更新。本次升級最引人矚目的突破在于其上下文長度(Context Window)提升至1M(100萬)Token,標志著其在大規(guī)模文檔處理領(lǐng)域邁入了全球頂尖梯隊。
從128K 到1M:處理能力的跨越式增長相較于去年8月發(fā)布的DeepSeek V3.1(其上下文長度為128K),本次更新將處理能力提升了近8倍。
實測表現(xiàn): 經(jīng)用戶測試,DeepSeek 已能一次性“吞下”整本長篇小說(如超過24萬 Token 的《簡愛》),并精準識別和分析文檔內(nèi)容。
應(yīng)用場景: 這意味著程序員可以上傳整個項目代碼庫,學(xué)者可以一次性整理百萬字的論文資料,辦公族處理超長會議紀要或法律合同也將更加順暢。
旗艦?zāi)P?DeepSeek V4仍在“蓄勢”雖然本次更新顯著提升了長文本能力,但業(yè)內(nèi)消息顯示,這可能只是 V3系列的一次小幅迭代升級。真正的重頭戲——DeepSeek 下一代旗艦?zāi)P停A(yù)計為 V4)正處于研發(fā)后期。
據(jù)知情人士透露,由于該模型規(guī)模跨越至“萬億參數(shù)級”,訓(xùn)練復(fù)雜度的提升導(dǎo)致發(fā)布進程略有放緩。
此次升級引發(fā)了科技圈的廣泛關(guān)注。網(wǎng)友紛紛表示,百萬級上下文對編程和大數(shù)據(jù)分析是“重大的突破”。與此同時,市場上如QwenLong等模型也在長文本推理領(lǐng)域發(fā)力,國產(chǎn) AI 的“長文本競賽”正日趨白熱化。











