近日,科技領域迎來一則引人矚目的消息:有網友在體驗DeepSeek時發現,該模型正在進行灰度測試,其上下文長度最高可達1M Token(百萬級),這一數值遠超去年8月發布的V3.1版本所支持的128K上下文長度。當用戶在DeepSeek中詢問模型身份及上下文相關問題時,模型明確回復稱自身支持1M token的超長上下文。
除了上下文長度的顯著提升,DeepSeek在知識庫更新方面也表現出色。據測試反饋,該模型的知識庫已更新至2025年5月,即便處于非聯網狀態,也能夠準確輸出2025年4月的新聞資訊,這無疑為用戶獲取最新信息提供了有力保障。
不過,目前該模型仍存在一定局限性。它并非多模態模型,不支持視覺輸入功能,僅能夠處理文本以及語音相關內容。此前有相關報道透露,DeepSeek計劃于2月中旬農歷新年期間推出新一代旗艦模型DeepSeek V4,新模型將在代碼能力方面有更突出的表現,值得期待。











