阿里巴巴千問團隊近日正式發布了專為編碼代理與本地開發設計的語言模型——Qwen3-Coder-Next。這款開放權重的模型基于Qwen3-Next-80B-A3B-Base架構,通過引入混合注意力機制與MoE(專家混合)架構,在降低推理成本的同時顯著提升了編程與智能體能力。該模型采用大規模可執行任務合成、環境交互與強化學習等創新訓練方法,突破了傳統參數擴展的局限。
在訓練策略上,研究團隊構建了多維度訓練體系:首先通過代碼與智能體相關數據進行持續預訓練,隨后在包含高質量智能體軌跡的數據集上進行監督微調。針對軟件工程、QA測試、Web/UX設計等垂直領域,團隊設計了專家訓練模塊,最終將多領域能力蒸餾至單一可部署模型。這種訓練范式特別強化了長程推理、工具調用及錯誤恢復能力,這些特性對現實編程場景至關重要。
基準測試數據顯示,當集成SWE-Agent框架時,該模型在SWE-Bench Verified基準上取得超過70%的得分,在多語言版本及更具挑戰性的SWE-Bench-Pro測試中仍保持競爭力。值得注意的是,在僅激活30億參數的情況下,其性能已可媲美參數量高10-20倍的開源模型。在TerminalBench 2.0和Aider等智能體評測中,該模型同樣展現出顯著優勢。
效率測試表明,Qwen3-Coder-Next在性能與資源消耗間實現了更優平衡。在SWE-Bench-Pro測試中,其3B激活參數版本的表現與參數量大10-20倍的模型相當。盡管全注意力架構的專有模型在絕對性能上仍具優勢,但該模型在低成本智能體部署場景中展現出明顯的效率優勢,處于帕累托前沿位置。
目前,該模型已通過ModelScope和Hugging Face平臺開放下載。研究團隊表示,后續將重點優化模型的推理決策能力,擴展其任務支持范圍,并根據用戶反饋持續迭代更新。這一進展為智能編程工具的開發提供了新的技術路徑,特別是在資源受限場景下的應用具有重要價值。









