阿里巴巴千問團隊近日正式發布了一款名為Qwen3-Coder-Next的開放權重語言模型,該模型專為編碼代理和本地開發場景設計,通過創新架構與訓練方法實現了性能與效率的顯著提升。與傳統的參數擴展模式不同,新模型聚焦于智能體訓練信號的擴展,采用混合注意力機制與MoE(專家混合)架構,在降低推理成本的同時強化了編程能力與智能體交互水平。
在訓練方法上,團隊構建了多階段強化體系:首先通過持續預訓練讓模型吸收代碼與智能體相關數據,隨后利用高質量智能體軌跡數據進行監督微調,并針對軟件工程、QA測試、Web/UX開發等垂直領域開展專家訓練。最終通過知識蒸餾技術將專家能力整合到單一可部署模型中。這種訓練策略特別強化了長程推理、工具調用及錯誤恢復能力,使其更適應真實開發環境的需求。
基準測試數據顯示,當集成SWE-Agent框架時,該模型在SWE-Bench Verified基準上取得超過70%的準確率,在多語言版本及更具挑戰性的Pro版本中仍保持競爭力。值得注意的是,盡管其激活參數規模僅為30億,但在TerminalBench 2.0和Aider等智能體評測中,性能表現可與激活參數量高10-20倍的開源模型媲美,展現出顯著的效率優勢。
效率對比圖表進一步證實,在SWE-Bench-Pro任務中,Qwen3-Coder-Next的3B激活參數版本已達到行業領先水平,其性能曲線處于帕累托前沿位置。雖然全注意力架構的專有模型在絕對指標上仍占優勢,但新模型在低成本智能體部署場景中展現出更強的實用性,特別適合資源受限的開發環境。
該模型現已通過ModelScope和Hugging Face平臺開源,開發團隊表示將持續優化模型的推理決策能力,擴展其任務支持范圍,并根據用戶反饋進行快速迭代。此次發布標志著編程智能體領域在效率優化方向取得重要突破,為開發者提供了更具性價比的選擇。













