大模型領(lǐng)域迎來重磅消息:Qwen3.5正式發(fā)布并開源,在多模態(tài)理解、復(fù)雜推理、編程及Agent智能體等多個關(guān)鍵能力上,不僅領(lǐng)先同級開源模型,多項(xiàng)基準(zhǔn)測試成績更是媲美甚至超越GPT - 5.2、Gemini 3 pro等閉源第一梯隊(duì)模型,引發(fā)行業(yè)廣泛關(guān)注。
Qwen3.5 - Plus展現(xiàn)出強(qiáng)大的性能優(yōu)勢。其總參數(shù)達(dá)3970億,然而激活參數(shù)僅170億。這一獨(dú)特設(shè)計(jì)使其性能超越擁有萬億參數(shù)的Qwen3 - Max模型,部署顯存占用大幅降低60%,推理效率顯著提升,最大吞吐量可提升至原來的19倍。在價(jià)格方面,Qwen3.5 - Plus的API價(jià)格最低為每百萬Token0.8元,同等性能下,價(jià)格僅為Gemini - 3 - pro的1/18,極具性價(jià)比。
在實(shí)際測試中,Qwen3.5的表現(xiàn)令人眼前一亮。當(dāng)被問到“我要去洗車,洗車的地方離家就100米,我是開車去呢,還是走著去呢?”這一充滿邏輯陷阱的“腦筋急轉(zhuǎn)彎”問題時,國內(nèi)國外眾多大模型鮮有答對,而Qwen3.5不僅精準(zhǔn)識別出題目中的陷阱,還以幽默輕松的語氣給出正確答案,并貼心提醒“開車慢行,確保安全”。深入探究其思考過程,會發(fā)現(xiàn)它遵循分析需求、識別陷阱、制定答案、起草答案、內(nèi)部比較、打磨答案、思考其他可能、確定答案等一系列嚴(yán)謹(jǐn)步驟,過程中還會像真人一樣“自我鼓勵”,堅(jiān)定回答。
Qwen3.5的多模態(tài)能力在實(shí)際應(yīng)用場景中得到了充分展現(xiàn)。在多模態(tài)理解與代碼生成體驗(yàn)中,上傳一張禮品購買App前端頁面的手繪草圖,要求生成紅白配色的簡約風(fēng)前端頁面并輸出可直接使用的HTML代碼。Qwen3.5幾乎瞬間識別出草圖中的基本框架和文字信息,在紅白配色的模糊指令下,自主選擇飽和度適中的紅色,生成的代碼簡潔可用,頁面與草圖高度相似。更值得一提的是,上傳的草圖為英文,Qwen3.5根據(jù)問答上下文和提問語言判斷用戶為中文用戶,自動將頁面語言調(diào)整為中文。
在復(fù)雜場景與OCR能力測試中,隨手拍攝一張包含多個物體和背景的照片,詢問“今天的天氣怎么樣?這張圖片中都有什么?”背光環(huán)境下,圖片中文字在陰影內(nèi)模糊不清,但Qwen3.5準(zhǔn)確識別出圖片中的布洛芬顆粒沖劑、保濕霜以及酸奶的品牌,還詳細(xì)附上功效。結(jié)合外面晴朗的天氣,它綜合判斷用戶正在家休息養(yǎng)生,并送上“希望天氣好心情也好,早日恢復(fù)活力!”的祝福。
藝術(shù)理解能力方面,給Qwen3.5展示西班牙畫家薩爾瓦多·達(dá)利的《記憶的永恒》,它迅速提取出畫中“融化的時鐘”這一特點(diǎn)元素,準(zhǔn)確說出作者為薩爾瓦多·達(dá)利,并詳細(xì)呈現(xiàn)作者的生平信息以及這幅畫的畫面材質(zhì)、創(chuàng)作時間、尺寸、收藏地等詳細(xì)信息。還深入介紹畫的主要元素、象征意義以及藝術(shù)地位,展現(xiàn)出對美學(xué)和抽象概念的較強(qiáng)理解能力。
Qwen3.5在編程與智能體操作領(lǐng)域同樣表現(xiàn)出色。它可與OpenClaw集成,驅(qū)動編程任務(wù)。通過將OpenClaw作為第三方智能體環(huán)境集成,Qwen3.5能夠進(jìn)行網(wǎng)頁搜索、信息收集和結(jié)構(gòu)化報(bào)告生成,結(jié)合自身推理與工具調(diào)用能力以及OpenClaw的接口,為用戶帶來流暢的編碼和研究體驗(yàn)。作為視覺智能體,它能自主操作手機(jī)與電腦完成日常任務(wù),在移動端適配更多主流應(yīng)用,支持自然語言指令驅(qū)動操作;在PC端可處理跨應(yīng)用的數(shù)據(jù)整理、多步驟流程自動化等復(fù)雜任務(wù),有效減少重復(fù)性人工干預(yù),提升工作效率。以Qwen3.5為底層模型的Qwen Code支持“vibe coding”,可將自然語言指令轉(zhuǎn)化為代碼、實(shí)時迭代開發(fā)項(xiàng)目,并支持生成視頻等創(chuàng)意任務(wù)。
Qwen3.5之所以能在多模態(tài)能力上取得如此突破,源于千問團(tuán)隊(duì)對模型底層架構(gòu)的重構(gòu),使其從“語言模型”成功進(jìn)化為“原生多模態(tài)大模型”。當(dāng)前行業(yè)中不少所謂的“多模態(tài)”方案,本質(zhì)上是“拼裝”,先訓(xùn)練語言模型“學(xué)說話”,再外掛視覺或音頻模塊,模塊間靠適配層勉強(qiáng)對齊,甚至只是在統(tǒng)一入口背后通過工程路由將不同任務(wù)分發(fā)給不同模型,未實(shí)現(xiàn)真正的多模態(tài)融合,且部分視覺理解模型隨視覺能力增強(qiáng)會出現(xiàn)語言能力“降智”問題。而Qwen3.5從預(yù)訓(xùn)練第一天起,就在海量文本和視覺混合數(shù)據(jù)上聯(lián)合學(xué)習(xí),如同人類調(diào)用五官綜合接收外界信息,讓視覺與語言在統(tǒng)一參數(shù)空間內(nèi)深度融合,使模型看到圖就能自然理解語義,讀到文字便能在腦中構(gòu)建對應(yīng)畫面,具備跨模態(tài)的直覺理解力。
為實(shí)現(xiàn)原生融合的高效運(yùn)行,Qwen3.5在訓(xùn)練架構(gòu)上進(jìn)行創(chuàng)新。行業(yè)傳統(tǒng)做法是讓視覺和語言用同一套并行策略,效率損耗嚴(yán)重,而Qwen3.5讓兩者各走最優(yōu)路徑,再在關(guān)鍵節(jié)點(diǎn)高效匯合,即使同時喂入文本、圖像、視頻三種數(shù)據(jù),訓(xùn)練速度也幾乎不受影響,與只訓(xùn)練純文本時相當(dāng)。同時,通過定制化的FP8/FP32精度策略,使激活內(nèi)存占用降低約50%,訓(xùn)練速度提升10%,該策略在強(qiáng)化學(xué)習(xí)訓(xùn)練與推理全流程統(tǒng)一應(yīng)用,降低多模態(tài)模型規(guī)模化部署的成本與復(fù)雜度。在智能體訓(xùn)練上,千問團(tuán)隊(duì)搭建大規(guī)模強(qiáng)化學(xué)習(xí)框架,支持文本、多模態(tài)與多輪對話等場景,訓(xùn)練效率提升3至5倍。
過去兩年,大模型行業(yè)普遍陷入“堆參數(shù)、拼算力”的誤區(qū),模型規(guī)模不斷攀升,性能雖有提升,但成本也大幅增加,部署需要專屬集群,推理消耗大量算力,中小企業(yè)難以負(fù)擔(dān),終端設(shè)備無法運(yùn)行,離普惠、實(shí)用目標(biāo)越來越遠(yuǎn)。Qwen3.5另辟蹊徑,通過四項(xiàng)核心技術(shù)突破實(shí)現(xiàn)“以小勝大”。一是混合注意力機(jī)制,傳統(tǒng)大模型處理長文本時需對每個token與全部上下文進(jìn)行全量注意力計(jì)算,算力開銷高,Qwen3.5依據(jù)信息重要性動態(tài)分配注意力資源,提升效率同時保證精度;二是極致稀疏MoE架構(gòu),傳統(tǒng)稠密模型每次推理都要調(diào)動全部參數(shù)運(yùn)算,Qwen3.5的MoE架構(gòu)按需激活與輸入內(nèi)容最相關(guān)的“專家”網(wǎng)絡(luò),總參數(shù)397B的情況下激活參數(shù)僅需17B,不到5%的算力即可調(diào)動全部知識儲備;三是原生多Token預(yù)測,千問團(tuán)隊(duì)讓模型在訓(xùn)練階段學(xué)會對后續(xù)多個位置進(jìn)行聯(lián)合預(yù)測,推理速度接近翻倍,在長文本生成、代碼補(bǔ)全、多輪對話等高頻場景中響應(yīng)速度接近“秒回”;四是系統(tǒng)級訓(xùn)練穩(wěn)定性優(yōu)化,2025年千問團(tuán)隊(duì)發(fā)表的注意力門控機(jī)制論文獲NeurIPS 2025最佳論文獎,通過在注意力層輸出端加入“智能開關(guān)”,智能調(diào)控信息“流量”,防止有效信息被淹沒和無效信息被過度放大,提升模型輸出精度和長上下文泛化能力,類似的深層優(yōu)化還包括歸一化策略和專家路由初始化等,共同確保架構(gòu)創(chuàng)新在大規(guī)模訓(xùn)練中穩(wěn)定運(yùn)行。











