谷歌DeepMind近日正式推出全新開放權重模型系列Gemma 4,采用Apache 2.0許可證替代此前備受爭議的專屬協議。這一轉變被Hugging Face聯合創(chuàng)始人Clément Delangue稱為"開源生態(tài)的重要里程碑",意味著企業(yè)可自由部署、修改及商業(yè)化應用,無需擔憂法律條款變更風險。該系列模型與谷歌旗艦級Gemini共享技術底座,標志著前沿AI研究成果首次以開放形式向開發(fā)者全面開放。
Gemma 4系列包含四個版本,覆蓋從移動端到數據中心的全場景需求。工作站級模型提供兩種選擇:310億參數的稠密模型專注極致輸出質量,在AIME 2026數學測試中取得89.2%的準確率;260億參數的混合專家模型通過動態(tài)激活128個專家模塊中的部分單元,實際運行參數僅38億,在保持88.3%數學準確率的同時,推理速度提升40%。這兩個大模型均支持25.6萬token的超大上下文窗口,可一次性處理完整代碼庫或長篇文檔。
針對邊緣設備優(yōu)化的E2B和E4B模型展現突破性創(chuàng)新。E2B采用分層嵌入技術,將51億參數壓縮至23億實際計算量,在保持性能的同時降低功耗;E4B則通過類似技術使80億參數模型達到45億參數的運行效率。這兩個輕量級模型新增本地語音處理能力,支持實時語音識別與翻譯,所有計算均在設備端完成,確保用戶數據隱私安全。
在開發(fā)友好性方面,全系列模型原生支持函數調用與結構化輸出,開發(fā)者可構建自主決策的智能體系統(tǒng)。本地化代碼生成功能使模型能作為AI編程助手直接運行于個人電腦,避免云端傳輸帶來的安全風險。視覺能力顯著升級,支持70至1120塊的可變分辨率圖像分割,可靈活應對簡單分類到復雜OCR識別的不同任務需求,更具備多圖同步分析與視頻幀序列處理能力。
性能測試數據顯示,310億參數模型在LiveCodeBench編程測試中取得80.0%準確率,Codeforces算法競賽評分達2150分,其混合專家版本也分別獲得77.1%和相近水平表現。邊緣模型同樣表現亮眼,E4B在相同測試中取得42.5%和52.0%的成績,超越前代270億參數的Gemma 3模型。這種"小體積、高性能"的特性獲得開發(fā)者社區(qū)"這么小,這么牛"的高度評價。
技術部署層面,谷歌提供完整的本地化運行方案。260億參數模型經4位量化后可適配24GB顯存的消費級顯卡,310億參數版本量化后也能在普通工作站運行。同步推出的量化感知訓練技術確保模型精度損失控制在3%以內。目前該系列已登陸Hugging Face、Kaggle等主流平臺,獲得vLLM、SGLang等推理框架支持,開發(fā)者可即刻下載使用。
硬件生態(tài)合作取得實質性進展。高通與聯發(fā)科針對Gemma 4小模型完成芯片級優(yōu)化,使移動端推理能效提升35%。安卓開發(fā)者可通過AICore預覽版體驗智能體工作流,未來將與Gemini Nano 4實現無縫兼容。這種軟硬協同的優(yōu)化策略,使消費級設備得以運行接近前沿閉源模型的智能系統(tǒng)。
自初代Gemma發(fā)布以來,該系列累計下載量突破4億次,社區(qū)衍生出超過10萬個定制版本。Gemma 4的推出標志著谷歌AI戰(zhàn)略的重要轉向——通過開放最先進的技術成果,構建開發(fā)者主導的創(chuàng)新生態(tài)。這種轉變不僅消除了企業(yè)用戶長期擔憂的法律風險,更為AI技術的普及化應用開辟了新路徑。







