谷歌近日宣布推出全新開源大語言模型系列Gemma 4,將專有模型研發成果向全球開發者開放。這一系列包含四個不同參數規模的模型版本,既涵蓋適用于移動設備的輕量化方案,也提供面向高性能計算場景的旗艦模型,標志著谷歌在開源人工智能領域邁出關鍵一步。
針對不同硬件環境,Gemma 4系列提供差異化解決方案:20億和40億參數的"Effective"模型專為智能手機等邊緣設備優化,260億參數的"專家混合"模型與310億參數的"密集"模型則面向數據中心級應用。參數規模直接影響模型能力,參數越多通常意味著更強的語言理解能力,但也需要更強大的算力支持。谷歌特別強調,310億參數版本在第三方評測機構Arena AI的文本生成榜單中位列第三,260億參數版本排名第六,性能超越參數規模大20倍的競品模型。
該系列模型具備多模態處理能力,所有版本均支持視頻和圖像分析,可高效完成光學字符識別等任務。輕量級版本進一步擴展至音頻處理領域,能夠直接理解語音輸入。更值得關注的是,所有模型均具備離線代碼生成能力,開發者可在無網絡環境下完成編程工作。為提升全球適用性,谷歌在訓練階段納入140余種語言數據,確保模型在多語言場景下的穩定性。
在開源協議方面,谷歌采用Apache 2.0許可證替代原有的Gemma許可證,賦予開發者更大自由度。新協議允許用戶自由修改模型架構、調整參數配置,并支持在本地服務器或云端環境部署。谷歌人工智能團隊負責人表示:"這種開放模式既保障數據主權,又為技術創新提供基礎設施支持,開發者可以完全掌控模型從訓練到部署的全生命周期。"
目前,Gemma 4系列模型權重已通過Hugging Face、Kaggle和Ollama三大平臺開放下載。開發者可根據硬件條件選擇適配版本,輕量級模型可在消費級顯卡上運行,旗艦版本則需要專業級AI加速卡支持。這種分層開放策略既滿足學術研究需求,也為商業應用提供靈活選擇,預計將推動大語言模型在更多垂直領域的落地應用。







