谷歌近日宣布推出全新開源模型系列Gemma 4,將專有大語言模型的核心技術(shù)向全球開發(fā)者開放。這一系列包含四個不同參數(shù)規(guī)模的版本,旨在滿足從移動設備到數(shù)據(jù)中心的多場景需求。其中20億和40億參數(shù)的"Effective"版本專為智能手機等邊緣設備優(yōu)化,而260億參數(shù)的"專家混合"模型與310億參數(shù)的"密集"模型則面向高性能計算場景。
參數(shù)規(guī)模直接影響模型性能與硬件需求。據(jù)谷歌介紹,參數(shù)數(shù)量越多,模型生成輸出的質(zhì)量通常越高,但需要更強的計算資源支持。Gemma 4系列通過技術(shù)創(chuàng)新實現(xiàn)了"單參數(shù)智能水平"的突破,其310億參數(shù)版本在Arena AI文本排行榜中位列第三,260億參數(shù)版本排名第六,甚至超越了參數(shù)規(guī)模達其20倍的競品模型。
該系列模型具備多模態(tài)處理能力,所有版本均支持視頻和圖像分析,可高效完成光學字符識別等任務。針對移動場景優(yōu)化的兩個輕量級模型額外支持音頻輸入與語音理解功能。更值得關(guān)注的是,所有模型均具備離線代碼生成能力,允許開發(fā)者在無網(wǎng)絡環(huán)境下完成編程工作。谷歌通過在140余種語言上訓練模型,顯著提升了其跨語言處理能力。
在開源協(xié)議方面,谷歌此次采用Apache 2.0許可證發(fā)布Gemma 4系列,較之前使用的Gemma許可證賦予開發(fā)者更大自由度。開發(fā)者可基于模型進行二次開發(fā),并在本地或云端環(huán)境自由部署,同時保持對數(shù)據(jù)、基礎(chǔ)設施和模型修改的完全控制權(quán)。谷歌強調(diào)這種開放模式有助于推動AI技術(shù)的民主化進程。
目前,開發(fā)者可通過Hugging Face、Kaggle和Ollama三大平臺獲取Gemma 4的模型權(quán)重。這種多渠道分發(fā)策略既方便了不同技術(shù)背景的開發(fā)者,也確保了模型在不同硬件環(huán)境下的兼容性。從智能手機到超級計算機,從個人開發(fā)者到企業(yè)用戶,Gemma 4系列正通過開源模式重塑AI技術(shù)的應用邊界。









