谷歌近日宣布推出一款名為TranslateGemma的開放翻譯模型系列,該系列基于Gemma 3架構(gòu)打造,包含4B、12B和27B三種參數(shù)規(guī)模的模型,支持55種核心語言及多模態(tài)圖像翻譯功能。目前,所有模型已在Kaggle、Hugging Face及Vertex AI平臺開放下載,為開發(fā)者提供靈活的選擇。
在性能測試中,谷歌團(tuán)隊(duì)采用WMT24++基準(zhǔn)(涵蓋高、中、低資源語言的55種組合)和MetricX指標(biāo)對模型進(jìn)行評估。結(jié)果顯示,12B版本在翻譯質(zhì)量上超越了參數(shù)量達(dá)其兩倍的Gemma 3 27B基線模型。這意味著開發(fā)者僅需消耗一半算力資源,即可獲得更高精度的翻譯結(jié)果,從而顯著提升處理效率并降低延遲。與此同時(shí),4B模型展現(xiàn)出與12B基線模型相當(dāng)?shù)男阅埽瑸橐苿佣撕瓦吘売?jì)算設(shè)備提供了輕量化解決方案。
技術(shù)層面,TranslateGemma采用獨(dú)特的“兩階段微調(diào)”工藝。第一階段通過監(jiān)督微調(diào)(SFT),將Gemini模型生成的高質(zhì)量合成數(shù)據(jù)與人工翻譯數(shù)據(jù)混合,對Gemma 3底座進(jìn)行訓(xùn)練;第二階段引入強(qiáng)化學(xué)習(xí)(RL),借助MetricX-QE和AutoMQM等先進(jìn)獎勵模型,優(yōu)化譯文語境適配度和自然度。這種設(shè)計(jì)使模型在保持高效的同時(shí),能夠生成更符合人類表達(dá)習(xí)慣的翻譯結(jié)果。
語言覆蓋方面,TranslateGemma重點(diǎn)優(yōu)化了55種核心語言(包括西班牙語、中文、印地語等),并計(jì)劃擴(kuò)展至近500種語言訓(xùn)練。這一舉措不僅滿足主流語言需求,更為學(xué)術(shù)界研究瀕危語言提供了技術(shù)支撐。得益于Gemma 3架構(gòu)的多模態(tài)特性,模型無需額外視覺任務(wù)微調(diào),即可實(shí)現(xiàn)圖像內(nèi)文字翻譯效果的同步提升。
針對不同應(yīng)用場景,谷歌為三種參數(shù)規(guī)模的模型設(shè)計(jì)了精準(zhǔn)部署方案:4B模型專為手機(jī)和邊緣設(shè)備優(yōu)化,支持端側(cè)高效推理;12B模型適配消費(fèi)級筆記本電腦,兼顧本地開發(fā)與研究級性能;27B模型面向追求極致質(zhì)量的場景,可在單張H100 GPU或云端TPU上運(yùn)行。這種分層設(shè)計(jì)使開發(fā)者能夠根據(jù)硬件條件和業(yè)務(wù)需求靈活選擇模型版本。










