在全球 AI 技術(shù)不斷進(jìn)步的背景下,谷歌于1月15日發(fā)布了全新的 TranslateGemma 翻譯模型系列。這一系列模型基于其最新的 Gemma3架構(gòu),提供了3種參數(shù)規(guī)模,分別為4B、12B 和27B,能夠支持55種核心語言的翻譯,同時還具備多模態(tài)圖像翻譯的能力。這意味著用戶不僅可以翻譯文本,還能對圖片中的文字進(jìn)行翻譯,真正實(shí)現(xiàn)了無縫的語言交流。
根據(jù)谷歌的介紹,TranslateGemma 的推出不僅僅是一次技術(shù)的迭代,更是性能的飛躍。在嚴(yán)格的 WMT24++ 基準(zhǔn)測試中,12B 版本的翻譯質(zhì)量竟然超過了27B 基線模型,后者的參數(shù)量是其兩倍。也就是說,開發(fā)者們只需一半的算力,就能得到更高保真的翻譯結(jié)果,極大提高了翻譯的效率和響應(yīng)速度。
值得注意的是,體量最小的4B 模型也展現(xiàn)出了強(qiáng)大的實(shí)力,其性能已與12B 模型不相上下,尤其適合移動設(shè)備和邊緣計算環(huán)境。這一進(jìn)步讓更多用戶在日常生活中能夠輕松體驗高質(zhì)量翻譯,尤其是在出行、學(xué)習(xí)和工作中。
技術(shù)層面,TranslateGemma 的高效能得益于獨(dú)特的 “兩階段微調(diào)” 工藝。首先,谷歌通過高質(zhì)量合成數(shù)據(jù)與人工翻譯數(shù)據(jù)進(jìn)行監(jiān)督微調(diào),隨后引入強(qiáng)化學(xué)習(xí)階段,利用先進(jìn)的獎勵模型引導(dǎo)模型生成更加自然、貼合語境的譯文。這一技術(shù)創(chuàng)新為翻譯領(lǐng)域帶來了新的思路。
為了適應(yīng)不同的應(yīng)用場景,谷歌將 TranslateGemma 細(xì)分為不同尺寸的模型。4B 模型針對手機(jī)和邊緣設(shè)備進(jìn)行了優(yōu)化,12B 模型適合消費(fèi)級筆記本電腦,而27B 模型則是追求極致翻譯質(zhì)量用戶的理想選擇,能夠在高端 GPU 或云端 TPU 上運(yùn)行。
目前,所有模型已在 Kaggle、Hugging Face 和 Vertex AI 平臺上線,供廣大開發(fā)者和研究人員下載使用。隨著 TranslateGemma 的發(fā)布,谷歌再次向我們展示了其在 AI 領(lǐng)域的領(lǐng)先地位,并為語言翻譯的未來開辟了新的可能性。









