谷歌旗下DeepMind團隊近日宣布推出一款名為Gemini3.1Flash-Lite的生成式AI模型,該模型在推理效率方面實現(xiàn)重大突破,能夠以接近實時的方式完成網(wǎng)頁渲染任務(wù)。這項技術(shù)革新標志著AI應(yīng)用從靜態(tài)文本生成向動態(tài)用戶界面構(gòu)建邁出關(guān)鍵一步,為交互式數(shù)字內(nèi)容開發(fā)開辟了新路徑。
性能測試數(shù)據(jù)顯示,新模型首次響應(yīng)速度較前代產(chǎn)品提升150%,每秒可處理超過360個文本標記。在第三方機構(gòu)Artificial Analysis組織的多模態(tài)基準測試中,這款輕量化模型在多項指標上超越了Claude Opus4.6等參數(shù)規(guī)模更大的競品,展現(xiàn)出高效能與低資源消耗的顯著優(yōu)勢。
技術(shù)升級伴隨成本調(diào)整,該模型的輸出定價從每百萬標記0.40美元上調(diào)至1.50美元。谷歌方面解釋稱,價格變動反映了實現(xiàn)亞秒級響應(yīng)所需的高性能計算資源投入,以及為維持低延遲服務(wù)而增加的算力成本。
為展示模型能力,開發(fā)團隊同步推出"偽瀏覽器"概念驗證應(yīng)用。用戶輸入自然語言指令后,系統(tǒng)可在數(shù)百毫秒內(nèi)生成并渲染完整網(wǎng)頁,包括按鈕、表單等交互元素。盡管當前版本在處理復(fù)雜邏輯時仍存在內(nèi)容漂移現(xiàn)象,但其在快速原型開發(fā)、實時界面適配等場景已展現(xiàn)出實用價值。
具體應(yīng)用場景包括:設(shè)計師可通過文本描述即時生成UI原型;教育平臺能根據(jù)學(xué)習者操作動態(tài)調(diào)整頁面布局;客服系統(tǒng)可快速構(gòu)建個性化交互界面。這些特性使其特別適合需要即時反饋的輕量級多模態(tài)任務(wù),可作為重型模型的替代方案。
目前該模型已通過Google AI Studio和Vertex AI平臺向開發(fā)者開放。用戶可通過API調(diào)用或在線演示界面體驗其極速生成能力,谷歌同時提供了針對不同場景的優(yōu)化指南和性能調(diào)優(yōu)建議。











