抖音集團副總裁李亮在近期舉辦的發(fā)布會上透露,國產(chǎn)AI視頻生成模型Seedance2.0將首次深度應(yīng)用于央視春晚舞臺。這一技術(shù)合作標志著中國在人工智能視頻生成領(lǐng)域取得關(guān)鍵進展,成為全球范圍內(nèi)首個將此類技術(shù)應(yīng)用于國家級大型文化活動的案例。
作為豆包團隊自主研發(fā)的成果,Seedance2.0已通過豆包App、電腦客戶端及網(wǎng)頁端全面開放使用。用戶通過對話界面進入新增的"Seedance2.0"功能模塊,輸入文字描述即可生成5至10秒的短視頻內(nèi)容。目前該技術(shù)主要面向普通場景應(yīng)用,經(jīng)測試暫不支持生成包含特定公眾人物的視頻內(nèi)容。
技術(shù)團隊負責人表示,此次與春晚的合作不僅為觀眾呈現(xiàn)了融合傳統(tǒng)藝術(shù)與現(xiàn)代科技的視聽盛宴,更為國產(chǎn)AI技術(shù)的場景化落地提供了重要實踐平臺。通過實時生成技術(shù),舞臺視覺效果得以突破傳統(tǒng)制作模式的限制,實現(xiàn)更具創(chuàng)意的表現(xiàn)形式。
據(jù)介紹,Seedance2.0采用自主研發(fā)的算法架構(gòu),在動態(tài)場景渲染、光影效果模擬等關(guān)鍵技術(shù)指標上達到行業(yè)領(lǐng)先水平。該模型特別優(yōu)化了對中文語境的理解能力,能夠更精準地解析用戶輸入的創(chuàng)意描述,生成符合東方審美特征的視覺內(nèi)容。
隨著技術(shù)持續(xù)迭代升級,研發(fā)團隊正著力突破多模態(tài)交互、長視頻生成等關(guān)鍵技術(shù)瓶頸。此次春晚應(yīng)用積累的實踐經(jīng)驗,將為后續(xù)優(yōu)化模型性能、拓展應(yīng)用場景提供重要參考,推動AI視頻生成技術(shù)向?qū)I(yè)化、規(guī)模化方向發(fā)展。








