2026年2月12日,字節(jié)跳動(dòng) Seed 團(tuán)隊(duì)正式發(fā)布新一代視頻創(chuàng)作模型 Seedance2.0。該版本采用統(tǒng)一的多模態(tài)音視頻聯(lián)合生成架構(gòu),標(biāo)志著 AI 視頻生成從“單點(diǎn)突破”正式邁向“全能協(xié)作”的工業(yè)級(jí)應(yīng)用階段。
核心技術(shù)躍遷:從“能畫”到“懂物理”相比1.5版本,Seedance2.0在復(fù)雜交互與運(yùn)動(dòng)場(chǎng)景下的可用率大幅提升。模型通過出色的物理還原能力,攻克了雙人花滑、多人競(jìng)技等高難度動(dòng)作的邏輯難題,確保了運(yùn)動(dòng)過程中的連貫性與真實(shí)感。同時(shí),新版本支持 15秒高質(zhì)量多鏡頭輸出,并集成了雙聲道立體聲技術(shù),實(shí)現(xiàn)了音畫同步的沉浸式視聽體驗(yàn)。
多模態(tài)全能參考:導(dǎo)演級(jí)的操控自由Seedance2.0徹底打破了素材邊界。它不僅支持文字、圖片、音頻、視頻四種模態(tài)輸入,更允許用戶同時(shí)引入多達(dá)9張圖片及多段視聽素材作為參考。創(chuàng)作者可以精準(zhǔn)指定構(gòu)圖、運(yùn)鏡、甚至文字分鏡腳本,實(shí)現(xiàn)“所想即所見”的精準(zhǔn)控制。
編輯與延展:不僅僅是生成為了貼合工業(yè)級(jí)創(chuàng)作流,Seedance2.0新增了強(qiáng)大的視頻編輯與延長(zhǎng)能力。用戶可對(duì)特定片段、角色動(dòng)作進(jìn)行定向修改,或根據(jù)提示詞進(jìn)行鏡頭接續(xù)。這種“接著拍”的能力,極大降低了影視、廣告及電商領(lǐng)域的制作門檻與成本。
目前,Seedance2.0已在即夢(mèng)AI、豆包等平臺(tái)上線。盡管團(tuán)隊(duì)坦言在多主體一致性及細(xì)節(jié)擬真度上仍有優(yōu)化空間,但其展現(xiàn)出的多模態(tài)泛化能力已穩(wěn)居業(yè)界 SOTA 水平。
地址:https://seed.bytedance.com/zh/seedance2_0
體驗(yàn)入口:
1)即夢(mèng)網(wǎng)頁(yè)端-視頻生成-選擇 Seedance2.0;
2)豆包 App 對(duì)話框-Seedance2.0-選擇2.0模型;
3)火山方舟體驗(yàn)中心-選擇 Doubao-Seedance-2.0。











