字節跳動今日宣布,正式推出新一代視頻創作模型Seedance 2.0,該模型通過技術創新重新定義了多模態視頻生成的可能性。基于統一的多模態音視頻聯合生成架構,Seedance 2.0實現了文字、圖片、音頻、視頻四種輸入模態的無縫融合,為創作者提供了前所未有的創作自由度。
在復雜場景處理能力方面,Seedance 2.0展現出顯著優勢。通過優化運動穩定性算法和物理還原引擎,模型在多主體交互、高速運動等高難度場景中仍能保持高可用率,其生成質量達到行業領先水平。測試數據顯示,在涉及復雜物理交互的場景中,模型輸出結果的可用率較前代提升40%以上。
針對專業創作需求,Seedance 2.0在可控性方面實現質的飛躍。模型不僅顯著提升了指令遵循能力,還新增了視頻延長和編輯功能。創作者可以通過簡單指令調整視頻時長、修改特定片段,甚至實現鏡頭語言的二次創作,真正實現"所見即所得"的導演級控制體驗。
工業級應用場景是Seedance 2.0的重要發力方向。模型支持15秒高質量多鏡頭視頻輸出,配備雙聲道音頻生成能力,可模擬真實環境中的空間聲場效果。結合其強大的參考編輯功能,影視制作、廣告營銷、電商展示等領域的內容生產成本有望降低60%以上,同時保持專業級的視聽品質。
目前,Seedance 2.0已在即夢AI、豆包等平臺開放體驗。用戶可通過這些平臺直接調用模型能力,創作個性化視頻內容。開發團隊表示,將持續收集用戶反饋,優化模型在特定場景下的表現,并探索更多商業化應用可能性。











