字節跳動旗下AI產品豆包與即夢近日完成重大技術升級,正式接入全新視頻生成模型Seedance2.0。該模型突破傳統創作模式,支持圖像、視頻、音頻、文本四模態輸入,用戶可通過組合不同媒介精準控制生成內容。目前豆包App、電腦端、網頁版及即夢全平臺均已開放體驗,其中移動端版本更推出真人數字分身功能,用戶完成面部生物特征校驗后即可創建個性化虛擬形象參與視頻創作。
在交互設計方面,Seedance2.0實現創作邏輯的顛覆性革新。創作者可上傳特定風格圖片設定視覺基調,導入視頻片段規范角色動作軌跡,甚至通過音頻波形控制畫面節奏與氛圍渲染。這種多模態參考機制使"提示詞"不再局限于文字指令,顯著降低專業視頻制作門檻。測試數據顯示,該模型在角色一致性、運動合理性等核心指標上達到行業領先水平,生成效率較前代提升40%以上。
針對隱私保護與倫理規范,平臺采取差異化運營策略。移動端應用在啟用真人分身功能前,強制要求用戶完成動態活體檢測,確保生物特征數據采集符合安全標準。而電腦端及網頁版則明確禁止上傳真實人臉素材,僅支持通過系統內置虛擬形象庫進行創作。這種分層防護機制既滿足個性化需求,又有效規避潛在風險。
此前Seedance2.0已完成三個月封閉測試,其多模態理解能力與精準控制特性引發全球創作者關注。內測期間,該模型成功生成超過200萬條高質量視頻內容,涵蓋影視短片、廣告創意、教育課件等多個領域。技術團隊透露,后續版本將持續優化3D空間建模與物理引擎模擬能力,進一步拓展專業創作場景的應用邊界。












