豆包App及其電腦端、網頁版今日迎來重要更新——官方正式宣布接入全新視頻生成模型Seedance 2.0。用戶只需打開應用對話框,點擊新增的"Seedance 2.0"入口,輸入文字描述即可快速生成5秒或10秒的動態(tài)視頻內容。針對個性化創(chuàng)作需求,平臺特別推出"分身視頻"功能,通過真人驗證后用戶可創(chuàng)建專屬數(shù)字分身,解鎖更多創(chuàng)意互動場景。
該模型在技術層面實現(xiàn)多項突破性進展。其獨創(chuàng)的多模態(tài)可控生成技術,支持同時處理文字描述與參考圖像,自動生成包含完整原生音軌的多鏡頭視頻。在敘事邏輯處理方面,系統(tǒng)可智能解析文本結構,確保鏡頭切換時角色特征、光影效果、藝術風格及場景氛圍保持高度連貫性。這種端到端的生成方式,顯著降低了專業(yè)視頻制作的門檻。
值得注意的是,當前版本對參考圖像類型存在特定限制。為保障生成內容合規(guī)性,系統(tǒng)暫不支持用戶上傳真實人物照片作為創(chuàng)作主體。官方透露,未來將持續(xù)優(yōu)化模型能力,逐步開放更多創(chuàng)作維度與素材類型。此次更新標志著AI視頻生成技術向消費級應用邁出重要一步,普通用戶無需專業(yè)設備即可實現(xiàn)創(chuàng)意視頻制作。
從技術架構看,Seedance 2.0采用創(chuàng)新的音畫同步算法,能夠精準匹配畫面動作與背景音效的節(jié)奏變化。在長敘事場景中,模型通過動態(tài)鏡頭規(guī)劃技術,可自動生成包含遠景、中景、特寫等多視角的敘事序列。這種智能化的創(chuàng)作輔助,既保留了用戶的主觀創(chuàng)意空間,又通過技術手段確保了作品的專業(yè)品質,為短視頻創(chuàng)作領域帶來新的可能性。











