阿里通義實驗室近日正式推出視頻創作大模型Wan2.7-Video,該模型突破傳統視頻生成工具的局限,支持文本、圖像、視頻、音頻全模態輸入,實現畫面結構、劇情走向、局部細節、時序變化等多維度精準編輯。用戶通過自然語言指令即可完成從智能劇本創作到專業分鏡調度的全流程操作,甚至能指定電影類型自動匹配色彩風格與光影效果。
在核心功能層面,該模型創新性地引入視頻續寫與尾幀控制聯合機制。用戶既可延續現有視頻內容,又能直接指定結尾畫面,有效解決傳統續寫中常見的畫面割裂問題。實測顯示,當要求將歐美男生替換為中國男生時,模型不僅精準保留背景細節與人物姿態,更實現嘴型同步與音色統一,僅對服裝光影進行自然調整。對于多主體場景,模型支持同時參考最多5個視頻素材,確保角色行為與場景元素的高度協調。
針對專業創作需求,Wan2.7-Video提供精細化控制選項。用戶可通過指令修改拍攝參數,包括機位、視角、景別等十余種運鏡方式,甚至能實現希區柯克式變焦等復合技巧。在角色塑造方面,模型支持修改臺詞內容、情緒表達及行為動作,同時保持口型匹配與音色連貫。當需要將夏日場景轉換為深秋時,模型可自動調整植被色彩與光影氛圍,生成符合邏輯的季節變遷效果。
技術突破方面,該模型通過解構動畫藝術風格,將整體造型、線條輪廓、光影材質等要素拆分為獨立維度。這種模塊化設計使用戶能自由組合視覺元素,創造獨特風格的同時確保多鏡頭一致性。在情緒表達層面,模型經過專業劇本訓練,可演繹超過40種細分表情,從微妙眼神到復雜肢體語言均能精準呈現。
多模態協同是該模型的另一亮點。通義實驗室語音團隊通過音頻預訓練技術,顯著提升聲音真實度與音畫同步質量,使角色對話更具感染力。虎鯨文娛摩酷實驗室則提供影視領域專業知識,優化角色表演邏輯與場景調度合理性。這種跨領域合作印證了當代視頻生成已進入音畫協同、敘事邏輯與美學表達的綜合競爭階段。
目前,Wan2.7-Video已開放阿里云百煉平臺與萬相官網體驗入口。用戶可通過自然語言指令實現"一句話改視頻",模型自動處理光影材質一致性等復雜問題。從局部元素增刪到整體風格轉換,從智能運鏡到專業分鏡,該模型正在重新定義視頻創作的效率標準與技術邊界。






