在人工智能視頻生成領域,阿里云通義實驗室于2025年7月重磅開源了新一代視頻生成大模型 Wan2.2,其核心亮點包括人體動作生成的極致精度、電影級美學表達以及高效的資源利用效率,標志著視頻生成技術邁入了一個全新的階段。
一、核心功能:三大模型,覆蓋全場景視頻生成
Wan2.2此次開源了三款核心模型,分別針對不同任務場景,滿足多樣化需求:
-
文生視頻模型:Wan2.2-T2V-A14B
- MoE架構:采用混合專家(Mixture-of-Experts, MoE)設計,通過動態激活不同專家模塊,顯著提升生成質量的同時降低計算成本。
- 能力突破:支持從文本描述生成高清視頻(480P/720P),尤其擅長復雜動作(如人體后空翻)的精準還原,動作連貫性與物理合理性接近真實拍攝效果。
-
圖生視頻模型:Wan2.2-I2V-A14B
- 圖像到視頻的無縫銜接:基于輸入圖像生成動態視頻,保留原圖細節并