
Wan 2.7 對比 Wan 2.6:實際帶來了哪些改動
Wan 2.7 新增了 Wan 2.6 沒有的首尾影格控制、九宮格圖片輸入、multi-reference 影片與指令編輯功能。本文將實用分析各項改動,以及該在什麼時候使用各版本。
重點總結 — 5 項改動
- ✅ Wan 2.7 加入 首尾影格控制 (FLF2V) — 2.6 沒有此功能
- ✅ Wan 2.7 支援 最多 5 個參考影片輸入 — 2.6 沒有 multi-reference 輸入
- ✅ Wan 2.7 加入 九宮格圖片輸入 — 2.6 僅使用單張圖片參考
- ✅ Wan 2.7 加入 基於指令的影片編輯 — 不需要完全重新生成就能編輯現有片段
- ✅ Wan 2.7 最長持續時間為 15 秒 — Wan 2.6 上限約為 5 秒
快速規格比較
| 功能 | Wan 2.6 | Wan 2.7 |
|---|---|---|
| 架構 | Diffusion Transformer | Diffusion Transformer + Flow Matching |
| 最長持續時間 | ~5 秒 | 15 秒 |
| 最大解析度 | 1080P | 1080P |
| 畫面比例 | 16:9, 9:16, 1:1 | 16:9, 9:16, 1:1 |
| 文字生成影片 | ✅ | ✅ |
| 圖片生成影片 | ✅ | ✅ |
| 首尾影格控制 | ❌ | ✅ |
| 多重參考影片(最多 5 個) | ❌ | ✅ |
| 九宮格圖片輸入 | ❌ | ✅ |
| 基於指令的編輯 | ❌ | ✅ |
| 多語言唇形同步 | ❌ | ✅ |
| 開源 | Apache 2.0(已確認) | 計劃中(狀態待公布) |
| API 存取 | 各家第三方 API | WaveSpeedAI, DashScope |
Wan 2.7 新增功能(Wan 2.6 未提供)
這些新增功能讓 Wan 2.7 成為實質性升級,而非小幅改良。
首尾影格控制
這是本次更新的主打功能。FLF2V(First-Last Frame to Video)可讓你定義片段的開頭與結尾影格,模型會生成兩者之間的所有內容。
為什麼這很重要: 在 Wan 2.6 中,你可以提供文字 prompt 或開頭圖片,讓模型生成動態,但你無法控制鏡頭最終的結果。有了 FLF2V,你可以設定兩個端點,這在以下狀況非常實用:
- 你需要產品鏡頭在開頭與結尾都符合特定角度
- 你要讓角色依照預定軌跡動起來
- 你要建構兩個已核准畫面之間的轉場
僅這項功能就讓 Wan 2.7 從單純的生成工具,升級為更接近導向式動畫工具的等級。
多重參考影片輸入(最多 5 個)
Wan 2.6 僅能參考單張圖片作為 image-to-video 生成的起點。Wan 2.7 可同時接受最多 5 個參考影片,模型會讀取所有參考來推斷角色外觀、動作風格與環境脈絡。
為什麼這很重要: 單張圖片參考有其限制。單一角度拍攝的主題,在相機移動時可能無法維持一致性。提供 5 個來自不同角度、不同姿態、不同燈光的參考影片,能讓模型獲得更多資訊,在生成片段中維持視覺一致性。
對於需要重複使用角色或產品素材的品牌或代理商來說,這是相當實用的重大改進。
九宮格圖片輸入
九宮格輸入可接受排列為 3×3 網格的九張圖片作為單一輸入,模型會一次處理全部九個影格,從多個角度理解主題或環境。
為什麼這很重要: 單張參考照片只能捕捉一個視角,九張能讓模型獲得主體 360 度的資訊。這對於維持角色一致性,以及單一影格空間資訊不足的環境定義來說特別實用。
基於指令的影片編輯
只要給定現有影片片段,Wan 2.7 就能依自然語言指令修改內容。舉例來說:將背景從白色改為深色木紋、將外套顏色從紅色改為深藍、讓燈光更溫暖、在環境中加入雨景。
為什麼這很重要: 在 Wan 2.6 中,如果生成的片段 90% 都正確,只需要調整一個地方,你也只能重新 prompt 並完全重新生成,會耗費時間和成本。基於指令的編輯不需要完全重新生成就能進行目標修正,這是圖片生成工具的標準功能,Wan 2.7 將這項功能帶到了影片生成領域。
最長持續時間:15 秒
Wan 2.6 的上限大約是 5 秒,Wan 2.7 將此延長到 15 秒。三倍的持續時間改變了模型單次生成能產出的內容:完整產品示範、完整短場景、或是多節奏的敘事時刻。
如果是 5 秒以內的片段,兩者差異不大——兩種模型都能生成。但如果是超過 5 秒的內容,兩者之間就只有 Wan 2.7 能夠勝任。
什麼時候適合繼續使用 Wan 2.6
就規格來說,Wan 2.7 是更好的模型,但在某些狀況下,Wan 2.6 仍有實務上的優勢:
開源可用性。 Wan 2.1(2.x 系列的基礎)已以 Apache 2.0 授權完全開源。如果你的工作流程需要本機執行、自行架設,或是整合至離線管線,屬於開源 Apache 2.0 系列的 Wan 2.6 模型現已提供,且有完善文件。Wan 2.7 的開源狀態在發布時仍待確認。
現有的 API 整合。 Wan 2.6 早就開放給第三方 API 使用,如果你的工具鏈已經連接至提供 Wan 2.6 的服務商,切換需要測試新的整合。
簡單 T2V 與 I2V 任務。 如果你的使用情境是 5 秒以下片段的簡單 text-to-video 或 image-to-video,Wan 2.6 就能勝任。對於簡單的生成任務來說,Wan 2.7 的新功能派不上用場。
成本不確定性。 Wan 2.7 在 WaveSpeedAI 與 DashScope 的定價需要你至該平台確認。對於大量批次處理工作來說,兩個版本的每秒定價可能不同——請在投入前確認。
決策表
| 使用情境 | 推薦使用 |
|---|---|
| 需要長度超過 5 秒的片段 | Wan 2.7 |
| 需要控制首張/末張影格 | Wan 2.7 |
| 多鏡頭間的角色一致性 (multi-reference) | Wan 2.7 |
| 編輯現有片段,不需要全片重新生成 | Wan 2.7 |
| 片段長度 5 秒或更短,單純的文字生成影片 (T2V) | 皆可 — 優先選擇 Wan 2.7 |
| 目前就需要本地 / 自建主機執行 | Wan 2.6 (已確認開源) |
| 已建置穩定的 Wan 2.6 流程,沒有遷移預算 | Wan 2.6 |
結論
Wan 2.7 是重大版本升級。首末影格控制、multi-reference 影片輸入、九宮格圖像輸入、指令編輯與 15 秒影片長度,皆是 Wan 2.6 沒有的功能。對於多數新的製作專案,Wan 2.7 是正確的選擇。
例外狀況是那些需要開源、自建主機執行的情境(屬於 Apache 2.0 授權系列的 Wan 2.6 現已可供使用;Wan 2.7 的開源狀態仍待確認),或是既有的 Wan 2.6 整合已經穩定,且遷移成本高於帶來的效益。
→ 在 NanoBanana 體驗 Wan 2.7 — 支援 text-to-video 與 image-to-video,無需設定 API。
常見問答
揭露聲明
功能比較基於阿里巴巴通義實驗室的 Wan 2.7 官方發布資料(2026 年 3 月),以及 Wan 2.6 的公開資訊。由於本文撰寫之際,Wan 2.7 的官方定價尚未確認,因此定價比較僅使用相對描述 — 在進行製作決策前,請至 wavespeed.ai 與阿里巴巴雲 DashScope 確認最新費率。
更多文章

Google Veo 3.1 Lite:價格僅Veo 3.1 Fast 的一半,速度完全相同
Google 已於 2026 年 3 月 31 日推出Veo 3.1 Lite——這是Veo 家族中最平價的型號,720p 解析度每一秒僅需 0.05 美元。本文將說明它能做什麼、不能做什麼,以及它是否適合你的工作流程。

PixVerse V6:電影級相機控制、原生音訊與15秒影片片段
PixVerse 於2026年3月30日推出V6版本——帶來20多項電影級相機控制、原生音訊同步、多鏡頭引擎,以及最長15秒的1080p原生輸出。以下說明本次更新內容,以及它是否適合你的工作流程

Veo 3.1 Lite Prompt 指南:20多個適用於電影級AI影片的現成Prompt
完整學習如何運用prompt Veo 3.1 Lite 打造電影級成果,內容涵蓋鏡頭類型、相機移動、音訊,以及跨各種風格的20多個可直接複製貼上的prompt——沒有多餘廢話