goenhance logo

Wan 2.2 AI 視頻生成器

阿里雲 AI 團隊的最新升級——Wan 2.2 帶來驚豔的 1080p 生成、智能 LoRA 控制和電影級影片品質,面向全球創作者。現已在 GoEnhance AI 上線。
立即體驗 Wan 2.2

Wan 2.2 主要升級

原生 1080p 高畫質解析度

以原生 1080p 產生清晰銳利的影片,讓輸出在細節、乾淨度與整體質感上更符合正式發佈、客戶展示與後期剪輯的需求。對想在額外修飾前就獲得成熟畫面效果的創作者來說,這是很實用的選擇。

  • 為主流平台提供清晰的 HD 細節
  • 畫面足夠乾淨,便於剪輯與匯出
  • 適合打造更專業的視覺成品

Wan 2.2 1080p 示範

進階動態與鏡頭控制

基於 VACE 2.0,這項功能可讓你更精細地控制鏡頭中的動態表現與畫面構圖。它有助於減少不穩定的移動,提升方向性動作的可控性,並讓鏡頭行為更有設計感,而不是隨機變化。

如果你已經在使用 圖片轉影片 工作流程,它能幫助你更輕鬆地把優質參考圖轉化為更可控、也更符合製作流程的影片結果。

Wan 2.2 VACE 2.0

少量樣本 LoRA 個人化

只需 10–20 張圖片即可建立自訂視覺風格,並透過簡單又靈活的 LoRA 控制進行微調或風格融合。這讓個人化創作更有效率,特別適合想保留特定視覺風格、又不想投入過長或過於技術化訓練流程的使用者。

對想探索客製化視覺輸出的創作者來說,Wan 2.2 spicy 讓風格適配更實用,也更容易上手。

Wan 2.2 LoRA 控制

體積特效與光效增強

透過 AI 生成火焰、粒子、發光與燈光效果,為畫面增加更多層次感、氛圍感與視覺真實度。這些效果能讓原本平面的鏡頭更豐富、更立體,同時減少手動合成或傳統特效製作的工作量。

  • 快速提升畫面氛圍與視覺張力
  • 以體積效果增強場景深度
  • 減少手動處理也能打造更沉浸的光影表現

Wan 2.2 特效

Wan 2.2 Animate

使用參考影片引導動作,並將動作套用到新角色上,打造更流暢的動畫製作工作流程。Wan 2.2 Animate 專為更容易管理的動作轉移而設計,可在多個影格之間維持更好的視覺一致性,並減少後續需要修正的明顯錯誤。

  • 使用參考素材驅動角色動作
  • 更穩定地維持比例、光線與場景連續性
  • 減少動態動畫測試中的後期清理時間

最終結果仍會受到參考素材與提示詞品質影響,但這套工作流程能讓動畫測試更快展開,也更容易後續優化。

如何使用 Wan 2.2?

01

輸入提示詞或上傳圖片

先輸入描述性提示詞或上傳照片。Wan 2.2 同時支援文字生影片與圖生影片。

02

自訂參數設置

選擇輸出解析度(480p、720p、1080p),啟用 LoRA 或鏡頭控制,並在生成前預覽風格。

03

生成並下載

點擊生成。你的高清影片將在 2 分鐘內準備就緒,可立即下載。

為什麼創作者選擇 Wan 2.2

功能Wan 2.2 能力實際意義適合對象
生成模式支援文字生成影片、圖片生成影片,以及統一式影片生成一個模型系列即可涵蓋多種創作工作流程想要更靈活輸入方式的創作者
電影感美學控制可更精細地控制光線、色彩與畫面構圖更容易打造精緻且具電影感的視覺效果敘事內容、廣告影片與高質感視覺作品
視覺品質專為高紋理、高保真影片輸出而設計讓影片看起來更豐富、更乾淨、更專業品牌影片、社群內容與短影音行銷
提示詞響應能力在場景與風格控制上具備更強的指令理解能力提升你的創意與最終結果之間的一致性需要更穩定、可預期輸出的使用者
場景構圖在取景、景深與鏡頭風格上有更好的平衡打造更有設計感、也更吸引人的畫面電影感短片與創意概念影片
創作靈活性同時適合簡單概念與更風格化的影片生成可對應不同內容風格與專案目標創作者、行銷人員與視覺實驗者
整體優勢結合更豐富的生成模式與更強的視覺控制能力帶來更成熟、更精緻的影片創作體驗想同時兼顧品質與靈活性的使用者

如何寫出更好的 Wan 2.2 提示詞

1

先從清楚的提示詞公式開始

建議使用簡單結構:主體 + 場景 + 動作。這樣更容易控制提示詞,也能幫助 Wan 2.2 更快理解主要畫面。範例:'一位穿著白色洋裝的年輕女性,在日落時分有風的原野上,慢慢轉身並看向鏡頭。'

2

先描述主體

在加入更多細節之前,先讓主要主體夠明確。說明它是誰或是什麼,再補充幾個清楚特徵。範例:'一個銀色機器人,臉部平滑,眼睛發出藍色光芒。'

3

場景保持簡單,但要有畫面感

加入簡短的場景描述,讓模型更容易理解環境。重點放在地點、時間和氛圍。範例:'夜晚安靜的城市街道,地面濕潤,倒映著霓虹燈光。'

4

用動作詞讓動態更自然

動態是影片提示詞的重要部分,所以請使用直接的動作詞,例如走路、轉身、奔跑、抬手或微笑。範例:'他向前走,抬起手,輕輕地笑了一下。'

5

需要時加入鏡頭運動

如果你想要更有電影感的結果,可以描述鏡頭如何移動。簡單的鏡頭語言就能讓輸出看起來更有設計感。範例:'緩慢推近鏡頭' 或 '鏡頭從左向右平移。'

6

用光線與色彩設定氛圍

簡短的光線與色彩描述,可以快速改變影片的視覺基調。當你想要更柔和、更濃郁或更有戲劇性的效果時,這會特別有幫助。範例:'柔和的金色光線,暖色調,輕柔的陰影。'

7

用鏡頭景別提升構圖

透過描述取景方式,來引導場景如何呈現。像特寫、中景、遠景這類詞語,能直接影響最終構圖。範例:'她的臉部特寫,頭髮在風中飄動。'

8

圖生影片時,把重點放在動作上

在圖生影片中,角色與場景通常已經由圖片決定。你的提示詞應更著重於動作與鏡頭行為,而不是把所有內容再重描述一次。範例:'她慢慢轉頭,眨了眨眼,鏡頭輕輕推近。'

9

分層建立你的提示詞

先寫基本動作,再逐步加入:動作、鏡頭、光線與風格。這樣提示詞更容易閱讀,也更方便調整結果。範例:'一個男孩騎著腳踏車行駛在鄉間小路上,中景,溫暖的傍晚光線,鏡頭輕微跟拍。'

10

提示詞保持自然、好讀

不需要塞入過多關鍵字。清楚、自然的描述,通常比冗長又雜亂的關鍵字堆疊更有效。範例:'一隻黑貓坐在下雨午後的窗邊,看著落下的雨。'

11

每次只調整一個部分來優化

如果結果已經接近,但還不夠理想,每次只修改提示詞中的一個部分,例如動作、構圖或光線。這樣更容易判斷是哪個改動影響了輸出。範例:在其餘內容不變的情況下,把 '遠景' 改成 '特寫'。

常見問題

什麼是 Wan 2.2?

Wan 2.2 是阿里雲開發的升級版 AI 視頻生成模型。它引入了 1080p 視頻輸出、高級鏡頭/運動控制、體積特效,以及全新的 LoRA 個性化流程。

與 WanX 2.1 相比有哪些新功能?

Wan 2.2 增加了原生 1080p 解析度、VACE 2.0 鏡頭/運動控制引擎、可視化 LoRA 滑桿,以及對火焰、煙霧、動態光照等真實特效的支持。

Wan 2.2 可以免費使用嗎?

在 GoEnhance AI 等平台可用有限積分免費測試 Wan 2.2。訂閱方案可解鎖更多功能與更高解析度導出。

Wan 2.2 支援哪些輸入形式?

它支援文字生影片(T2V)和圖生影片(I2V)。你也可以結合提示詞與圖片進行混合生成。

我可以用 Wan 2.2 做風格個性化嗎?

可以。你可以用 10–20 張圖片訓練少樣本 LoRA,並透過可視化滑桿進行風格融合,非常適合品牌或角色一致性。

Wan 2.2 支援多語言提示詞嗎?

支援。它可識別英文與中文提示詞,適用於全球創作場景。

本地推理需要什麼硬體?

使用 Wan 2.2 進行 1080p 推理需要至少 24GB 顯存的 GPU。輕量使用可選 1.3B 版本,在單張 RTX 4090(約 8GB 顯存)上即可運行。

如何更安全且合規地使用 Wan 2.2?

只使用你有權使用的內容,包括參考圖片、Logo、角色設計與品牌素材。避免使用可能侵犯版權、誤導真實人物形象,或產生具誤導性的商業內容之提示詞或輸入。若用於客戶專案,請在發佈前務必檢查平台規則、授權條款以及輸出內容的使用政策。

為什麼 Wan 2.2 的結果有時會失敗?

大多數效果不理想的原因,來自提示詞不夠清楚、在一句話中加入太多指令、風格要求彼此衝突,或是動作要求對短片來說過於複雜。當主體、鏡頭移動與場景動作同時互相搶重點時,也很容易出現問題。

為什麼會出現動作不自然或畫面不穩定?

動作不自然通常是因為要求的動作太快、太細碎,或不符合物理邏輯。大幅度姿勢變化、複雜手部動作、強烈場景切換,或過於激烈的鏡頭運動,都可能降低畫面穩定性,讓影片看起來不夠自然。

如何提高生成成功率?

讓提示詞聚焦在一個主要主體、一個清楚場景與一個核心動作上。鏡頭運動與光線描述,最好在核心動作已經穩定後再加入。相較於塞滿太多效果的長提示詞,簡單且結構清楚的提示詞通常更容易產生穩定且可控的結果。

如果輸出結果和我的想法不一致,我該怎麼做?

每次只調整提示詞中的一個部分。例如,先修改動作,再測試鏡頭角度,接著再微調光線或氛圍。這樣更容易判斷究竟是哪一部分影響了結果,而不是一次把所有內容都改掉。

所有生成結果都能直接用於正式製作嗎?

不一定。AI 影片結果在一致性、動作真實感與細節品質上仍可能有波動。對於重要的商業專案或面向客戶的內容,最好仔細審查輸出、測試多個版本,並把生成過程視為創意迭代的一部分,而不是一鍵完成的最終成片。

Twitter 嵌入

立即用 Wan 2.2 創作

在 GoEnhance AI 體驗下一代 AI 視頻生成。

開始生成