goenhance logo

Wan 2.2 AI 视频生成器

阿里云 AI 团队的最新升级——Wan 2.2 带来惊艳的 1080p 生成、智能 LoRA 控制和电影级视频质量,面向全球创作者。现已在 GoEnhance AI 上线。
立即体验 Wan 2.2

Wan 2.2 主要升级

原生 1080p 高清分辨率

以原生 1080p 生成清晰锐利的视频,让作品在细节、画面干净度和整体质感上更适合正式发布、客户展示以及后期剪辑。对于希望在额外修饰前就获得更成熟画面效果的创作者来说,这是非常实用的选择。

  • 为主流平台提供清晰的高清细节
  • 画面足够干净,便于剪辑与导出
  • 适合打造更专业的视觉成片

Wan 2.2 1080p 演示

高级运动与镜头控制

基于 VACE 2.0,这项功能可让你更精细地控制镜头中的运动方式与画面构图。它有助于减少不稳定的运动,提升方向性动作的可控性,并让镜头表现看起来更有设计感,而不是随机变化。

如果你已经在使用 图生视频 工作流,它能帮助你更轻松地将优质参考图转化为更可控、更适合制作流程的视频结果。

Wan 2.2 VACE 2.0

少样本 LoRA 个性化

仅需 10–20 张图片即可建立自定义视觉风格,并通过灵活、易用的 LoRA 控制进行微调或风格融合。这让个性化创作更高效,尤其适合想保留特定视觉风格、又不想投入过长或过于复杂训练流程的用户。

对于想要探索定制化视觉输出的创作者来说,Wan 2.2 spicy 让风格适配变得更实用、更容易上手。

Wan 2.2 LoRA 控制

体积特效与光效增强

通过 AI 生成火焰、粒子、辉光和灯光效果,为画面增加更多层次感、氛围感和视觉真实度。这些效果能让原本平面的镜头更丰富、更立体,同时减少手动合成或传统特效制作的工作量。

  • 快速增强画面氛围与视觉冲击力
  • 用体积效果提升场景纵深感
  • 减少手动操作也能获得更沉浸的光影表现

Wan 2.2 特效

Wan 2.2 Animate

使用参考视频引导动作,并将动作迁移到新角色上,实现更高效的动画制作流程。Wan 2.2 Animate 专为更易管理的动作迁移而设计,可在多帧之间保持更好的视觉一致性,并减少后期需要修正的明显错误。

  • 使用参考素材驱动角色动作
  • 更稳定地保持比例、光线与场景连续性
  • 减少动作类动画测试中的后期清理时间

最终效果仍会受到参考素材和提示词质量影响,但这一工作流能让动画测试更快展开,也更容易后续优化。

如何使用 Wan 2.2?

01

输入提示词或上传图片

从详细的文本提示词或参考图片开始。Wan 2.2 支持文生视频和图生视频,甚至可以混合输入。

02

调整质量与控制

选择 480p/720p/1080p,开启 LoRA 或镜头控制,在渲染前预览风格混合效果。

03

生成并下载

点击生成。你的高清视频通常会在 2 分钟内准备就绪——可立即下载或继续编辑。

为什么创作者选择 Wan 2.2

功能Wan 2.2 能力实际意义适合人群
生成模式支持文生视频、图生视频以及统一式视频生成一个模型系列即可覆盖多种创作工作流希望拥有灵活输入方式的创作者
电影感美学控制可更精细地控制光线、色彩与画面构图更容易做出精致、具有电影感的视觉效果叙事内容、广告视频与高质感视觉作品
视觉质量专为高纹理、高保真视频输出而设计让视频看起来更丰富、更干净、更专业品牌视频、社媒内容与短视频营销
提示词响应能力在场景和风格控制上具备更强的指令理解能力提升你的创意与最终结果之间的一致性需要更稳定、可预期输出的用户
场景构图在取景、景深和镜头风格上有更好的平衡让画面更有设计感,也更具观赏性电影感短片和创意概念视频
创作灵活性既适合简单概念,也适合更风格化的视频生成可适配不同内容风格与项目目标创作者、营销人员和视觉实验者
整体优势结合更丰富的生成模式与更强的视觉控制能力带来更成熟、更精致的视频创作体验想同时兼顾质量与灵活性的用户

如何写出更好的 Wan 2.2 提示词

1

先用清晰的提示词公式开始

建议使用一个简单结构:主体 + 场景 + 动作。这样更容易控制提示词,也能帮助 Wan 2.2 更快理解核心画面。示例:'一位穿白色连衣裙的年轻女性,在日落时分有风的原野上,慢慢转身并看向镜头。'

2

先描述主体

在加入额外细节之前,先让主体足够清晰。说明它是谁或是什么,再补充几个明显特征。示例:'一个银色机器人,面部光滑,眼睛发出蓝色光芒。'

3

场景保持简洁,但要有画面感

加入简短的场景描述,让模型快速理解环境。重点写地点、时间和氛围。示例:'夜晚安静的城市街道,地面潮湿,映着霓虹灯反光。'

4

用动作词提升动态表现

动作是视频提示词的关键部分,所以尽量使用直接的动作词,比如走路、转身、奔跑、抬手或微笑。示例:'他向前走,抬起手,轻轻一笑。'

5

需要时加入镜头运动

如果你想要更有电影感的结果,可以写出镜头如何移动。简单的镜头描述就能让成片更有设计感。示例:'缓慢推近镜头' 或 '镜头从左向右平移。'

6

用光线和色彩设定氛围

简短的光线和色彩描述,可以快速改变视频的视觉气质。当你想要更柔和、更浓郁或更有戏剧性的效果时,这一点尤其有用。示例:'柔和的金色光线,暖色调,轻柔阴影。'

7

用镜头景别优化构图

通过描述取景方式,来控制画面呈现。像特写、中景、远景这样的词,可以直接影响最终构图。示例:'她的面部特写,头发在风中轻轻飘动。'

8

图生视频时,把重点放在动作上

在图生视频里,角色和场景通常已经由图片决定。你的提示词更应该强调动作和镜头行为,而不是把所有内容重新描述一遍。示例:'她慢慢转头,眨了眨眼,镜头轻轻推近。'

9

分层搭建提示词

先写基础动作,再一层层加入:动作、镜头、光线和风格。这样提示词更清晰,也更方便后续调整。示例:'一个男孩骑着自行车行驶在乡间小路上,中景,温暖的傍晚光线,镜头轻微跟随。'

10

提示词保持自然、易读

不需要堆太多关键词。清晰、自然的描述,往往比冗长杂乱的关键词串更有效。示例:'一只黑猫坐在雨天午后的窗边,望着落下的雨。'

11

每次只改一个部分来优化

如果结果已经接近,但还不够准确,每次只调整提示词中的一个部分,比如动作、构图或光线。这样更容易看出是哪一项影响了输出。示例:在其余内容不变的情况下,把 '远景' 改成 '特写'。

常见问题

什么是 Wan 2.2?

Wan 2.2 是阿里云升级版的 AI 视频扩散模型。它带来了原生 1080p 输出、MoE 高效架构、VACE 2.0 运动/镜头控制、体积特效,以及简化的 LoRA 工作流程。

与 WanX 2.1 相比有哪些新特性?

相比 WanX 2.1,Wan 2.2 新增了原生 1080p、混合专家去噪管线、改进的镜头/运动工具(VACE 2.0)、可视化 LoRA 滑块,以及更丰富的特效,如火焰、烟雾和动态光照。

Wan 2.2 可以免费使用吗?

你可以在 GoEnhance AI 上使用免费积分测试 Wan 2.2。付费方案可解锁更高分辨率、更快队列和高级控制功能。

支持哪些输入形式?

支持文本生成视频和图像生成视频。你还可以结合文本提示词和图像参考来实现更精确的控制。

我可以个性化风格吗?

可以。训练少样本 LoRA 模型(10–20 张图片),并通过滑块进行交互式混合——非常适合保持品牌或角色的一致性。

支持多语言提示词吗?

是的。Wan 2.2 可以理解英文和中文提示词,适用于全球创作者。

本地推理需要什么硬件?

进行 1080p 推理需要至少 24GB 显存的 GPU。轻量级的 5B TI2V 变体可在单张 RTX 4090 (~8 GB VRAM) 上以 720p 运行。

如何更安全、更合规地使用 Wan 2.2?

只使用你有权使用的内容,包括参考图片、Logo、角色设计和品牌素材。避免使用可能侵犯版权、误导真实人物形象或生成具有误导性的商业内容的提示词或输入。用于客户项目时,请在发布前始终检查平台规则、授权条款以及输出内容的使用政策。

为什么 Wan 2.2 的结果有时会失败?

大多数效果不理想的情况,来自提示词不清晰、在一句话里塞入太多指令、风格要求互相冲突,或动作要求对于短视频来说过于复杂。当主体、镜头运动和场景动作同时抢重点时,也很容易出现问题。

为什么会出现动作不自然或画面不稳定?

动作不自然通常是因为你要求的动作太快、太细碎,或者不符合物理逻辑。大幅度姿势变化、复杂的手部动作、强烈的场景切换,或过猛的镜头运动,都可能降低画面稳定性,让视频看起来不够自然。

如何提高生成成功率?

让提示词聚焦在一个主要主体、一个清晰场景和一个核心动作上。只有在核心动作已经稳定后,再逐步加入镜头运动和光线描述。相比堆满特效和要求的长提示词,简单、结构清晰的提示词通常会带来更稳定、更容易控制的结果。

如果输出结果和我的想法不一致,我该怎么办?

每次只调整提示词中的一个部分。比如,先改动作,再测试镜头角度,然后再微调光线或氛围。这样更容易判断到底是哪一部分影响了结果,而不是一次把所有内容都改掉。

所有生成结果都能直接用于正式制作吗?

不一定。AI 视频结果在一致性、动作真实感和细节质量上仍然可能存在波动。对于重要的商业项目或面向客户的内容,最好仔细检查输出、测试多个版本,并把生成过程视为创意迭代的一部分,而不是一键完成的最终成片。

Twitter 嵌入

立即用 Wan 2.2 创作

在 GoEnhance AI 体验下一代 AI 视频生成。

开始生成