Wan2.2 在线训练完整指南(图生视频 示例)


更新

在本教程中,我们将带你完整体验如何在 吐司 平台上使用 Wan2.2 进行在线训练。为了更直观地展示效果,本示例将采用 图生视频(Image2Video)训练

步骤 1 – 打开在线训练页面

进入 在线训练 页面。 在这里,你可以选择 文生视频图生视频。 👉 本教程选择 图生视频

步骤 2 – 上传训练数据

上传你准备好的训练素材。

  • 可以逐个文件上传;

  • 如果你已经在本地整理好数据与打标文件,可以打包成 zip 压缩包后上传。

步骤 3 – 调整参数

数据上传完成后,右侧会出现参数面板。 💡 提示:如果你上传的是视频片段,建议保持在 5 秒左右,能获得更佳的训练效果。

步骤 4 – 设置提示词与预览帧

  • 在提示词栏输入你期望的训练结果描述;

  • 随着训练进行,每个 epoch 都会生成预览效果,方便你比较与挑选最佳版本;

  • 图生视频 LoRA 训练中,你还可以设定预览视频的第一帧。

步骤 5 – 开始训练

当一切设置完成后,点击 立即训练 即可开始训练。 训练完成后,每个 epoch 都会生成一个预览视频。 你可以对比这些预览,并选择表现最佳的版本进行发布。

步骤 6 – 发布模型

完成发布后,等待几分钟,你的 Wan2.2 LoRA 模型 就可以投入使用了。


推荐训练参数(质量均衡型)

网络模块:LoRA 基础模型:Wan2.2 – i2v-high-noise-a14b 触发词:(建议使用简短独特的标签,例如 your_project_tag

图像处理参数

  • Repeat:1

  • Epoch:12

  • 保存间隔(Save Every N Epochs):1–2

视频处理参数

  • Frame Samples:16

  • Target Frames:20

训练参数

  • Seed:–

  • Clip Skip:–

  • 文本编码器学习率(Text Encoder LR):1e-5

  • UNet 学习率:8e-5 (推荐低于 1e-4,提升稳定性)

  • 学习率调度器:cosine(若可用则 warmup 100 steps)

  • 优化器:AdamW8bit

  • Network Dim:64

  • Network Alpha:32

  • 梯度累积步数:2 (若显存有限可降至 1)

标签参数

  • 打乱标签(Shuffle caption):–

  • 保留 n 个 token(Keep n tokens):–

高级参数

  • Noise offset:0.025–0.03(推荐 0.03)

  • Multires noise discount:0.1

  • Multires noise iterations:10

  • conv_dim:–

  • conv_alpha:–

  • Batch Size:1–2(取决于显存)

  • 视频长度(Video Length):2

采样图像设置

  • 采样器:euler

  • 提示词(示例):


小技巧

  • 训练视频时长建议保持在 约 5 秒,效果最佳。

  • 数据集应保持一致性(光照、构图、风格),以避免模型出现漂移。

  • 如果预览出现过拟合(画面模糊、细节抖动),可尝试将 UNet 学习率降至 6e-5 或减少 Epoch 至 10

  • 如果希望风格绑定更强,可尝试:

    • Network Dim 提升至 96,Alpha 提升至 64

    • 同时将 UNet 学习率降低至 6e-5

0