在本教程中,我们将带你完整体验如何在 吐司 平台上使用 Wan2.2 进行在线训练。为了更直观地展示效果,本示例将采用 图生视频(Image2Video)训练。
步骤 1 – 打开在线训练页面
进入 在线训练 页面。 在这里,你可以选择 文生视频 或 图生视频。 👉 本教程选择 图生视频。
步骤 2 – 上传训练数据
上传你准备好的训练素材。
可以逐个文件上传;
如果你已经在本地整理好数据与打标文件,可以打包成 zip 压缩包后上传。
步骤 3 – 调整参数
数据上传完成后,右侧会出现参数面板。 💡 提示:如果你上传的是视频片段,建议保持在 5 秒左右,能获得更佳的训练效果。
步骤 4 – 设置提示词与预览帧
在提示词栏输入你期望的训练结果描述;
随着训练进行,每个 epoch 都会生成预览效果,方便你比较与挑选最佳版本;
在 图生视频 LoRA 训练中,你还可以设定预览视频的第一帧。
步骤 5 – 开始训练
当一切设置完成后,点击 立即训练 即可开始训练。 训练完成后,每个 epoch 都会生成一个预览视频。 你可以对比这些预览,并选择表现最佳的版本进行发布。
步骤 6 – 发布模型
完成发布后,等待几分钟,你的 Wan2.2 LoRA 模型 就可以投入使用了。
推荐训练参数(质量均衡型)
网络模块:LoRA 基础模型:Wan2.2 – i2v-high-noise-a14b 触发词:(建议使用简短独特的标签,例如 your_project_tag)
图像处理参数
Repeat:1
Epoch:12
保存间隔(Save Every N Epochs):1–2
视频处理参数
Frame Samples:16
Target Frames:20
训练参数
Seed:–
Clip Skip:–
文本编码器学习率(Text Encoder LR):1e-5
UNet 学习率:8e-5 (推荐低于 1e-4,提升稳定性)
学习率调度器:cosine(若可用则 warmup 100 steps)
优化器:AdamW8bit
Network Dim:64
Network Alpha:32
梯度累积步数:2 (若显存有限可降至 1)
标签参数
打乱标签(Shuffle caption):–
保留 n 个 token(Keep n tokens):–
高级参数
Noise offset:0.025–0.03(推荐 0.03)
Multires noise discount:0.1
Multires noise iterations:10
conv_dim:–
conv_alpha:–
Batch Size:1–2(取决于显存)
视频长度(Video Length):2
采样图像设置
采样器:euler
提示词(示例):
小技巧
训练视频时长建议保持在 约 5 秒,效果最佳。
数据集应保持一致性(光照、构图、风格),以避免模型出现漂移。
如果预览出现过拟合(画面模糊、细节抖动),可尝试将 UNet 学习率降至 6e-5 或减少 Epoch 至 10。
如果希望风格绑定更强,可尝试:
Network Dim 提升至 96,Alpha 提升至 64;
同时将 UNet 学习率降低至 6e-5。