Wan2.2 在线训练完整指南(图生视频 示例)
在本教程中,我们将带你完整体验如何在吐司 平台上使用Wan2.2 进行在线训练。为了更直观地展示效果,本示例将采用图生视频(Image2Video)训练。步骤1 – 打开在线训练页面进入在线训练 页面。 在这里,你可以选择文生视频 或图生视频。 👉 本教程选择图生视频。步骤2 – 上传训练数据上传你准备好的训练素材。可以逐个文件上传;如果你已经在本地整理好数据与打标文件,可以打包成zip 压缩包后上传。步骤3 – 调整参数数据上传完成后,右侧会出现参数面板。 💡 提示:如果你上传的是视频片段,建议保持在5 秒左右,能获得更佳的训练效果。步骤4 – 设置提示词与预览帧在提示词栏输入你期望的训练结果描述;随着训练进行,每个epoch 都会生成预览效果,方便你比较与挑选最佳版本;在 图生视频LoRA 训练中,你还可以设定预览视频的第一帧。步骤5 – 开始训练当一切设置完成后,点击立即训练 即可开始训练。 训练完成后,每个epoch 都会生成一个预览视频。 你可以对比这些预览,并选择表现最佳的版本进行发布。步骤6 – 发布模型完成发布后,等待几分钟,你的Wan2.2 LoRA 模型 就可以投入使用了。推荐训练参数(质量均衡型)网络模块:LoRA 基础模型:Wan2.2 – i2v-high-noise-a14b 触发词:(建议使用简短独特的标签,例如your_project_tag)图像处理参数Repeat:1Epoch:12保存间隔(Save Every N Epochs):1–2视频处理参数Frame Samples:16Target Frames:20训练参数Seed:–Clip Skip:–文本编码器学习率(Text Encoder LR):1e-5UNet 学习率:8e-5 (推荐低于1e-4,提升稳定性)学习率调度器:cosine(若可用则warmup 100 steps)优化器:AdamW8bitNetwork Dim:64Network Alpha:32梯度累积步数:2 (若显存有限可降至1)标签参数打乱标签(Shuffle caption):–保留n 个token(Keep n tokens):–高级参数Noise offset:0.025–0.03(推荐0.03)Multires noise discount:0.1Multires noise iterations:10conv_dim:–conv_alpha:–Batch Size:1–2(取决于显存)视频长度(Video Length):2采样图像设置采样器:euler提示词(示例):小技巧训练视频时长建议保持在约5 秒,效果最佳。数据集应保持一致性(光照、构图、风格),以避免模型出现漂移。如果预览出现过拟合(画面模糊、细节抖动),可尝试将UNet 学习率降至6e-5 或减少Epoch 至10。如果希望风格绑定更强,可尝试:Network Dim 提升至96,Alpha 提升至64;同时将UNet 学习率降低至6e-5。