wan2.2 在线训练文章
在本教程中,我们将带你完整体验如何在 吐司 平台上使用 Wan2.2 进行在线训练。为了更直观地展示效果,本示例将采用 图生视频(Image2Video)训练。
步骤 1 – 打开在线训练页面
进入 在线训练 页面。 在这里,你可以选择 文生视频 或 图生视频。 👉 本教程选择 图生视频。
步骤 2 – 上传训练数据
上传你准备好的训练素材。
可以逐个文件上传;
如果你已经在本地整理好数据与打标文件,可以打包成 zip 压缩包后上传。
步骤 3 – 调整参数
数据上传完成后,右侧会出现参数面板。 💡 提示:如果你上传的是视频片段,建议保持在 5 秒左右,能获得更佳的训练效果。
步骤 4 – 设置提示词与预览帧
在提示词栏输入你期望的训练结果描述;
随着训练进行,每个 epoch 都会生成预览效果,方便你比较与挑选最佳版本;
在 图生视频 LoRA 训练中,你还可以设定预览视频的第一帧。
步骤 5 – 开始训练
当一切设置完成后,点击 立即训练 即可开始训练。 训练完成后,每个 epoch 都会生成一个预览视频。 你可以对比这些预览,并选择表现最佳的版本进行发布。
步骤 6 – 发布模型
完成发布后,等待几分钟,你的 Wan2.2 LoRA 模型 就可以投入使用了。
推荐训练参数(质量均衡型)
网络模块:LoRA 基础模型:Wan2.2 – i2v-high-noise-a14b 触发词:(建议使用简短独特的标签,例如 your_project_tag)
图像处理参数
Repeat:1
Epoch:12
保存间隔(Save Every N Epochs):1–2
视频处理参数
Frame Samples:16
Target Frames:20
训练参数
Seed:–
Clip Skip:–
文本编码器学习率(Text Encoder LR):1e-5
UNet 学习率:8e-5 (推荐低于 1e-4,提升稳定性)
学习率调度器:cosine(若可用则 warmup 100 steps)
优化器:AdamW8bit
Network Dim:64
Network Alpha:32
梯度累积步数:2 (若显存有限可降至 1)
标签参数
打乱标签(Shuffle caption):–
保留 n 个 token(Keep n tokens):–
高级参数
Noise offset:0.025–0.03(推荐 0.03)
Multires noise discount:0.1
Multires noise iterations:10
conv_dim:–
conv_alpha:–
Batch Size:1–2(取决于显存)
视频长度(Video Length):2
采样图像设置
采样器:euler
提示词(示例):
小技巧
训练视频时长建议保持在 约 5 秒,效果最佳。
数据集应保持一致性(光照、构图、风格),以避免模型出现漂移。
如果预览出现过拟合(画面模糊、细节抖动),可尝试将 UNet 学习率降至 6e-5 或减少 Epoch 至 10。
如果希望风格绑定更强,可尝试:
Network Dim 提升至 96,Alpha 提升至 64;
同时将 UNet 学习率降低至 6e-5。
Qwen在线训练教程
Wan2.2和Qwen—image的活动上开始
快来学习一下如何训练这俩种类型的lora吧
首先我们打开在线训练
点击‘标准’选择Qwen image作为训练底膜
让创作者兴奋的是 LoRA 微调技术—— 只需 10 张图片,就能让 Qwen-Image 学会你的专属风格。
第一步:10分钟搞定模型的训练素材集
数据集10-50 张风格统一或主题一致或主体一致的图片,尺寸大小没有限制
触发词:自定义一个风格关键词(如 “fashion_style”),后续生图时用该词调用风格。
设置单张次数为“20”次,训练轮次10轮,填写LoRA模型名称等相关参数
将你想要预览生成的图片提示词填入【模型效果预览提示词】输入框中,qwen-image支持中文提示词。
这里我写的是
【制作一张幽默的宣传海报,主体是一只戴墨镜的猫咪,白色描边的剪贴画风格,摆出疑惑和酷炫的表情。背景是亮黄色带折痕质感,上方有醒目的英文大标题“STAY COOL”,下面配有小字韩文。画面中加入漫画风格的感叹符号、箭头和手绘特效,整体呈现搞怪又时尚的视觉设计。】
设置好我们就可以点击【立即训练】
在训练过程中我们会通过预览图来决定效果最好的lora
挑选最好的lora发布即可
等待数分钟部署完毕即可运行