大模型训练 个人定制LORA
等服务内容




24K 订阅
个人定制LoRA(低秩适配)服务中,用户可通过高效微调技术实现大模型的个性化定制,以下从服务流程、技术优势、应用场景、核心工具.
导出模型时选择通用格式(如Hugging Face模型格式),便于长期保存和跨平台迁移.
导出模型时选择通用格式(如Hugging Face模型格式),便于长期保存和跨平台迁移.

这是一款混合型号,由定制版Wan 2.2(WAN.2-14B-Rapid-AllInOne T2V V1)和V1版本的Ratatoskr WAN 2.1进行
它采用特定的区块合并制成,wip目前我肯定会尝试在未来进行训练。
这是一款混合型号,由定制版Wan 2.2(WAN.2-14B-Rapid-AllInOne T2V V1)和V1版本的Ratatoskr WAN 2.1进行
它采用特定的区块合并制成,wip目前我肯定会尝试在未来进行训练。
与原始的 WAN2.2-14B-Rapid-AllInOne 模型一样,精炼机被合并到模型内部
因此,你可以使用一个 ksampler 生成图像,但需要 6 个步骤,而不是原始 Wan 2.2 自定义模型的 4 步以及其他设置:
6-10级步骤
采样器推荐:Uni PC BH2
计划书:测试版或 sgm_uniform
1 至 1.2 之间的 cfg 已进行测试
总体而言,该型号在炭疽和毛毛生物方面比原作更优,也优于标准的WAN 2.2
注意:如果您喜欢为T2V制作Lora,在我训练模型之前,我已构建了一个Lora。建议查看一下。
该模型训练时大约有2700张照片和230个视频。
如果你想支持我的工作,请留下一个点赞。