大模型训练 个人定制LORA
等服务内容




24K 订阅
个人定制LoRA(低秩适配)服务中,用户可通过高效微调技术实现大模型的个性化定制,以下从服务流程、技术优势、应用场景、核心工具.
导出模型时选择通用格式(如Hugging Face模型格式),便于长期保存和跨平台迁移.
导出模型时选择通用格式(如Hugging Face模型格式),便于长期保存和跨平台迁移.

这是在WAN 14B I2V上训练的,使用45个视频将其正常化为480P/24FPS,并使用扩散管将其修剪为3秒。然而,它与T2V型号配合使用,我也从中列举了一些示例
在Wan 2.2上重新训练数据集,务必同时获取Loras(高和低)!
更新 6.17
努力改进这款LoRA时意识到,我从未上传过T2V版本,所以……就在这里。享受吧!
– — –
配文方法做了一些重大调整,结果显示出一些不错的改进。
请分享你用这个制作的任何东西,我很想看到一些更好的提示!
这是在WAN 14B I2V上训练的,使用45个视频将其正常化为480P/24FPS,并使用扩散管将其修剪为3秒。然而,它与T2V型号配合使用,我也从中列举了一些示例。
我的配文方法: