大模型训练 个人定制LORA
等服务内容




24K 订阅
个人定制LoRA(低秩适配)服务中,用户可通过高效微调技术实现大模型的个性化定制,以下从服务流程、技术优势、应用场景、核心工具.
导出模型时选择通用格式(如Hugging Face模型格式),便于长期保存和跨平台迁移.
导出模型时选择通用格式(如Hugging Face模型格式),便于长期保存和跨平台迁移.

Wan 2.2 I2V-A14B, 6steps/generation. apache-2.0.使用 Q4_K_M 与 Geforce RTX 3060 12GB 配合使用。有关不同量化的参数,请参阅 HuggingFace。
这是一款混合型号,由定制版Wan 2.2(WAN.2-14B-Rapid-AllInOne T2V V1)和V1版本的Ratatoskr WAN 2.1进行
它采用特定的区块合并制成,wip目前我肯定会尝试在未来进行训练。
这是大模型的GGUF转换版 https://huggingface.co/Phr00t/WAN2.2-14B-Rapid-AllInOne
简单的JSON工作流 你只需要guf加载器自定义节点
一款14B的I2V(图像到视频),搭配高低噪音
作为大模型,你需要将高噪音作为基础和低噪音
Image To Video在视频参数的图像中:
Video Model将常规视频模型设置为高噪声模型,Video Swap Model并将高级视频交换模型设置为低噪声模型,
自己抖音视频合成专用电脑用的一个整合包,解压导入工作流就可以用,里面有几个工作流,第一次导入模型的时候会比较慢一点,生成第二个的时候就会比较顺畅。
我这台电脑显卡是4060TI 16G,5秒视频需要3分钟左右,我设置的步数比较少生成的比较快,根据自己电脑的配置进行设置