大模型训练 个人定制LORA
等服务内容




24K 订阅
个人定制LoRA(低秩适配)服务中,用户可通过高效微调技术实现大模型的个性化定制,以下从服务流程、技术优势、应用场景、核心工具.
导出模型时选择通用格式(如Hugging Face模型格式),便于长期保存和跨平台迁移.
导出模型时选择通用格式(如Hugging Face模型格式),便于长期保存和跨平台迁移.








主要特点: 无孤独一代
without 无需堆叠Wan 2.2 LoRA即可生成高质量视频(除非需要添加空间样式/概念)。

Wan 2.2 I2V-A14B, 6steps/generation. apache-2.0.使用 Q4_K_M 与 Geforce RTX 3060 12GB 配合使用。有关不同量化的参数,请参阅 HuggingFace。

这是一款混合型号,由定制版Wan 2.2(WAN.2-14B-Rapid-AllInOne T2V V1)和V1版本的Ratatoskr WAN 2.1进行
它采用特定的区块合并制成,wip目前我肯定会尝试在未来进行训练。

这是大模型的GGUF转换版 https://huggingface.co/Phr00t/WAN2.2-14B-Rapid-AllInOne
简单的JSON工作流 你只需要guf加载器自定义节点

一款14B的I2V(图像到视频),搭配高低噪音
作为大模型,你需要将高噪音作为基础和低噪音
Image To Video在视频参数的图像中:
Video Model将常规视频模型设置为高噪声模型,Video Swap Model并将高级视频交换模型设置为低噪声模型,