大模型训练 个人定制LORA
等服务内容

24K 订阅
个人定制LoRA(低秩适配)服务中,用户可通过高效微调技术实现大模型的个性化定制,以下从服务流程、技术优势、应用场景、核心工具.

导出模型时选择通用格式(如Hugging Face模型格式),便于长期保存和跨平台迁移.

复古90’s 动漫 / 金色男孩风格

-这是同一数据集 + 2.1 语言版本的说明,但在高低 WAN 2.2 14B 模型上都经过训练。

wan 2.2 14B V1 新增内容:

-这是同一数据集 + 2.1 语言版本的说明,但在高低 WAN 2.2 14B 模型上都经过训练。

– 升级版将带来从2.1到2.2的所有好处。尤其是运动和相机控制相当不错。

警告:我觉得它在风格上离数据集越来越远,稍后会尝试进行更多训练,我认为现在它的状态已经足够好,可以发布。接下来我想换个新东西,这次更新更多内容是学习如何训练2.2。请在下方阅读有关我流程的全新培训。

这是什么lora?

Golden Boy这是一段用来重现1995年动漫系列《金童》风格的风格。该系列拥有精美的90年代哑光绘画风格背景,在长程中呈现出出色的效果。她们为女孩们画画的方式非常棒,真正体现了当时那些喧闹喜剧的艺术风格。但如果你只是想在90年代中期的复古风格动画造型上,那么不妨使用这款长篇大合,这在整体上只做较老款风格的动漫就非常棒。perfect而且它非常适合进行详细的环保拍摄。上面标注着自行车、汽车、美味的食物、垃圾等,而不仅仅是人。其在T2V型号上进行了训练,因此也适用于I2V。

引字:Goldenboystyle

(在提示符中无需添加任何其他动漫或动画风格的描述,它应使其风格无需其他提示)。事实上,我建议不要在提示符中添加动漫关键词,因为这会对基础模型产生更多偏见,而该模型现在在动漫上的训练比以前要好得多。触发词可能甚至不需要,但我还是把它写进去了。

节目中的所有角色都在训练数据中。那位金发女子(总统夫人)如果提到金发女性,就会出面。如果你描述节目中的任何角色,它可能会准确地生成它们。主角肯塔罗·欧伊如果被提示,但仅凭描述而非名字,也将揭晓。角色所呈现的愚蠢面孔也出现在训练数据中。训练数据中有裸露的乳房,但没有下部生殖器。

推荐设置

它可以在默认的工作流中正常运行,并保留那种真正怀旧的复古动画风格,但我建议将这段文字与以下优化图谱混合。我推荐3种设置,每种都有各自的正面和负面影响。

现在判断除违约之外最合适的内容还为时过早。我倚靠在2.1光光的长环上,因为2.2会如此坚硬地破坏动作,还能改变风格,使其风格不再像演出时那样,但依然是一种不错的复古风格。

我想从现在开始,我会为我的歌拉和链接制作一个工作流程。只需下载我为这个月光环设计的示例工作流程,然后自己尝试。

请参见下图,了解其效果。对于我为这些示例提供的示例,请在注释中查看我用于参考的设置。

1.默认设置
不用其他花环来跑光,一切就行得通。并且能保持与原始原始素材最接近的外观和感觉。在3090上,生成一个720p的视频需要超过20分钟。

20步(10/10),3.5 CFG,无磁体

优点:更接近经过训练的数据。您将获得所有2.2个优点,例如运动、质量、相机控制等。

缺点:速度更慢,资源更丰富

2.)Lightx2V wan 2.1 lora优化

1.这款长环(金色男孩风格)(高低音强度1.0)

2.)Wan21_T2V_14B_lightx2V_cfg_step_destill_lora_rank32(两者均使用相同的 LORA 文件)

7个步骤(3个/4),但可以尝试4/4或2/2。使用NAG进行CFG 1

优点:可以完成更高的分辨率,且步骤更少。运动被保留,且风格比闪电天平更接近默认。

负数:Lightx2V 是 Wan 2.1 的长环,因此我认为你将输出值降级为 2.1 而不是 2.2。我也觉得颜色有点暗。有时会增加一些奇怪的降雪效应,通过增强光2V光晕的强度来缓解。

3.)闪电1.1wan2.2 lora优化

7个步骤(3个/4),但可以尝试4/4或2/2。使用NAG进行CFG 1

1.这款长环(金色男孩风格)(高低音强度1.0)

2.)万 2.2 光线 v1.1 光圈(高低强度 1.0 级)

优点:可以完成更高的分辨率,且步骤更少。如果你喜欢这种美感,它会让颜色变得更亮、更饱和。它是一款2.2长环,因此从技术上讲,它不仅能从2.2英寸的宽度中获益,但效果不佳。

缺点:它对风格影响很大,看起来仍呈复古效果,但颜色比原装材料更亮。该动议被大幅削减。

4.)其他2.1条长筒

以上这两条长环非常适合2.1版本。我不使用它们,因为我觉得你使用的2.1长环越少,输出看起来越少,再又变成2.1度……如果他们发布这些语言的2.2个版本,我将在此进行编辑。

请参见下面的示例,了解每个设置与源相比输出效果的过程。

最终,我认为没有正确的选择,因为他们都在某种程度上有消极的一面,现在说出设定事情的最佳方式还为时过早。所以如果弄清楚什么,我将来会更新一下。3号案中被否决的动议,使我最常使用第二名。而且我对选项#1没有太多耐心。请告诉我你是否有合适的设置建议。

Training Info

Low Lora Model:

[model]

type = ‘wan’

ckpt_path = ‘/data/trainingstuff/wan2.2_base_checkpoint/low_noise_model’

transformer_path = ‘/data/trainingstuff/wan2.2_base_checkpoint/low_noise_model’

dtype = ‘bfloat16’

transformer_dtype = ‘float8’

timestep_sample_method = ‘logit_normal’

blocks_to_swap = 8

min_t = 0

max_t = 0.875

[适配器]

类型 = “lora”

排名 = 32

dtype = “bfloat16”

[优化器]

类型 = “adamw_optimi”

lr = 2e-5

测试版 = [0.9,0.99]

weight_decay = 0.01

eps = 1e-8

高洛拉模型:

与 lora 基本相同的设置,但 max/min_t 会更改 0.875 到 1 的范围。

type = “automagic”

lr = 2e-5

weight_decay = 0.00195

lr_bump = 5e-6

eps = 1e-8

让话说图表:

以下是低光度图:

图片

你可以看到它上下跳跃。随着时间的推移,它会逐渐下降。第65章很好,但我训练得更多了。说实话,我并没有看到65和106之间有多大区别。我无法将其降到0.8以下,也许只要在训练中重新尝试并做好设置,我就能做到。

高光泽图

图片

(我似乎找不到我的训练数据,但你从之前的屏幕截图中得到了提示。这种趋势会变成那样的扁平化。在高位时,我们的亏损趋势要好得多。# 步骤也低得多。

抱歉,我找不到这个训练数据,也许已经删除了(我还有这个时代)。与低空传说不同,这个东西很快就变得不错了。我认为,从动作版制作起,你在观看预览时希望达到整体效果。让低矮的镜头来了解细节,如果形状不够近,那么细节在低调模型中就会显得格外显眼。

注意:

我为低型号的 automagic 进行了初次运行,结果成了垃圾。如果没有光光,它就无法工作,而且会有幽灵般的和运动模糊的痕迹。因此,我进行了第二次运行,上面设置的底部是adamw_optimi,它完全解决了所有问题。我无法确定,但我有理论认为,使用 adamw_optimi 的默认设置,低模型将训练得更好。高模型也可以。高模型的运行速度超快,与低速车型相比无需太多步骤,该模式会持续发展,且在损失趋势方面非常不稳定。

此外,我在“epoch65”后恢复检查点时,搞砸了低空洛拉的训练,但不知为何,它只是在最后一段时间内仅对画面进行了30次以上的训练。我没有注意到任何负面影响,所以只会给出最新的一个时代。尝试训练数据中的另一个低层,我将在字幕中注明。

很难检验的是2.2太郎。你基本上需要同时训练,然后进行细致的调整。如果你已经拥有2.1的长筒灯,可以先用它进行高模型和低调训练,但你将2.1与2.2混合,我认为最好在进行高强度测试之前先训练一下。总的来说,我认为这两个洛拉系统并不好,变量太多,无法检验是否出了问题。拍摄过程耗时很长时间,我不得不放弃超过10K级的训练数据。

资源下载此资源下载价格为5TB(VIP免费),请先

留下评论

您的邮箱地址不会被公开。 必填项已用 * 标注