大模型训练 个人定制LORA
等服务内容

24K 订阅
个人定制LoRA(低秩适配)服务中,用户可通过高效微调技术实现大模型的个性化定制,以下从服务流程、技术优势、应用场景、核心工具.

导出模型时选择通用格式(如Hugging Face模型格式),便于长期保存和跨平台迁移.

wan2.2韩国女性

主要问题是皮肤质地已恢复到更接近v1.0的水平。正如你们中有些人可能在评论中看到的那样,我的固态硬盘完全失灵了。他们无法恢复数据,所以直接给我发了新的。我尽力从零开始重建数据集,并复制了v2.0的外观,但我实在无法完全理解。

终于放了Seoullina v2.1

这原本只是个小而快速的解决方法,但随着一些事情的出现,最终却被推迟了。

TBH,我对结果并不完全满意。

主要问题是皮肤质地已恢复到更接近v1.0的水平。正如你们中有些人可能在评论中看到的那样,我的固态硬盘完全失灵了。他们无法恢复数据,所以直接给我发了新的。我尽力从零开始重建数据集,并复制了v2.0的外观,但我实在无法完全理解。

顺便提一下,乳腺物理缺陷似乎得到了修复。

我知道这完全是个传奇,所以对于任何只想要TL;DR的人来说,请立即行动起来About this version部分。

2025-08-26

好吧,放行后Seoullina v2.0我发现了一些问题。

最大的问题是,即使角色完全静止,乳房物理系统也会引发一个漏洞。

我无法告诉你,当我第一次看到它时,我笑得有多厉害。

我猜测这种情况会发生在高度量化的模型上,以低分辨率计算,或在泄露时出现,但我完全忽略了这一点。有关此问题,请参阅该视频kyo55966933上传至图集(感谢视频!)

我将调查此问题,并准备使用2.1版本。

2025-08-24

首先,非常感谢所有在展厅中分享作品的人。结果简直太棒了!

Seoullina v2.0我对培训过程做了一些重要的更新。

以前,我最喜欢的方法是只训练低噪声模型,并以高强度使用Wan 2.1自强LoRA(例如2)。这产生了很高的图像质量,但现在我认为高强度是导致变形问题的主要因素。

然而,我找到了一种能带来更好结果的方法。通过将高/低模型训练在一起并使用Wan 2.2 Self-forcing LoRA(link1link1、link2),变形问题已得到显著改善。

训练数据集也已进行了修订。

我注意到,Flux生成的图像中不太逼真的皮肤纹理有时是不可取的。为此,我更新了数据集,导致该字符的外观与v1.0不同。

最初的目标是塑造一个虚构的人物,我认为这一改变是向前迈出的积极一步。

资源下载此资源下载价格为2TB(VIP免费),请先

留下评论

您的邮箱地址不会被公开。 必填项已用 * 标注