裸オーバーオールです
プロンプト: <lora:naked_overalls_anyillustriousXLFor_200_style_up:0.90>, naked overalls, cowboy shot
強度: 0.9-1.0
これは絵柄の影響が少なくなるように作っています
3Dを含む絵柄の影響が強いデータセットから普通に学習すると、コンセプトと同時に絵柄まで学習してしまいます
AnyIllustriousを学習元に使うと多くの場合これは軽減できますが、AnyIllustriousが対象としていないタイプの素材では効果が薄れます
このため、まず学習データセットの絵柄で強くLoRAを学習-> SupermegerでLoRAをAnyIllustriousへマージ -> マージしたモデルでコンセプトを学習の順で行っています
絵柄のデータセットとコンセプトのデータセットは分けて、絵柄は学習したいコンセプトをあまり含まない、絵柄のみのデータセットです。
マージしたモデルが既にデータセットの絵柄を持っているため、コンセプトの学習から絵柄をある程度分離できます(それでも絵柄の影響は残りますが)
Prompt: <lora:naked_overalls_anyillustriousXLFor_200_style_up:0.90>, naked overalls, cowboy shot
Strength: 0.9-1.0
This is designed to minimize the influence of art style.
If you train normally on a dataset where style has a strong impact, including 3D, the model ends up learning the style along with the concept. Using AnyIllustrious as the training base often mitigates this, but its effectiveness declines for materials that fall outside AnyIllustrious’s target scope.
So, I trained it as follows: first, train a LoRA intensively on the dataset’s style → use Supermeger to merge that LoRA into AnyIllustrious → train the concept using the merged model.
I kept the style dataset and the concept dataset separate. The style dataset contains little of the target concept; it’s a style-only dataset.
Because the merged model already incorporates the dataset’s style, we can separate the style from the concept to some extent during concept training (though the style’s influence still remains).

