FLUX.2 Klein 9B 高類似度キャラクター LoRA(AI Toolkit):本当に重要な設定(と入力すべき値)
FLUX.2 Klein 9B Base で キャラクター/アイデンティティ LoRA を学習していて、こんな疑問を繰り返し抱えていませんか:
- 「Num Repeats は結局何をするの?」
- 「Training Steps はどう計算すればいいの?」
- 「Gradient Accumulation を変えたら Steps も変える必要がある?」
- 「high likeness のために、他に何が一番効く?」
このチュートリアルは「当てずっぽうなし」で答えます。
0) みんなが一番混乱する理由: “steps” は2種類ある
AI Toolkit には Training Steps が表示されますが、同時に Sample Steps(preview / inference)も出てきます。
- Training → Steps = オプティマイザが学習する長さ(停止カウンタ)。
- Sample Steps(preview / inference)= サンプル画像を生成するためのデノイジング回数。
混同しないでください。
誰かが「28 steps がスイートスポット」と言っていても、それは学習長ではなく inference/sample steps の話かもしれません。
Base Klein では、低い sample steps で LoRA を評価しないでください。プレビューでは Base に合った sampling を使いましょう(後述)。
1) 最適化すべき指標はこれだけ:“repeats per image”(学習量)
高類似度のキャラクター LoRA では、各トレーニング画像がだいたい次の回数だけ「見られる」ようにするのが目安です:
- 50–90 repeats per image = 通常のキャラクター/アイデンティティ学習
- 90–120 repeats per image = 高類似度を狙う強め設定(より強い identity lock)
式(copy/paste)
次のように置きます:
N= 画像枚数B= batch sizeG= gradient accumulationS= training steps
すると:
Repeats per image
repeats_per_image ≈ (S × B × G) / N
Steps you should enter
S ≈ ceil( N × target_repeats / (B × G) )
✅ Gradient Accumulation を変えたら、同じ学習量を保つために Steps も必ず変わります。
2) “何を入力すればいい?”(高類似度向けのベストプラクティス)
A) Training panel(最重要)
まずは次を 出発点 にしてください:
- Batch Size:
1 - Gradient Accumulation:
1(likeness 最優先) - VRAM が厳しければ
2–4を使い、Steps を比例して下げます。 - Learning Rate: まず
1e-4から - 不安定 / “collapses” するなら
5e-5 - Steps: 上の式で計算(当てずっぽうにしない)
- Optimizer / timestep settings: 最初はデフォルトのまま(デバッグするときだけ触る)
B) Target panel(LoRA の容量)
- Linear Rank (9B Base): まず
16 - 明らかに underfitting で学習が安定しているなら
32 - 不安定/collapse が出るなら
16に戻す
C) Dataset panel(テキスト監督 = アイデンティティ制御)
キャラクター LoRA なら:
- Default Caption:
photo of [trigger] - Caption Dropout Rate:
0.05(セットアップによっては “caption overfitting” 回避に役立つことがあります) - Resolutions: 可能なら Klein は 1024 をデフォルトに
- サイズの柔軟性が欲しい場合だけ 768 を追加。
D) Sample panel(正しいプレビュー方法)
サンプルで LoRA が「弱い」と感じる場合、原因は学習ではなく sampling であることが多いです。
Base Klein のプレビューは例えば:
- Sample Steps: ~
50 - Guidance / CFG: ~
4
そのうえで、チェックポイントをもう一度比較してください。
3) “55枚”の例(実数で)
例えば:
N = 55枚- target repeats =
100(高類似度を狙う) - batch size
B = 1
Option 1(likeness 最優先):Grad Accum = 1
Steps = 55 × 100 / (1 × 1) = 5500
入力する値:
- Gradient Accumulation:
1 - Steps:
5500
Option 2(VRAM 寄り):Grad Accum = 4
Steps = 55 × 100 / (1 × 4) = 1375 (~1400)
入力する値:
- Gradient Accumulation:
4 - Steps:
1375(または1400)
✅ どちらも ~100 repeats per image になります。
違いは 1 step に何個の mini-batch をまとめるか です。
4) ミニ「チートシート」(高類似度キャラクター LoRA)
とにかくコピペできるものが欲しいなら:
Klein 9B Base – High Likeness Starter
- Batch Size:
1 - Grad Accum:
1(必要なら2–4) - Target repeats per image:
90–110 - Steps:
ceil(N × repeats / (B × G)) - LR:
1e-4(不安定なら5e-5に下げる) - Rank:
16(安定していて underfitting のときだけ32を試す) - Resolution:
1024 - Default caption:
photo of [trigger] - Caption dropout:
0.05 - Preview sampling (Base): Sample steps
~50, Guidance~4
5) トラブルシューティング(すぐ効く対処)
「LoRA が弱い / noisy のに、loss は下がっている」
ほとんどの場合、プレビューの sampling 設定が合っていません。
- Sample Steps ~50 と Guidance ~4 にして再確認してください。
「良くなってきたのに、突然すべてがカオス / 悪化した」(9B “collapse”)
次の順で試してください:
1) LR を下げる(1e-4 → 5e-5)
2) Rank を下げる(32 → 16)
3) 小さめの regularization dataset を低い weight で追加する
4) 早めに止めて、最後の「良かった」checkpoint を使う
「Gradient Accumulation を下げると品質は上がる?」
アイデンティティ/類似度では、上がることが多いです:
Gを下げると LoRA がより “specific” に保たれやすい(平均化されにくい)。- ただし同じ学習量にするには Steps を増やす必要があります。
6) まとめ
FLUX.2 Klein 9B のキャラクター類似度で最も効くレバーは次のとおりです:
1) 学習量(画像枚数に対する Steps × Batch × Grad Accum)
2) Learning rate
3) Rank
4) Resolution
5) Caption strategy
6) プレビューでの正しい Base sampling
これらを意図的にコントロールできれば、当てずっぽうは終わりで、結果が安定します。
トレーニングを開始する準備はできましたか?
