AI Toolkit LoRAトレーニングガイド

FLUX.2 Klein 9B 高類似度キャラクターLoRA:重要な設定

FLUX.2 Klein 9BキャラクターLoRA学習の当てずっぽうなしガイド。repeats-per-image公式、バッチサイズ、gradient accumulation、学習率、rank、解像度、キャプション、プレビュー用の正しいBase samplingを解説。

Ostris AI Toolkitで拡散モデルをトレーニング

FLUX.2 Klein 9B 高類似度キャラクター LoRA(AI Toolkit):本当に重要な設定(と入力すべき値)

FLUX.2 Klein 9B Baseキャラクター/アイデンティティ LoRA を学習していて、こんな疑問を繰り返し抱えていませんか:

  • Num Repeats は結局何をするの?」
  • Training Steps はどう計算すればいいの?」
  • Gradient Accumulation を変えたら Steps も変える必要がある?」
  • high likeness のために、他に何が一番効く?」

このチュートリアルは「当てずっぽうなし」で答えます。


0) みんなが一番混乱する理由: “steps” は2種類ある

AI Toolkit には Training Steps が表示されますが、同時に Sample Steps(preview / inference)も出てきます。

  • Training → Steps = オプティマイザが学習する長さ(停止カウンタ)。
  • Sample Steps(preview / inference)= サンプル画像を生成するためのデノイジング回数。

混同しないでください。

誰かが「28 steps がスイートスポット」と言っていても、それは学習長ではなく inference/sample steps の話かもしれません。

Base Klein では、低い sample steps で LoRA を評価しないでください。プレビューでは Base に合った sampling を使いましょう(後述)。


1) 最適化すべき指標はこれだけ:“repeats per image”(学習量)

高類似度のキャラクター LoRA では、各トレーニング画像がだいたい次の回数だけ「見られる」ようにするのが目安です:

  • 50–90 repeats per image = 通常のキャラクター/アイデンティティ学習
  • 90–120 repeats per image = 高類似度を狙う強め設定(より強い identity lock)

式(copy/paste)

次のように置きます:

  • N = 画像枚数
  • B = batch size
  • G = gradient accumulation
  • S = training steps

すると:

Repeats per image


repeats_per_image ≈ (S × B × G) / N

Steps you should enter


S ≈ ceil( N × target_repeats / (B × G) )

Gradient Accumulation を変えたら、同じ学習量を保つために Steps も必ず変わります。


2) “何を入力すればいい?”(高類似度向けのベストプラクティス)

A) Training panel(最重要)

まずは次を 出発点 にしてください:

  • Batch Size: 1
  • Gradient Accumulation: 1(likeness 最優先)
    • VRAM が厳しければ 2–4 を使い、Steps を比例して下げます。
  • Learning Rate: まず 1e-4 から
    • 不安定 / “collapses” するなら 5e-5
  • Steps: 上の式で計算(当てずっぽうにしない)
  • Optimizer / timestep settings: 最初はデフォルトのまま(デバッグするときだけ触る)

B) Target panel(LoRA の容量)

  • Linear Rank (9B Base): まず 16
    • 明らかに underfitting で学習が安定しているなら 32
    • 不安定/collapse が出るなら 16 に戻す

C) Dataset panel(テキスト監督 = アイデンティティ制御)

キャラクター LoRA なら:

  • Default Caption: photo of [trigger]
  • Caption Dropout Rate: 0.05(セットアップによっては “caption overfitting” 回避に役立つことがあります)
  • Resolutions: 可能なら Klein は 1024 をデフォルトに
    • サイズの柔軟性が欲しい場合だけ 768 を追加。

D) Sample panel(正しいプレビュー方法)

サンプルで LoRA が「弱い」と感じる場合、原因は学習ではなく sampling であることが多いです。

Base Klein のプレビューは例えば:

  • Sample Steps: ~50
  • Guidance / CFG: ~4

そのうえで、チェックポイントをもう一度比較してください。


3) “55枚”の例(実数で)

例えば:

  • N = 55
  • target repeats = 100(高類似度を狙う)
  • batch size B = 1

Option 1(likeness 最優先):Grad Accum = 1


Steps = 55 × 100 / (1 × 1) = 5500

入力する値:

  • Gradient Accumulation: 1
  • Steps: 5500

Option 2(VRAM 寄り):Grad Accum = 4


Steps = 55 × 100 / (1 × 4) = 1375  (~1400)

入力する値:

  • Gradient Accumulation: 4
  • Steps: 1375(または 1400

✅ どちらも ~100 repeats per image になります。

違いは 1 step に何個の mini-batch をまとめるか です。


4) ミニ「チートシート」(高類似度キャラクター LoRA)

とにかくコピペできるものが欲しいなら:

Klein 9B Base – High Likeness Starter

  • Batch Size: 1
  • Grad Accum: 1(必要なら 2–4
  • Target repeats per image: 90–110
  • Steps: ceil(N × repeats / (B × G))
  • LR: 1e-4(不安定なら 5e-5 に下げる)
  • Rank: 16(安定していて underfitting のときだけ 32 を試す)
  • Resolution: 1024
  • Default caption: photo of [trigger]
  • Caption dropout: 0.05
  • Preview sampling (Base): Sample steps ~50, Guidance ~4

5) トラブルシューティング(すぐ効く対処)

「LoRA が弱い / noisy のに、loss は下がっている」

ほとんどの場合、プレビューの sampling 設定が合っていません。

  • Sample Steps ~50Guidance ~4 にして再確認してください。

「良くなってきたのに、突然すべてがカオス / 悪化した」(9B “collapse”)

次の順で試してください:

1) LR を下げる(1e-4 → 5e-5

2) Rank を下げる(32 → 16

3) 小さめの regularization dataset を低い weight で追加する

4) 早めに止めて、最後の「良かった」checkpoint を使う

「Gradient Accumulation を下げると品質は上がる?」

アイデンティティ/類似度では、上がることが多いです:

  • G を下げると LoRA がより “specific” に保たれやすい(平均化されにくい)。
  • ただし同じ学習量にするには Steps を増やす必要があります

6) まとめ

FLUX.2 Klein 9B のキャラクター類似度で最も効くレバーは次のとおりです:

1) 学習量(画像枚数に対する Steps × Batch × Grad Accum)

2) Learning rate

3) Rank

4) Resolution

5) Caption strategy

6) プレビューでの正しい Base sampling

これらを意図的にコントロールできれば、当てずっぽうは終わりで、結果が安定します。

トレーニングを開始する準備はできましたか?