FLUX.2 Klein 9B High‑Likeness Character LoRA (AI Toolkit): Welche Settings wirklich zählen (und was du eingeben solltest)
Wenn du eine Character / Identity LoRA auf FLUX.2 Klein 9B Base trainierst und dich ständig fragst:
- „Was macht Num Repeats eigentlich?“
- „Wie berechne ich Training Steps?“
- „Wenn ich Gradient Accumulation ändere, muss ich dann auch Steps ändern?“
- „Welche anderen Settings sind am wichtigsten für high likeness?“
Dieses Tutorial ist die Antwort ohne Rätselraten.
0) Der Grund #1, warum viele verwirrt sind: es gibt ZWEI „Steps“
AI Toolkit zeigt Training Steps und du siehst außerdem Sample Steps (preview / inference).
- Training → Steps = wie lange der Optimizer trainiert (das ist der Stop‑Counter).
- Sample Steps (preview / inference) = wie viele Denoising‑Steps verwendet werden, um Sample‑Bilder zu rendern.
Nicht verwechseln.
Wenn jemand sagt „28 steps sind der Sweet Spot“, kann er/sie über inference/sample steps sprechen — nicht über die Trainingslänge.
Für Base Klein solltest du deine LoRA nicht mit niedrigen sample steps beurteilen. Nutze beim Preview Base‑passendes Sampling (mehr dazu unten).
1) Die einzige Kennzahl, die du optimieren solltest: „repeats per image“ (Trainingsdosis)
Für High‑Likeness‑Character‑LoRAs solltest du anpeilen, dass jedes Trainingsbild ungefähr so oft „gesehen“ wird:
- 50–90 Wiederholungen pro Bild = normales Character‑Identity‑Training
- 90–120 Wiederholungen pro Bild = High‑Likeness‑Push (stärkerer Identity‑Lock)
Die Formel (copy/paste)
Sei:
N= Anzahl der TrainingsbilderB= batch sizeG= gradient accumulationS= training steps
Dann:
Repeats per image
repeats_per_image ≈ (S × B × G) / N
Steps you should enter
S ≈ ceil( N × target_repeats / (B × G) )
✅ Wenn du Gradient Accumulation änderst, müssen sich deine Steps ändern, um die gleiche Trainingsdosis zu behalten.
2) „Was soll ich eingeben?“ (Best‑Practice‑Defaults für High Likeness)
A) Training panel (höchster Impact)
Nutze diese Werte als Startpunkt:
- Batch Size:
1 - Gradient Accumulation:
1(beste Likeness) - Wenn VRAM knapp ist, nutze
2–4und reduziere Steps proportional. - Learning Rate: starte
1e-4 - Wenn das Training instabil wird / „collapses“, probiere
5e-5 - Steps: mit der Formel oben berechnen (nicht raten)
- Optimizer / timestep settings: erstmal Defaults lassen (nur ändern, wenn du debuggen musst)
B) Target panel (LoRA‑Kapazität)
- Linear Rank (9B Base): starte
16 - Wenn die LoRA klar unterfittet und das Training stabil ist, probiere
32 - Wenn du Instabilität/collapse siehst, geh zurück auf
16
C) Dataset panel (Text‑Supervision = Identity‑Control)
Für Character‑LoRAs:
- Default Caption:
photo of [trigger] - Caption Dropout Rate:
0.05(hilft in manchen Setups gegen „caption overfitting“) - Resolutions: nutze nach Möglichkeit 1024 als Default für Klein
- Füge 768 nur hinzu, wenn du mehr Flexibilität über Größen willst.
D) Sample panel (so previewst du richtig)
Wenn deine LoRA in Samples „schwach“ wirkt, liegt es oft nicht am Training — sondern am Sampling.
Für Base Klein nutze Preview‑Settings wie:
- Sample Steps: ~
50 - Guidance / CFG: ~
4
Dann vergleiche die Checkpoints erneut.
3) Das „55 Bilder“‑Beispiel (echte Zahlen)
Angenommen du hast:
N = 55Bilder- target repeats =
100(High‑Likeness‑Push) - batch size
B = 1
Option 1 (beste Likeness): Grad Accum = 1
Steps = 55 × 100 / (1 × 1) = 5500
Eingeben:
- Gradient Accumulation:
1 - Steps:
5500
Option 2 (VRAM‑freundlich): Grad Accum = 4
Steps = 55 × 100 / (1 × 4) = 1375 (~1400)
Eingeben:
- Gradient Accumulation:
4 - Steps:
1375(oder1400)
✅ Beide Optionen liefern ~100 Wiederholungen pro Bild.
Der Unterschied ist, wie viele Mini‑Batches in jeden Step zusammengeführt werden.
4) Mini „Cheat Sheet“ (High‑Likeness Character LoRA)
Wenn du einfach etwas zum Kopieren willst:
Klein 9B Base – High Likeness Starter
- Batch Size:
1 - Grad Accum:
1(oder2–4falls nötig) - Target repeats per image:
90–110 - Steps:
ceil(N × repeats / (B × G)) - LR:
1e-4(bei Instabilität auf5e-5runter) - Rank:
16(probiere32nur, wenn stabil + underfitting) - Resolution:
1024 - Default caption:
photo of [trigger] - Caption dropout:
0.05 - Preview sampling (Base): Sample steps
~50, Guidance~4
5) Troubleshooting (schnelle Fixes)
„Meine LoRA wirkt schwach / noisy, aber der Loss sinkt“
Sehr wahrscheinlich previewst du mit dem falschen Sampling‑Setup.
- Setze Sample Steps ~50 und Guidance ~4, dann nochmal prüfen.
„Es wurde gut, dann wurde alles plötzlich chaotisch / schlechter“ (9B „collapse“)
Probiere Fixes in dieser Reihenfolge:
1) LR senken (1e-4 → 5e-5)
2) Rank senken (32 → 16)
3) Ein kleines Regularization‑Dataset mit geringerem Gewicht hinzufügen
4) Early stop und den letzten „guten“ Checkpoint verwenden
„Bekomme ich bessere Qualität, wenn ich Gradient Accumulation reduziere?“
Oft ja — für Identity/Likeness:
- Ein niedrigeres
Gkann helfen, dass die LoRA „spezifischer“ bleibt (weniger gemittelt). - Aber du musst Steps erhöhen, um die gleiche Trainingsdosis zu behalten.
6) Fazit
Für FLUX.2 Klein 9B Character‑Likeness sind die größten Hebel:
1) Trainingsdosis (Steps × Batch × Grad Accum relativ zur Bildanzahl)
2) Learning rate
3) Rank
4) Resolution
5) Caption strategy
6) Korrektes Base‑Sampling für Previews
Wenn du diese Dinge bewusst kontrollierst, hörst du auf zu raten — und deine Ergebnisse werden konsistent.
Bereit zum Starten des Trainings?
