FLUX.2 Klein 9B High‑Likeness Character LoRA (AI Toolkit): какие настройки действительно важны (и что вводить)
Если вы обучаете LoRA персонажа / идентичности на FLUX.2 Klein 9B Base и постоянно спрашиваете себя:
- «Что на самом деле делает Num Repeats?»
- «Как посчитать Training Steps?»
- «Если я меняю Gradient Accumulation, нужно ли менять и Steps?»
- «Какие ещё настройки важнее всего для high likeness?»
Этот туториал — ответ “без угадываний”.
0) Причина №1, почему люди путаются: здесь ДВА “steps”
В AI Toolkit есть Training Steps, и вы также увидите Sample Steps (preview / inference).
- Training → Steps = сколько времени обучается оптимизатор (это счётчик остановки).
- Sample Steps (preview / inference) = сколько шагов денойзинга используется для рендера sample‑картинок.
Не смешивайте их.
Если кто‑то говорит «28 steps — sweet spot», он/она может иметь в виду inference/sample steps, а не длину обучения.
Для Base Klein не оценивайте LoRA на низких sample steps. Для preview используйте sampling, подходящий Base (ниже об этом).
1) Единственная метрика, которую стоит оптимизировать: “repeats per image” (доза обучения)
Для high‑likeness LoRA персонажа вы хотите, чтобы каждая обучающая картинка была “увидена” примерно:
- 50–90 повторов на изображение = обычное обучение идентичности персонажа
- 90–120 повторов на изображение = push на high likeness (более жёсткая фиксация идентичности)
Формула (copy/paste)
Пусть:
N= число обучающих изображенийB= batch sizeG= gradient accumulationS= training steps
Тогда:
Repeats per image
repeats_per_image ≈ (S × B × G) / N
Steps you should enter
S ≈ ceil( N × target_repeats / (B × G) )
✅ Если вы меняете Gradient Accumulation, ваши Steps должны измениться, чтобы сохранить ту же дозу обучения.
2) «Что мне вводить?» (best‑practice defaults для high likeness)
A) Training panel (самое важное)
Используйте это как точку старта:
- Batch Size:
1 - Gradient Accumulation:
1(лучшая похожесть) - Если VRAM мало, используйте
2–4и уменьшайте Steps пропорционально. - Learning Rate: начните с
1e-4 - Если обучение становится нестабильным / “collapses”, попробуйте
5e-5 - Steps: считайте по формуле выше (не гадайте)
- Optimizer / timestep settings: сначала оставьте дефолты (меняйте только при дебаге)
B) Target panel (ёмкость LoRA)
- Linear Rank (9B Base): начните с
16 - Если LoRA явно underfitting и обучение стабильно, попробуйте
32 - Если видите нестабильность/collapse, вернитесь к
16
C) Dataset panel (текстовый контроль = контроль идентичности)
Для LoRA персонажа:
- Default Caption:
photo of [trigger] - Caption Dropout Rate:
0.05(в некоторых сетапах помогает избежать “caption overfitting”) - Resolutions: по возможности используйте 1024 как дефолт для Klein
- Добавляйте 768 только если нужна большая гибкость по размерам.
D) Sample panel (как правильно делать preview)
Если LoRA выглядит “слабой” в samples, часто дело не в обучении — а в sampling.
Для Base Klein используйте preview‑настройки вроде:
- Sample Steps: ~
50 - Guidance / CFG: ~
4
Потом снова сравните чекпоинты.
3) Пример “55 изображений” (реальные числа)
Допустим:
N = 55изображений- target repeats =
100(push на high likeness) - batch size
B = 1
Option 1 (лучшая похожесть): Grad Accum = 1
Steps = 55 × 100 / (1 × 1) = 5500
Введите:
- Gradient Accumulation:
1 - Steps:
5500
Option 2 (экономит VRAM): Grad Accum = 4
Steps = 55 × 100 / (1 × 4) = 1375 (~1400)
Введите:
- Gradient Accumulation:
4 - Steps:
1375(или1400)
✅ Оба варианта дают ~100 повторов на изображение.
Разница в том, сколько mini-batch объединяется в каждом step.
4) Мини “cheat sheet” (high‑likeness LoRA персонажа)
Если вам нужно просто “скопировать и вставить”:
Klein 9B Base – High Likeness Starter
- Batch Size:
1 - Grad Accum:
1(или2–4, если нужно) - Target repeats per image:
90–110 - Steps:
ceil(N × repeats / (B × G)) - LR:
1e-4(снизьте до5e-5, если нестабильно) - Rank:
16(пробуйте32только если стабильно + underfitting) - Resolution:
1024 - Default caption:
photo of [trigger] - Caption dropout:
0.05 - Preview sampling (Base): Sample steps
~50, Guidance~4
5) Troubleshooting (быстрые фиксы)
«LoRA выглядит слабой / noisy, но loss падает»
Скорее всего вы делаете preview с неправильным sampling.
- Поставьте Sample Steps ~50 и Guidance ~4, затем проверьте снова.
«Становилось хорошо, а потом внезапно всё стало хаотичным / хуже» (9B “collapse”)
Пробуйте по порядку:
1) Снизить LR (1e-4 → 5e-5)
2) Снизить Rank (32 → 16)
3) Добавить небольшой regularization dataset с меньшим весом
4) Остановиться раньше и взять последний “хороший” checkpoint
«Станет ли качество лучше, если уменьшить Gradient Accumulation?»
Часто да для идентичности/похожести:
- Меньший
Gпомогает LoRA оставаться более “specific” (меньше усреднения). - Но вам нужно увеличить Steps, чтобы сохранить ту же дозу обучения.
6) Итог
Для похожести персонажа на FLUX.2 Klein 9B самые большие рычаги:
1) Доза обучения (Steps × Batch × Grad Accum относительно числа изображений)
2) Learning rate
3) Rank
4) Resolution
5) Caption strategy
6) Правильный Base sampling для previews
Если вы управляете этим осознанно, вы перестаёте гадать — и результаты становятся стабильными.
Готовы начать обучение?
