AI Toolkit LoRAトレーニングガイド

FLUX.2 Klein 4B/9B LoRA学習ガイド:Ostris AI Toolkit

このガイドでは、Ostris AI Toolkitを使ってFLUX.2 Klein(4B/9B Base)の実用的なLoRAを学習する方法を解説します。Base vs Distilledのサンプリング差、4B/9B互換性ルール、キャラクター・スタイル・商品データセットの構築、24GBからH100/H200までのVRAM計画、そして9B崩壊などKlein特有の問題の解決方法を学べます。

Ostris AI Toolkitで拡散モデルをトレーニング

横にスクロールしてフォーム全体を表示

Ostris AI ToolkitOstrisAI-Toolkit

New Training Job

Job

Model

Use a Hugging Face repo ID (e.g. owner/model-name).
⚠️ full URLs, .safetensors files, and local files are not supported.

Quantization

Target

Save

Training

Datasets

Dataset 1

Sample

FLUX.2 Klein LoRA学習:Ostris AI Toolkitで4B/9Bをトレーニングする方法

FLUX.2 Kleinは、text-to-image生成 + 画像編集を1つに統合したモデルファミリーで、オープンウェイトの「Base」には 4B9B の2サイズがあります。このガイドでは、Ostris AI Toolkitを使って実用的な FLUX.2 Klein LoRA を作るための FLUX.2 Klein LoRA学習 を、Klein特有のポイント(BaseとDistilledの期待値差、4B/9Bの互換性、VRAMの現実、Kleinで起きやすい失敗パターン)に絞って解説します。

また、「FLUX.2 Klein LoRA トレーニング」「Flux2 Klein LoRA学習 4B」「Flux2 Klein LoRA学習 9B」「FLUX.2 [klein] LoRA 学習」 といった表現で探している方も、内容は同じくこの FLUX.2 Klein LoRA学習 に集約されます。

この FLUX.2 Klein LoRA学習 を読み終える頃には、次ができるようになります。

  • FLUX.2 Klein 4B Base vs 9B Base を正しく選ぶ(「モデルサイズ違いでLoRAが効かない」事故を回避)。
  • Base Klein向けの 量子化(quantization)+ サンプリング(sampling) の初期値を決め、VRAMを見積もる。
  • キャラクター / スタイル / 商品・コンセプト LoRA向けに、データセットとトリガー戦略を作る。
  • Base前提の正しいサンプリングスモークテスト を行い、当てずっぽうなしでスケールする。
  • Klein特有の問題を解決する(ライセンスゲート、BaseとDistilledのテスト不一致、9Bの崩壊パターン、AI Toolkitの既知エッジケース)。
この記事はAI ToolkitのLoRA学習シリーズの一部です。Ostris AI Toolkitが初めてなら、この FLUX.2 Klein LoRA学習 に入る前にまず概要を読んでください。
https://www.runcomfy.com/ja/trainer/ai-toolkit/getting-started

目次


1. FLUX.2 Klein概要:4B/9Bの違い(そしてFLUX.2 Klein LoRA学習でBaseサンプリングが重要な理由)

1.1 Kleinは「生成と編集を1つで」

Kleinは、text-to-image生成画像編集 の両方を1つのモデルファミリーで扱えるように設計されています。実務的には、FLUX.2 Klein LoRA学習 で作ったスタイル/キャラ/商品LoRAは、「生成」だけでなく「編集」ワークフローでも使えることが多く、学習内容は データキャプション が決めます。

1.2 4B vs 9B:目的と環境で選ぶ

  • 4B Base:多くの人にとって FLUX.2 Klein LoRA学習 の最初の一歩に最適。反復が速く、VRAMに収まりやすく、安定させやすい傾向があります。
  • 9B Base:VRAMと安定化の調整ができるなら、プロンプト忠実度やディテールが伸びやすい一方、扱いはシビア(コミュニティでも“エッジケース”報告が多め)。

重要な互換性ルール:

4Bで学習したLoRAは9Bで動かず、9Bで学習したLoRAは4Bで動きません。 FLUX.2 Klein LoRA学習 でもテストでも、必ず同じサイズのKleinにLoRAを載せてください。

1.3 Base vs Distilled(AI Toolkitで選べるもの)

Kleinはよく次の2系統で語られます。

  • Basefine-tuning / LoRA学習 を想定した非蒸留チェックポイント
  • Distilled:推論を高速化した挙動(極端に少ないsteps)

AI ToolkitのModel Architectureで選べるのは _FLUX.2 Klein 4B Base_ または _FLUX.2 Klein 9B Base_ のみです。

Distilledは選択肢にないため、この FLUX.2 Klein LoRA学習Base前提 で書いています。

1.4 Klein最大の落とし穴:Baseは推論stepsが必要

「LoRAが弱い/ノイジー」という報告の多くは、BaseをDistilledのつもりでサンプリングしている のが原因です。

Base Kleinを4〜8 steps程度でプレビューすると、未完成/ノイズっぽく見えます。

FLUX.2 Klein LoRA学習 の評価用デフォルトは、まずこれにしてください。

  • Sample Steps / Inference Steps:50
  • Guidance Scale(CFG):4

これだけで、FLUX.2 Klein LoRA学習 中の誤判定がかなり減ります。


2. 実行環境:ローカルAI Toolkit vs RunComfyのクラウドAI Toolkit(FLUX.2 Klein LoRA学習)

この FLUX.2 Klein LoRA学習 は、AI Toolkitを次の2通りで実行できます。

  • ローカルAI Toolkit(自分のGPU)

    GitHubからAI Toolkitを入れてWeb UIを起動し、自分のマシンで学習します。対応するNVIDIA GPUがあり、CUDA/ドライバ/ディスク管理に慣れているなら良い選択です。

  • RunComfyのクラウドAI Toolkit(H100 / H200)

    ブラウザでAI Toolkitを開き、クラウドGPU(H100 80GB / H200 141GB)で学習します。9B BaseのFLUX.2 Klein LoRA学習、大規模データセット、高解像度学習をVRAM調整なしで進めたい場合に最短ルートです。

    https://www.runcomfy.com/trainer/ai-toolkit/app

UIと手順は同じで、違いはGPUの場所だけです。


3. FLUX.2 Klein 4B/9B LoRA学習のためのハードウェア & VRAM計画

3.1 「推論で動く」≠「学習で回る」

推論でBF16が収まっても、学習では追加のメモリが必要です(optimizer state、activation、LoRAモジュール、サンプル生成など)。FLUX.2 Klein LoRA学習 では余裕を見て計画してください。

3.2 現実的な目安(ティア)

FLUX.2 Klein LoRA学習 の見積もりは、ざっくりこの感覚が役立ちます。

  • 4B Base
    • 24GBでローカル学習が現実的(batch 1、適切なrank、必要なら量子化)。
    • もっと少ないVRAMでも小さい解像度なら可能なことはありますが、反復が不安定になりがちです。
  • 9B Base
    • ローカルで“普通に”回すなら 32GB+ が目安。
    • 高解像度をストレスなく回すなら、クラウド(H100/H200)が最も楽です。

3.3 Klein特有の注意:9B + 強い省メモリは不安定になりやすい

コミュニティでは、9B の学習が省メモリ設定に強く依存すると不安定になりやすい、という報告があります。VRAMがタイトなら、

1) まず 4B BaseFLUX.2 Klein LoRA学習 を回す、または

2) クラウドGPU に移す、

方が結果的に早いことが多いです。


4. FLUX.2 Klein LoRA学習用データセットの作り方(キャラ/スタイル/商品)

基本はシンプルに:まずデータを綺麗にし、その後でパラメータを触る。これが FLUX.2 Klein LoRA学習 の最短距離です。

4.1 共通ルール(効きが大きい)

  • 近い重複は基本削る(意図的に特定カットを支配させたいなら例外)。
  • 透かし、UI、文字ブロックは避ける(LoRAがそれ自体を学ぶ目的なら別)。
  • 信号を揃える:FLUX.2 Klein LoRA学習 で学ばせたいのは アイデンティティ / スタイル / 商品 であって、背景の偶然ではありません。

4.2 キャラクター/似顔絵(likeness)LoRA

狙い: 多様なプロンプトで同一人物(同一キャラ)に見えること。

  • 典型的なデータ数:20〜60枚(厳選)
  • 角度、光、表情、レンズ感のバリエーションが重要
  • キャプションは短め。顔パーツの過剰描写は避ける

トリガー:推奨

固有トークンを用意し、FLUX.2 Klein LoRA学習 のオン/オフを明確にします。

4.3 スタイルLoRA

狙い: プロンプト忠実度を壊さずに“絵柄”を再利用できること。

  • 典型的なデータ数:50〜200枚(多いほど有利)
  • 人/物/風景を混ぜ、スタイルだけが共通要素になるようにする
  • キャプションはスタイル属性(画材、配色、光の語彙)を中心に

トリガー:任意

呼び出しやすいスタイルにしたいなら、FLUX.2 Klein LoRA学習 でトリガーを入れます。

4.4 商品/コンセプトLoRA

狙い: 特定商品の形状や素材感、または新概念の安定した再現。

  • 典型的なデータ数:30〜100
  • 最初はフレーミングとスケールをできるだけ揃える
  • キャプションで商品名と保持したい属性を明示する

トリガー:強く推奨

商品/コンセプトは、FLUX.2 Klein LoRA学習 で明確なアクティベーション制御があると扱いやすくなります。


5. 手順:AI ToolkitでFLUX.2 Klein LoRAを学習する(FLUX.2 Klein LoRA学習)

ここからは FLUX.2 Klein LoRA学習 の“最短手順”です。実際にクリックするパネルだけに絞っています。

Step 0 — AI Toolkitをどこで動かすか決める

  • ローカル(自分のGPU):4B Baseや小規模な FLUX.2 Klein LoRA学習 に向きます。
  • クラウド(RunComfy):9B Baseや高解像度をVRAM調整なしで回すなら最適。

    https://www.runcomfy.com/trainer/ai-toolkit/app


Step 1 — AI Toolkitでデータセットを作る

AI ToolkitのUIで Datasets タブを開きます。

データセットを作成(例):

  • klein_my_lora_v1

画像をアップロードし、(任意で)対応する .txt キャプションも用意します。

まだ画像ごとのキャプションを作らない場合、FLUX.2 Klein LoRA学習 は次でも開始できます。

  • Trigger Word(JOBパネル)
  • Default Caption(DATASETSパネル)

Step 2 — 新規Jobを作成(UI順に設定)

Job panel

  • Training Name:分かる名前(例:klein4b_character_lora_v1
  • GPU ID:ローカルはGPUを選択、クラウドはデフォルトでOK
  • Trigger Word
    • キャラ/商品:推奨(固有トークン)
    • スタイル:任意(オン/オフ制御したいなら推奨)

Model panel

  • Model ArchitectureFLUX.2 Klein 4B Base または FLUX.2 Klein 9B Base
  • Name or Path
    • 選んだサイズの公式リポジトリを使用(FLUX.2 Klein LoRA学習 の前提)
    • 9Bでダウンロードが失敗する場合:Troubleshooting(ライセンスゲート)へ

Quantization panel

量子化は、FLUX.2 Klein LoRA学習 では主に VRAMに収める / 安定させる ための手段です。

  • VRAMが厳しい(特に9B)なら、重いコンポーネントに量子化を有効化。
  • 量子化が原因っぽいエラーが出るなら、一度OFFにしてパイプラインが動くことを確認し、動作後にONへ戻す。

Target panel

ここで FLUX.2 Klein LoRA学習 のLoRA容量(表現力)を決めます。

  • Target Type:LoRA
  • Linear Rank(初期値の目安)
    • 4B Base:まず 16、足りなければ 32
    • 9B Base16〜32(不安定なら16推奨)

出力が崩壊したり不安定になったら、rankを下げるのが FLUX.2 Klein LoRA学習 では最速の安定化策になりがちです。


Save panel

  • Data Type:BF16は安全なデフォルト
  • Save Every:250〜500 stepsが実用的
  • Max Step Saves to Keep:3〜6(ディスク消費を抑える)

Training panel

最初の FLUX.2 Klein LoRA学習 は保守的に始めるのがコツです。

  • Batch Size:1(余裕があれば増やす)
  • Gradient Accumulation:1〜4(VRAMを増やさず実効batchを上げる)
  • Learning Rate
    • 安定しているなら 1e‑4 から
    • 不安定/崩壊なら 5e‑5 を試す
  • Steps(目安)
    • 小規模(20〜40枚):2000〜4000
    • 中規模(50〜120枚):3000〜6000

迷うなら、FLUX.2 Klein LoRA学習 のスモークテストを先に:

  • ~1000 steps だけ回し、サンプルを見て続行/やり直し(rank/LR調整)を判断します。

Regularization(9Bで崩壊しやすい場合は特に推奨)

データが狭い(単一キャラ/単一商品)なら、同クラスの汎用画像を低い重みで混ぜた 正則化データセット を入れると、崩壊や過学習を抑え、FLUX.2 Klein LoRA学習 の汎化が改善することがあります。


Datasets panel

  • Target Dataset:作成したデータセットを選ぶ
  • Default Caption(任意)
    • キャラ:photo of [trigger]
    • スタイル:[trigger], watercolor illustration, soft edges, pastel palette
    • 商品:product photo of [trigger], clean background, studio lighting
  • Caption Dropout Rate:0.05程度など小さめ(テキスト埋め込みをキャッシュしていない場合の“キャプション過学習”対策)
  • Cache Latents:可能ならON(大幅に高速化)
  • Resolutions
    • 最初は 1つの主要解像度(例:1024)で FLUX.2 Klein LoRA学習
    • 必要になってからバケットを増やす

Sample panel(Kleinで超重要)

Klein Base を学習するなら、サンプリングはBase前提。Distilled前提にしないのが FLUX.2 Klein LoRA学習 の要点です。

まずはこの設定:

  • Sample Every:250〜500
  • Guidance Scale:約 4
  • Sample Steps:約 50
  • Seed:固定(例:42)で比較可能にする

実運用のプロンプト(キャラ/スタイル/商品)を6〜10本入れて、FLUX.2 Klein LoRA学習 の進捗を正しく見ます。


Step 3 — 学習を開始して監視

Training Queue でジョブを開始し、次を見ます。

  • Samples:Base相当(≈50 steps)でのみ判断(そうしないと FLUX.2 Klein LoRA学習 の評価がズレる)
  • Stability:良くなった後に悪化するなら停止し、早い段階のチェックポイントに戻す

6. VRAM別:おすすめFLUX.2 Klein LoRA設定(FLUX.2 Klein LoRA学習)

ここは“良い初期値”です。FLUX.2 Klein LoRA学習 の絶対ルールではありません。

Tier A — 24GBで4B Base(よくあるローカル環境)

  • Quantization:必要ならON
  • Batch size:1
  • Rank:16(足りなければ32)
  • Resolution:768〜1024
  • Sampling:steps 50、CFG ~4(FLUX.2 Klein LoRA学習 のBase評価)

Tier B — 32〜48GBで9B Base(ローカル“本気”構成)

  • Quantization:強く推奨
  • Batch size:1(余裕が出てから増やす)
  • Rank:まず16(安定してから32)
  • 不安定/崩壊するなら正則化データセットを追加
  • Sampling:steps 50、CFG ~4(FLUX.2 Klein LoRA学習 のBase評価)

Tier C — クラウドH100/H200(最速反復、最も簡単)

  • 最大の忠実度が欲しいなら9B Baseを優先
  • Batch size:2〜4が現実的なことが多い
  • Rank:安定していれば32も実用
  • 解像度は1024をデフォルトにし、必要なときだけバケット拡張
  • Sampling:steps 50、CFG ~4(FLUX.2 Klein LoRA学習 の標準)

7. よくあるFLUX.2 Klein LoRA学習の不具合と対処法

ここは Klein特有 の項目です(一般論ではなく、FLUX.2 Klein LoRA学習 を止めやすいポイントだけ)。

「LoRAが弱い/ノイジー」(でもlossは下がっている)

ほぼ原因: Klein Base をDistilledのようなstepsでサンプリングしている。

対処

  • Sample パネルで Sample Steps ≈ 50Guidance Scale ≈ 4
  • その後にチェックポイントを再評価(FLUX.2 Klein LoRA学習 の“誤判定”を止める)

9B Baseがダウンロードできない / access denied

よくある原因: 9Bモデルがライセンス同意でゲートされており、環境が未認証。

対処

  • モデルページでライセンス同意/アクセス申請: FLUX.2-Klein-9B
  • AI Toolkit SettingsにHugging Faceの Read token を追加
  • トークン保存後にジョブを再実行(FLUX.2 Klein LoRA学習 を再開)

(手順チェックリストが欲しい場合:RunComfyの専用ヘルプ “Hugging Face token for FLUX”.


「学習したのにLoRAが効かない」

Klein特有の原因になりやすいもの

  • 4Bで学習して9Bでテスト(またはその逆)
  • Baseで学習して別のKleinバリアント/別パイプラインでテスト

対処

  • サイズ一致 を確認(4B LoRA→4B Base、9B LoRA→9B Base)
  • 学習時のベースと評価パイプラインを揃える(FLUX.2 Klein LoRA学習 の前提)

9B学習が「崩壊」する(突然劣化/カオス化)

コミュニティでもよく言及される、9Bの FLUX.2 Klein LoRA学習 で出やすいパターンです。

対処の順番(効きやすい順)

1) Learning Rate を下げる(例:1e‑4 → 5e‑5

2) Rank を下げる(例:32 → 16

3) 正則化データセット を追加(同クラス汎用画像を低重みで)

4) 早めに止めて early stop(最後に良かったチェックポイントを採用)

崩壊と戦わずに進めたいなら、まず 4B BaseFLUX.2 Klein LoRA学習 を回すのが近道です。


AI Toolkit側の既知エッジケース(Klein関連)

一部環境で、FLUX.2 Klein LoRA学習 に関して次が報告されています。

  • Klein 9Bで Layer Offloading が想定通りに動かないことがある
  • 一部設定で edit-mode / control-image 学習がエラーになる
  • 特定環境(例:一部のWSL2)で GPUが使われない

現実的な回避策

  • 今日確実に回したいなら:
    • 4B Base に切り替える、または
    • クラウドAI Toolkit に移す、または
    • AI Toolkitを最新に更新して再試行する

8. 学習後:FLUX.2 Klein LoRAの使い方(FLUX.2 Klein LoRA学習)

8.1 Base相当の生成設定でテストする

Klein Base でLoRAを試すときは、FLUX.2 Klein LoRA学習 の前提どおり次から始めます。

  • Steps: 約50
  • CFG: 約4
  • LoRA weight: 0.6 → 1.0(いくつか試す)

8.2 プロっぽくテストする(速く、再現性高く)

1) LoRAなし で生成(ベースライン)

2) LoRAあり で0.6 / 0.8 / 1.0

3) seed + steps + CFG を固定

4) 見るポイント:

  • 効きの強さ(出ているか)
  • 制御(トリガーなしで抑えられるか)
  • 汎化(新しいプロンプトでも動くか)

8.3 編集ワークフロー

Kleinは編集にも対応します。生成で安定したら、編集パイプラインにLoRAを組み込み、編集時もアイデンティティ/スタイル/商品の一貫性を保てます。これも FLUX.2 Klein LoRA学習 の大きなメリットです。


AI ToolkitのLoRA学習ガイド(その他)

トレーニングを開始する準備はできましたか?