LTX 2.3 LoRA ComfyUI 推論: LTX 2.3 パイプラインを使用したトレーニングに一致するAI Toolkit LoRA出力
この実運用準備が整ったRunComfyワークフローは、RC LTX 2.3 (LTX2Pipeline) を通じてComfyUIでLTX 2.3 LoRA推論を実行します (パイプラインレベルの整合性、一般的なサンプラーグラフではありません)。RunComfyはこのカスタムノードを構築しオープンソース化しました—詳細はruncomfy-comのリポジトリを参照してください—そしてlora_pathとlora_scaleでアダプターの適用を制御します。
注: このワークフローを実行するには、2X Large以上のマシンが必要です。
LTX 2.3 LoRA ComfyUI 推論がComfyUIで異なって見える理由
AI Toolkitトレーニングプレビューはモデル固有のLTX 2.3パイプラインを通じてレンダリングされ、テキストエンコーディング、スケジューリング、およびLoRA注入が連携して動作するように設計されています。ComfyUIでは、異なるグラフまたは異なるLoRAローダーパスでLTX 2.3を再構築することで、これらの相互作用が変わる可能性があるため、同じプロンプト、ステップ、CFG、およびシードをコピーしても視覚的なドリフトが生じます。RunComfy RCパイプラインノードは、LTX 2.3をエンドツーエンドでLTX2Pipelineで実行し、そのパイプライン内でLoRAを適用することでそのギャップを埋め、推論をプレビュービヘイビアに整合させます。出典: RunComfyオープンソースリポジトリ。
LTX 2.3 LoRA ComfyUI 推論ワークフローの使用方法
ステップ1: LoRAパスを取得し、ワークフローにロードする (2つのオプション)
オプションA — RunComfyトレーニング結果 → ローカルComfyUIにダウンロード:
- Trainer → LoRA Assets に移動
- 使用したいLoRAを見つける
- 右側の⋮ (三点) メニューをクリック → Copy LoRA Link を選択
- ComfyUIワークフローページで、コピーしたリンクをUIの右上隅のダウンロード入力フィールドに貼り付ける
- ダウンロードをクリックする前に、ターゲットフォルダーがComfyUI > models > lorasに設定されていることを確認する (このフォルダーをダウンロードターゲットとして選択する必要があります)
- ダウンロードをクリック — これにより、LoRAファイルが正しい
models/lorasディレクトリに保存されます - ダウンロードが完了したら、ページを更新
- ワークフローのLoRAセレクトドロップダウンにLoRAが表示される — 選択する
オプションB — 直接LoRA URL (オプションAをオーバーライド):
- 直接
.safetensorsダウンロードURLをLoRAノードのpath / url入力フィールドに貼り付ける - ここにURLを提供すると、オプションAをオーバーライド — ワークフローは実行時にURLから直接LoRAをロードします
- ローカルダウンロードやファイル配置は必要ありません
ヒント: URLが実際の.safetensorsファイルに解決することを確認してください (ランディングページやリダイレクトではありません)。
ステップ2: トレーニングサンプル設定に推論パラメータを一致させる
LoRAノードで、lora_pathにアダプターを選択 (オプションA)、またはpath / urlに直接.safetensorsリンクを貼り付けて (オプションBがドロップダウンをオーバーライド)、トレーニングプレビューで使用したのと同じ強度にlora_scaleを設定し、そこから調整します。
残りのパラメータはGenerateノード (およびグラフによってはLoad Pipelineノード) にあります:
prompt: テキストプロンプト (トリガーワードをトレーニングに使用した場合は含める)width/height: 出力解像度; トレーニングプレビューサイズに一致させると比較が最もクリアになる (LTX 2.3には32の倍数を推奨)num_frames: 出力ビデオフレーム数sample_steps: 推論ステップ数 (30が一般的なデフォルト)guidance_scale: CFG/ガイダンス値 (5.5が一般的なデフォルト; 7を超えないように)seed: 再現用固定シード; 変更してバリエーションを探索するseed_mode(存在する場合のみ):fixedまたはrandomizeを選択frame_rate: 出力FPS; モーション整合のためにトレーニング設定と一貫性を保つ
トレーニング整合性のヒント: トレーニング中にサンプリング値 (seed, guidance_scale, sample_steps, トリガーワード, 解像度) をカスタマイズした場合、ここでそれらの正確な値をミラーリングします。RunComfyでトレーニングした場合は、Trainer → LoRA Assets > Configを開いて、解決済みのYAMLを表示し、プレビュー/サンプル設定をワークフローノードにコピーします。
ステップ3: LTX 2.3 LoRA ComfyUI 推論を実行
Queue/Run をクリック — SaveVideoノードが結果をComfyUI出力フォルダーに書き込みます。
クイックチェックリスト:
- ✓ LoRAは次のいずれか:
ComfyUI/models/lorasにダウンロード済み (オプションA)、または直接.safetensorsURLでロード済み (オプションB) - ✓ ローカルダウンロード後にページを更新 (オプションAのみ)
- ✓ 推論パラメータがトレーニング
sample設定に一致 (カスタマイズされた場合)
上記のすべてが正しければ、ここでの推論結果はトレーニングプレビューに非常に近いはずです。
LTX 2.3 LoRA ComfyUI 推論のトラブルシューティング
ほとんどのLTX 2.3「トレーニングプレビューとComfyUI推論」のギャップは、パイプラインレベルの違い (モデルのロード方法、スケジューリング、LoRAのマージ方法) に起因し、単一の間違ったノブからではありません。このRunComfyワークフローは、RC LTX 2.3 (LTX2Pipeline) をエンドツーエンドで実行し、そのパイプライン内でLoRAを適用することで、最も近い「トレーニングに一致する」ベースラインを復元します (lora_path / lora_scaleを介して、一般的なローダー/サンプラーノードを積み重ねるのではなく)。
(1) LoRA形状の不一致または「キーがロードされていない」警告
なぜこれが起こるのか LoRAは異なるモデルファミリーまたは異なるLTXバリアント用にトレーニングされました。多くのlora key not loaded行が表示され、形状の不一致エラーが発生する可能性があります。
修正方法 (推奨)
- LoRAがAI ToolkitでLTX 2.3用に特別にトレーニングされていることを確認してください (LTX 2.0 / 2.1 / 2.2 LoRAsは互換性がありません)。
- LoRAのグラフを「単一のパス」に保つ: アダプターをワークフローの
lora_path入力からのみロードし、LTX2Pipelineにマージを処理させます。追加の一般的なLoRAローダーを並列に積み重ねないでください。 - 不一致が発生し、ComfyUIがその後に無関係なCUDA/OOMエラーを生成し始めた場合、ComfyUIプロセスを再起動してGPU + モデル状態を完全にリセットし、互換性のあるLoRAで再試行してください。
(2) 推論結果がトレーニングプレビューと一致しない
なぜこれが起こるのか LoRAがロードされても、ComfyUIグラフがトレーニングプレビューパイプラインと一致しない場合、結果がドリフトすることがあります (異なるデフォルト、異なるLoRA注入パス、異なるスケジューリング)。
修正方法 (推奨)
- このワークフローを使用し、直接の
.safetensorsリンクをlora_pathに貼り付けます。 - AI Toolkitトレーニング設定からサンプリング値をコピーします (またはRunComfy Trainer → LoRA Assets Config):
width,height,num_frames,sample_steps,guidance_scale,seed,frame_rate。 - 「追加の速度スタック」を比較から除外します。ただし、これらを使用してトレーニング/サンプリングした場合は含めます。
(3) LoRAsの使用が推論時間を大幅に増加させる
なぜこれが起こるのか LoRAパスが追加のパッチング/デクアンタイズ作業を強制したり、基本モデル単独よりも遅いコードパスで重みを適用したりすると、LoRAはLTX 2.3を非常に遅くする可能性があります。
修正方法 (推奨)
- このワークフローのRC LTX 2.3 (LTX2Pipeline) パスを使用し、アダプターを
lora_path/lora_scaleを通じて渡します。このセットアップでは、LoRAはパイプラインロード中に一度マージされるため、ステップごとのサンプリングコストは基本モデルに近いままです。 - プレビューに一致する動作を追求する場合、複数のLoRAローダーを積み重ねたり、ローダーパスを混合したりしないでください。ベースラインが一致するまで、1つの
lora_path+ 1つのlora_scaleに保ちます。
(4) 大きな解像度や長いビデオでのOOMエラー
なぜこれが起こるのか LTX 2.3は22Bパラメータモデルであり、ビデオ生成はVRAMを多く消費します。高解像度や多くのフレームはGPUメモリを超える可能性があり、特にLoRAのオーバーヘッドがある場合はなおさらです。
修正方法 (推奨)
- 2X Large (80 GB VRAM) またはそれ以上のマシンを使用します。このワークフローはMedium, Large, またはX Largeマシンと互換性がありません。
- 迅速に反復する必要がある場合は、解像度やフレーム数を減らし、最終レンダリングのためにスケールアップします。
- 利用可能な場合はVAEタイル化を有効にします — 品質の損失を最小限に抑えながら約3 GBのVRAMを節約できます。
今すぐLTX 2.3 LoRA ComfyUI 推論を実行
ワークフローを開き、lora_pathを設定し、Queue/Runをクリックして、AI Toolkitトレーニングプレビューに近いLTX 2.3 LoRA結果を取得します。



