LTX 2.3 LoRA ComfyUI 推論:使用 LTX 2.3 管道的訓練匹配 AI Toolkit LoRA 輸出
這個生產就緒的 RunComfy 工作流程通過 RC LTX 2.3 (LTX2Pipeline) 在 ComfyUI 中運行 LTX 2.3 LoRA 推論(管道級別對齊,而不是通用採樣器圖)。RunComfy 構建並開源了這個自定節點——查看 runcomfy-com repositories——您可以使用 lora_path 和 lora_scale 控制適配器應用。
注意:此工作流程需要 2X Large 或更大的機器運行。
為什麼 LTX 2.3 LoRA ComfyUI 推論在 ComfyUI 中看起來不同
AI Toolkit 訓練預覽是通過模型特定的 LTX 2.3 管道渲染的,其中文本編碼、調度和 LoRA 注入設計成協同工作。在 ComfyUI 中,用不同的圖重建 LTX 2.3(或不同的 LoRA 加載器路徑)可能會改變這些交互,因此即使複製相同的提示、步驟、CFG 和種子仍然會產生明顯的漂移。RunComfy RC 管道節點通過在 LTX2Pipeline 中端到端執行 LTX 2.3 並在該管道內應用您的 LoRA,縮小了這一差距,保持推論與預覽行為一致。來源:RunComfy 開源庫。
如何使用 LTX 2.3 LoRA ComfyUI 推論工作流程
步驟 1:獲取 LoRA 路徑並將其加載到工作流程中(2 種選擇)
選擇 A — RunComfy 訓練結果 → 下載到本地 ComfyUI:
- 前往 Trainer → LoRA Assets
- 找到您要使用的 LoRA
- 點擊右側的 ⋮ (三點) 菜單 → 選擇 Copy LoRA Link
- 在 ComfyUI 工作流程頁面,將復制的鏈接粘貼到 UI 右上角的 Download 輸入字段中
- 在點擊下載之前,確保目標文件夾設置為 ComfyUI > models > loras(此文件夾必須選擇為下載目標)
- 點擊 Download — 這確保 LoRA 文件被保存到正確的
models/loras目錄中 - 下載完成後,刷新頁面
- LoRA 現在出現在工作流程中的 LoRA 選擇下拉菜單中 — 選擇它
選擇 B — 直接 LoRA URL(覆蓋選擇 A):
- 將 直接
.safetensors下載 URL 粘貼到 LoRA 節點的path / url輸入字段中 - 當此處提供 URL 時,它覆蓋選擇 A — 工作流程在運行時直接從 URL 加載 LoRA
- 不需要本地下載或文件放置
提示:確認 URL 解析到實際 .safetensors 文件(不是登錄頁或重定向)。
步驟 2:將推論參數與您的訓練樣本設置匹配
在 LoRA 節點中,選擇您的適配器在 lora_path(選擇 A),或粘貼一個直接 .safetensors 鏈接到 path / url(選擇 B 覆蓋下拉菜單)。然後將 lora_scale 設置為您在訓練預覽中使用的相同強度,並從那裡調整。
其餘參數位於 Generate 節點(根據圖形,可能還有 Load Pipeline 節點):
prompt:您的文本提示(如果您訓練時使用了觸發詞,則包括它們)width/height:輸出分辨率;匹配您的訓練預覽大小以獲得最乾淨的比較(建議使用 LTX 2.3 的 32 的倍數)num_frames:輸出視頻幀數sample_steps:推論步驟數(30 是常見的默認值)guidance_scale:CFG/指導值(5.5 是常見的默認值;不要超過 7)seed:固定種子以重現;更改它以探索變化seed_mode(僅在存在時):選擇fixed或randomizeframe_rate:輸出 FPS;保持與訓練設置一致以進行運動對齊
訓練對齊提示:如果您在訓練期間自定義了採樣值(seed、guidance_scale、sample_steps、觸發詞、分辨率),在這裡鏡像那些確切的值。如果您在 RunComfy 上訓練,打開 Trainer → LoRA Assets > 配置以查看解析的 YAML 並將預覽/樣本設置複製到工作流程節點中。
步驟 3:運行 LTX 2.3 LoRA ComfyUI 推論
點擊 Queue/Run — SaveVideo 節點將結果寫入您的 ComfyUI 輸出文件夾。
快速檢查清單:
- ✓ LoRA 是:下載到
ComfyUI/models/loras(選擇 A),或通過直接.safetensorsURL 加載(選擇 B) - ✓ 本地下載後刷新頁面(僅選擇 A)
- ✓ 推論參數匹配訓練
sample配置(如果自定義)
如果上述所有內容都正確,這裡的推論結果應該與您的訓練預覽緊密匹配。
LTX 2.3 LoRA ComfyUI 推論故障排除
大多數 LTX 2.3 "訓練預覽與 ComfyUI 推論" 差距來自 管道級別的差異(模型的加載、調度和 LoRA 的合併方式),而不是單一錯誤的旋鈕。 這個 RunComfy 工作流程通過端到端運行 RC LTX 2.3 (LTX2Pipeline) 並在該管道內應用您的 LoRA 通過 lora_path / lora_scale(而不是堆疊通用加載器/採樣器節點),恢復了最接近的 "訓練匹配" 基線。
(1) LoRA 形狀不匹配或 "key not loaded" 警告
為什麼會發生 LoRA 是為不同的模型系列或不同的 LTX 變體訓練的。您將看到許多 lora key not loaded 行,並可能出現形狀不匹配錯誤。
如何修復(推薦)
- 確保 LoRA 是 專門為 LTX 2.3 與 AI Toolkit 訓練的(LTX 2.0 / 2.1 / 2.2 LoRAs 不可互換)。
- 保持圖形 "單一路徑" 用於 LoRA:僅通過工作流程的
lora_path輸入加載適配器,並讓 LTX2Pipeline 處理合併。不要在並行中堆疊額外的通用 LoRA 加載器。 - 如果您已經遇到不匹配,並且 ComfyUI 隨後開始產生不相關的 CUDA/OOM 錯誤,重啟 ComfyUI 進程以完全重置 GPU + 模型狀態,然後重試兼容的 LoRA。
(2) 推論結果不匹配訓練預覽
為什麼會發生 即使 LoRA 加載,結果仍然可能漂移,如果您的 ComfyUI 圖形不匹配訓練預覽管道(不同的默認值,不同的 LoRA 注入路徑,不同的調度)。
如何修復(推薦)
- 使用這個工作流程並將您的直接
.safetensors鏈接粘貼到lora_path。 - 從您的 AI Toolkit 訓練配置(或 RunComfy Trainer → LoRA Assets 配置)中複製採樣值:
width、height、num_frames、sample_steps、guidance_scale、seed、frame_rate。 - 除非您訓練/採樣時使用了 "額外速度堆疊",否則不要將它們納入比較。
(3) 使用 LoRAs 顯著增加推論時間
為什麼會發生 當 LoRA 路徑強制額外的補丁/去量化工作或在比基本模型慢的代碼路徑中應用權重時,LoRA 可能使 LTX 2.3 慢得多。
如何修復(推薦)
- 使用這個工作流程的 RC LTX 2.3 (LTX2Pipeline) 路徑,並通過
lora_path/lora_scale傳遞您的適配器。在這個設置中,LoRA 在 管道加載期間合併一次(AI Toolkit 風格),所以 每步採樣成本 接近基本模型。 - 當您追逐預覽匹配行為時,避免堆疊多個 LoRA 加載器或混合加載器路徑。保持為 一個
lora_path+ 一個lora_scale,直到基線匹配。
(4) 大分辨率或長視頻上的 OOM 錯誤
為什麼會發生 LTX 2.3 是一個 22B 參數模型,視頻生成對 VRAM 消耗很大。高分辨率或許多幀可能超出 GPU 記憶體,尤其是有 LoRA 開銷時。
如何修復(推薦)
- 使用 2X Large (80 GB VRAM) 或更大的機器。此工作流程不兼容於 Medium、Large 或 X Large 機器。
- 如果您需要快速迭代,減少分辨率或幀數,然後放大進行最終渲染。
- 如果可用,啟用 VAE 平鋪 — 它可以節省約 3 GB VRAM,質量損失最小。
現在運行 LTX 2.3 LoRA ComfyUI 推論
打開工作流程,設置 lora_path,並點擊 Queue/Run 以獲得與您的 AI Toolkit 訓練預覽接近的 LTX 2.3 LoRA 結果。




