LTX 2.3 LoRA ComfyUI Inferenz: training-abgestimmte AI Toolkit LoRA Ausgabe mit der LTX 2.3 Pipeline
Dieser produktionsbereite RunComfy-Workflow führt LTX 2.3 LoRA Inferenz in ComfyUI durch RC LTX 2.3 (LTX2Pipeline) aus (Pipeline-Level-Ausrichtung, kein generischer Sampler-Graph). RunComfy hat diesen benutzerdefinierten Knoten erstellt und quelloffen gemacht — siehe die runcomfy-com Repositories — und Sie steuern die Adapteranwendung mit lora_path und lora_scale.
Hinweis: Dieser Workflow erfordert eine 2X Large oder größere Maschine zum Ausführen.
Warum LTX 2.3 LoRA ComfyUI Inferenz in ComfyUI oft anders aussieht
AI Toolkit-Training-Vorschauen werden durch eine modellspezifische LTX 2.3 Pipeline gerendert, bei der Textcodierung, Planung und LoRA-Injektion zusammenarbeiten. In ComfyUI kann der Neuaufbau von LTX 2.3 mit einem anderen Graphen (oder einem anderen LoRA-Laderpfad) diese Interaktionen ändern, sodass das Kopieren desselben Prompts, derselben Schritte, CFG und Seed immer noch sichtbare Abweichungen erzeugt. Die RunComfy RC Pipeline-Knoten schließen diese Lücke, indem sie LTX 2.3 von Anfang bis Ende in LTX2Pipeline ausführen und Ihre LoRA innerhalb dieser Pipeline anwenden, um die Inferenz mit dem Vorschauverhalten abzustimmen. Quelle: RunComfy Open-Source-Repositories.
Wie man den LTX 2.3 LoRA ComfyUI Inferenz-Workflow benutzt
Schritt 1: Holen Sie sich den LoRA-Pfad und laden Sie ihn in den Workflow (2 Optionen)
Option A — RunComfy-Trainingsergebnis → Download auf lokales ComfyUI:
- Gehen Sie zu Trainer → LoRA Assets
- Finden Sie das LoRA, das Sie verwenden möchten
- Klicken Sie auf das ⋮ (Drei-Punkt) Menü rechts → wählen Sie LoRA-Link kopieren
- Auf der ComfyUI-Workflow-Seite fügen Sie den kopierten Link in das Download-Eingabefeld in der oberen rechten Ecke der Benutzeroberfläche ein
- Bevor Sie auf Download klicken, stellen Sie sicher, dass der Zielordner auf ComfyUI > models > loras eingestellt ist (dieser Ordner muss als Download-Ziel ausgewählt sein)
- Klicken Sie auf Download — dies stellt sicher, dass die LoRA-Datei in das richtige
models/loras-Verzeichnis gespeichert wird - Nachdem der Download abgeschlossen ist, aktualisieren Sie die Seite
- Die LoRA erscheint jetzt im LoRA-Auswahl-Dropdown im Workflow — wählen Sie es aus
Option B — Direkte LoRA-URL (überschreibt Option A):
- Fügen Sie die direkte
.safetensorsDownload-URL in daspath / urlEingabefeld des LoRA-Knotens ein - Wenn hier eine URL angegeben wird, überschreibt sie Option A — der Workflow lädt die LoRA direkt von der URL zur Laufzeit
- Kein lokaler Download oder Dateiablage erforderlich
Tipp: Bestätigen Sie, dass die URL zur tatsächlichen .safetensors Datei führt (nicht zu einer Zielseite oder Umleitung).
Schritt 2: Passen Sie die Inferenzparameter an Ihre Trainingseinstellung an
Im LoRA-Knoten wählen Sie Ihren Adapter in lora_path (Option A), oder fügen Sie einen direkten .safetensors Link in path / url ein (Option B überschreibt das Dropdown). Dann setzen Sie lora_scale auf die gleiche Stärke, die Sie während der Training-Vorschauen verwendet haben, und passen von dort an.
Verbleibende Parameter befinden sich auf dem Generate-Knoten (und, abhängig vom Graphen, dem Load Pipeline-Knoten):
prompt: Ihr Text-Prompt (einschließlich Triggerwörter, wenn Sie damit trainiert haben)width/height: Ausgabeauflösung; stimmen Sie die Größe Ihrer Training-Vorschau für den saubersten Vergleich ab (Vielfache von 32 werden für LTX 2.3 empfohlen)num_frames: Anzahl der Ausgabevideobildersample_steps: Anzahl der Inferenzschritte (30 ist ein häufig verwendeter Standard)guidance_scale: CFG/Anleitungswert (5.5 ist ein häufiger Standard; nicht über 7 gehen)seed: Fester Seed zur Reproduktion; ändern Sie es, um Variationen zu erkundenseed_mode(nur wenn vorhanden): Wählen Siefixedoderrandomizeframe_rate: Ausgabe-FPS; halten Sie es konsistent mit den Trainingseinstellungen für Bewegungsabstimmung
Training-Abstimmungstipp: Wenn Sie während des Trainings Sampling-Werte angepasst haben (seed, guidance_scale, sample_steps, Triggerwörter, Auflösung), spiegeln Sie diese genauen Werte hier wider. Wenn Sie auf RunComfy trainiert haben, öffnen Sie Trainer → LoRA Assets > Config, um die aufgelöste YAML anzuzeigen und Vorschau-/Sampling-Einstellungen in die Workflow-Knoten zu kopieren.
Schritt 3: Führen Sie LTX 2.3 LoRA ComfyUI Inferenz aus
Klicken Sie auf Queue/Run — der SaveVideo-Knoten schreibt die Ergebnisse in Ihren ComfyUI-Ausgabeordner.
Schnell-Checkliste:
- ✓ LoRA ist entweder: heruntergeladen in
ComfyUI/models/loras(Option A), oder geladen über eine direkte.safetensorsURL (Option B) - ✓ Seite nach lokalem Download aktualisiert (nur Option A)
- ✓ Inferenzparameter stimmen mit der
sample-Konfiguration des Trainings überein (wenn angepasst)
Wenn alles oben genannte korrekt ist, sollten die Inferenz-Ergebnisse hier eng mit Ihren Training-Vorschauen übereinstimmen.
Fehlerbehebung bei LTX 2.3 LoRA ComfyUI Inferenz
Die meisten LTX 2.3 "Training-Vorschau vs ComfyUI Inferenz"-Lücken resultieren aus Pipeline-Level-Unterschieden (wie das Modell geladen wird, wie es geplant wird und wie das LoRA eingefügt wird), nicht aus einem einzigen falschen Knopf. Dieser RunComfy-Workflow stellt die engste "training-abgestimmte" Basis wieder her, indem er die Inferenz durch RC LTX 2.3 (LTX2Pipeline) von Anfang bis Ende ausführt und Ihr LoRA innerhalb dieser Pipeline über lora_path / lora_scale anwendet (anstatt generische Lader/Sampler-Knoten in Reihe zu schalten).
(1) LoRA-Formunterschiede oder "key not loaded"-Warnungen
Warum das passiert Das LoRA wurde für eine andere Modelfamilie oder eine andere LTX-Variante trainiert. Sie sehen viele lora key not loaded-Zeilen und möglicherweise Formunterschiedsfehler.
Wie man es behebt (empfohlen)
- Stellen Sie sicher, dass das LoRA speziell für LTX 2.3 mit AI Toolkit trainiert wurde (LTX 2.0 / 2.1 / 2.2 LoRAs sind nicht austauschbar).
- Halten Sie den Graphen "einzelpfadig" für LoRA: Laden Sie den Adapter nur über den
lora_path-Eingang des Workflows und lassen Sie LTX2Pipeline die Zusammenführung übernehmen. Stapeln Sie keinen zusätzlichen generischen LoRA-Lader parallel. - Wenn Sie bereits auf einen Unterschied gestoßen sind und ComfyUI danach nicht zusammenhängende CUDA/OOM-Fehler produziert, starten Sie den ComfyUI-Prozess neu, um den GPU- + Modellzustand vollständig zurückzusetzen, und versuchen Sie es dann mit einem kompatiblen LoRA erneut.
(2) Inferenz-Ergebnisse stimmen nicht mit den Training-Vorschauen überein
Warum das passiert Selbst wenn das LoRA geladen wird, können die Ergebnisse immer noch abweichen, wenn Ihr ComfyUI-Graph nicht mit der Training-Vorschau-Pipeline übereinstimmt (andere Standardeinstellungen, anderer LoRA-Injektionspfad, andere Planung).
Wie man es behebt (empfohlen)
- Verwenden Sie diesen Workflow und fügen Sie Ihren direkten
.safetensorsLink inlora_pathein. - Kopieren Sie die Sampling-Werte aus Ihrer AI Toolkit-Training-Konfiguration (oder RunComfy Trainer → LoRA Assets Config):
width,height,num_frames,sample_steps,guidance_scale,seed,frame_rate. - Halten Sie "extra Geschwindigkeitstapel" aus dem Vergleich heraus, es sei denn, Sie haben mit ihnen trainiert/gesampelt.
(3) Die Verwendung von LoRAs erhöht die Inferenzzeit erheblich
Warum das passiert Ein LoRA kann LTX 2.3 erheblich verlangsamen, wenn der LoRA-Pfad zusätzliche Patching/Dequantisierungsarbeit erzwingt oder Gewichte in einem langsameren Codepfad als das Basismodell allein angewendet werden.
Wie man es behebt (empfohlen)
- Verwenden Sie den RC LTX 2.3 (LTX2Pipeline)-Pfad dieses Workflows und übergeben Sie Ihren Adapter über
lora_path/lora_scale. In dieser Einrichtung wird das LoRA einmal während des Pipeline-Ladevorgangs zusammengeführt (AI Toolkit-Stil), sodass die pro-Schritt-Sampling-Kosten nahe dem Basismodell bleiben. - Wenn Sie ein Vorschau-abgestimmtes Verhalten verfolgen, vermeiden Sie es, mehrere LoRA-Lader zu stapeln oder Laderpfade zu mischen. Halten Sie es bei einem
lora_path+ einemlora_scale, bis die Basis übereinstimmt.
(4) OOM-Fehler bei großen Auflösungen oder langen Videos
Warum das passiert LTX 2.3 ist ein 22B-Parameter-Modell und die Videogenerierung ist VRAM-intensiv. Hohe Auflösungen oder viele Bilder können den GPU-Speicher überschreiten, insbesondere mit LoRA-Overhead.
Wie man es behebt (empfohlen)
- Verwenden Sie eine 2X Large (80 GB VRAM) oder größere Maschine. Dieser Workflow ist nicht kompatibel mit Medium, Large oder X Large Maschinen.
- Reduzieren Sie die Auflösung oder die Bildanzahl, wenn Sie schnell iterieren müssen, und skalieren Sie dann für endgültige Renderings hoch.
- Aktivieren Sie VAE-Tiling, wenn verfügbar — es kann ~3 GB VRAM mit minimalem Qualitätsverlust sparen.
Führen Sie jetzt LTX 2.3 LoRA ComfyUI Inferenz aus
Öffnen Sie den Workflow, setzen Sie lora_path, und klicken Sie auf Queue/Run, um LTX 2.3 LoRA-Ergebnisse zu erhalten, die nahe an Ihren AI Toolkit-Training-Vorschauen bleiben.

