ComfyUI>Workflows>LTX 2.3 LoRA Inferenz | AI Toolkit ComfyUI

LTX 2.3 LoRA Inferenz | AI Toolkit ComfyUI

Workflow Name: RunComfy/LTX-2.3-LoRA-ComfyUI-Inference
Workflow ID: 0000...1382
LTX 2.3 LoRA ComfyUI Inferenz ist ein einsatzbereiter RunComfy-Workflow zum Anwenden einer AI Toolkit-trainierten LoRA auf LTX 2.3 innerhalb von ComfyUI. Anstatt LTX 2.3 mit einem generischen Sampler-Graph neu zu erstellen, leitet es die Generierung durch LTX2Pipeline, einen modellspezifischen Wrapper, der an die AI Toolkit-Vorschau-Pipeline angepasst ist. Diese Pipeline-Ebene sorgt dafür, dass die LoRA-Injektion konsistent bleibt und die LTX 2.3-korrekten Standardeinstellungen für wiederholbare, trainingsabgestimmte Videoausgaben beibehalten werden. Laden Sie einen einzelnen Adapter von `ComfyUI/models/loras` (lokaler Download) oder einer direkten `.safetensors` URL, dann passen Sie `lora_scale` und Ihre Sampling-Werte an Ihre Trainingsproben an, wenn nötig. Ausgabenvideos werden über SaveVideo gespeichert, um einen einfachen Vergleich mit den Training-Previews zu ermöglichen.

LTX 2.3 LoRA ComfyUI Inference Workflow

LTX 2.3 LoRA ComfyUI Inference | RunComfy Workflow (Training-Matched Results)
Möchtest du diesen Workflow ausführen?
  • Voll funktionsfähige Workflows
  • Keine fehlenden Nodes oder Modelle
  • Keine manuelle Einrichtung erforderlich
  • Beeindruckende Visualisierungen

LTX 2.3 LoRA ComfyUI Inference Examples

LTX 2.3 LoRA ComfyUI Inferenz: trainingsabgestimmte AI Toolkit LoRA-Ausgabe mit der LTX 2.3-Pipeline#

Dieser produktionsbereite RunComfy-Workflow führt LTX 2.3 LoRA-Inferenz in ComfyUI durch RC LTX 2.3 (LTX2Pipeline) (Pipeline-Ebenenausrichtung, kein generischer Sampler-Graph) aus. RunComfy hat diesen benutzerdefinierten Knoten erstellt und als Open Source bereitgestellt – siehe die runcomfy-com Repositories – und Sie steuern die Adapteranwendung mit lora_path und lora_scale.

Hinweis: Dieser Workflow erfordert eine 2X Large oder größere Maschine zum Ausführen.

Warum LTX 2.3 LoRA ComfyUI Inferenz oft anders aussieht in ComfyUI#

AI Toolkit-Training-Previews werden durch eine modellspezifische LTX 2.3-Pipeline gerendert, bei der Textkodierung, Zeitplanung und LoRA-Injektion darauf ausgelegt sind, zusammenzuarbeiten. In ComfyUI kann der Neuaufbau von LTX 2.3 mit einem anderen Graph (oder einem anderen LoRA-Ladepfad) diese Interaktionen ändern, sodass das Kopieren derselben Eingabeaufforderung, Schritte, CFG und Seed immer noch sichtbare Abweichungen hervorruft. Die RunComfy RC-Pipeline-Knoten schließen diese Lücke, indem sie LTX 2.3 durchgehend in LTX2Pipeline ausführen und Ihre LoRA innerhalb dieser Pipeline anwenden, um die Inferenz mit dem Vorschauverhalten abzustimmen. Quelle: RunComfy Open-Source-Repositories.

So verwenden Sie den LTX 2.3 LoRA ComfyUI Inferenz-Workflow#

Schritt 1: Holen Sie sich den LoRA-Pfad und laden Sie ihn in den Workflow (2 Optionen)#

Option A — RunComfy-Trainingsergebnis → Download zu lokalem ComfyUI:

  1. Gehen Sie zu Trainer → LoRA Assets
  2. Finden Sie die LoRA, die Sie verwenden möchten
  3. Klicken Sie auf das ⋮ (Drei-Punkte) Menü rechts → wählen Sie LoRA-Link kopieren
  4. Auf der ComfyUI-Workflow-Seite fügen Sie den kopierten Link in das Download-Eingabefeld in der oberen rechten Ecke der Benutzeroberfläche ein
  5. Bevor Sie auf Download klicken, stellen Sie sicher, dass der Zielordner auf ComfyUI > models > loras gesetzt ist (dieser Ordner muss als Downloadziel ausgewählt sein)
  6. Klicken Sie auf Download — dies stellt sicher, dass die LoRA-Datei im richtigen models/loras Verzeichnis gespeichert wird
  7. Nachdem der Download abgeschlossen ist, aktualisieren Sie die Seite
  8. Die LoRA erscheint jetzt im LoRA-Auswahl-Dropdown im Workflow — wählen Sie sie aus

Option B — Direkte LoRA URL (überschreibt Option A):

  1. Fügen Sie die direkte .safetensors Download-URL in das path / url Eingabefeld des LoRA-Knotens ein
  2. Wenn hier eine URL angegeben wird, überschreibt sie Option A — der Workflow lädt die LoRA direkt von der URL zur Laufzeit
  3. Kein lokaler Download oder Dateiablage ist erforderlich

Tipp: Bestätigen Sie, dass die URL zur tatsächlichen .safetensors Datei auflöst (nicht zu einer Zielseite oder Umleitung).

Schritt 2: Abgleich der Inferenzparameter mit Ihren Trainingsmuster-Einstellungen#

Im LoRA-Knoten wählen Sie Ihren Adapter in lora_path (Option A), oder fügen Sie einen direkten .safetensors Link in path / url ein (Option B überschreibt das Dropdown). Dann setzen Sie lora_scale auf die gleiche Stärke, die Sie während der Trainings-Previews verwendet haben, und passen Sie von dort an.

Die verbleibenden Parameter befinden sich auf dem Generieren-Knoten (und je nach Graph auf dem Pipeline Laden-Knoten):

  • prompt: Ihre Texteingabeaufforderung (einschließlich Triggerwörter, wenn Sie damit trainiert haben)
  • width / height: Ausgabeauflösung; passen Sie die Größe Ihrer Trainingsvorschau für den saubersten Vergleich an (Vielfache von 32 werden für LTX 2.3 empfohlen)
  • num_frames: Anzahl der Ausgabevideoframes
  • sample_steps: Anzahl der Inferenzschritte (30 ist ein häufiger Standard)
  • guidance_scale: CFG/Leitwert (5.5 ist ein häufiger Standard; nicht über 7 hinausgehen)
  • seed: fester Seed zur Reproduktion; ändern Sie ihn, um Variationen zu erkunden
  • seed_mode (nur wenn vorhanden): wählen Sie fixed oder randomize
  • frame_rate: Ausgabe-FPS; bleiben Sie konsistent mit den Trainingseinstellungen für Bewegungsabgleich

Trainingstipp: Wenn Sie während des Trainings Sampling-Werte angepasst haben (seed, guidance_scale, sample_steps, Triggerwörter, Auflösung), spiegeln Sie diese genauen Werte hier wider. Wenn Sie auf RunComfy trainiert haben, öffnen Sie Trainer → LoRA Assets > Konfiguration, um das aufgelöste YAML anzuzeigen und Vorschau-/Muster-Einstellungen in die Workflow-Knoten zu kopieren.

Schritt 3: Führen Sie die LTX 2.3 LoRA ComfyUI Inferenz aus#

Klicken Sie auf Warteschlange/Ausführen — der SaveVideo Knoten schreibt Ergebnisse in Ihr ComfyUI-Ausgabeverzeichnis.

Schnell-Checkliste:

  • ✓ LoRA ist entweder: heruntergeladen in ComfyUI/models/loras (Option A), oder geladen über eine direkte .safetensors URL (Option B)
  • ✓ Seite nach lokalem Download aktualisiert (nur Option A)
  • ✓ Inferenzparameter stimmen mit der Trainings-sample-Konfiguration überein (falls angepasst)

Wenn alles oben korrekt ist, sollten die Inferenz-Ergebnisse hier eng mit Ihren Trainings-Previews übereinstimmen.

Fehlerbehebung bei LTX 2.3 LoRA ComfyUI Inferenz#

Die meisten LTX 2.3 "Training Preview vs ComfyUI Inference"-Lücken entstehen durch Pipeline-Ebenenunterschiede (wie das Modell geladen, geplant und wie die LoRA integriert wird), nicht durch einen einzigen falschen Knopf. Dieser RunComfy-Workflow stellt die nächstgelegene "training-abgestimmte" Basislinie wieder her, indem die Inferenz durch RC LTX 2.3 (LTX2Pipeline) von Anfang bis Ende ausgeführt wird und Ihre LoRA innerhalb dieser Pipeline über lora_path / lora_scale angewendet wird (anstatt generische Loader/Sampler-Knoten zu stapeln).

(1) LoRA-Formfehlanpassungen oder "Key nicht geladen"-Warnungen#

Warum das passiert Die LoRA wurde für eine andere Modellfamilie oder eine andere LTX-Variante trainiert. Sie werden viele lora key not loaded Zeilen und möglicherweise Formfehlanpassungsfehler sehen.

Wie man es behebt (empfohlen)

  • Stellen Sie sicher, dass die LoRA spezifisch für LTX 2.3 mit AI Toolkit trainiert wurde (LTX 2.0 / 2.1 / 2.2 LoRAs sind nicht austauschbar).
  • Halten Sie den Graph "Einweg" für LoRA: Laden Sie den Adapter nur über den lora_path-Eingang des Workflows und lassen Sie LTX2Pipeline die Integration übernehmen. Stapeln Sie keinen zusätzlichen generischen LoRA-Loader parallel.
  • Wenn Sie bereits auf eine Fehlanpassung gestoßen sind und ComfyUI danach beginnt, nicht verwandte CUDA/OOM-Fehler zu erzeugen, starten Sie den ComfyUI-Prozess neu, um den GPU + Modellzustand vollständig zurückzusetzen, und versuchen Sie es dann erneut mit einer kompatiblen LoRA.

(2) Inferenz-Ergebnisse stimmen nicht mit den Trainings-Previews überein#

Warum das passiert Selbst wenn die LoRA geladen wird, können die Ergebnisse immer noch abweichen, wenn Ihr ComfyUI-Graph nicht mit der Trainingsvorschau-Pipeline übereinstimmt (unterschiedliche Standards, unterschiedliche LoRA-Injektionspfade, unterschiedliche Zeitplanung).

Wie man es behebt (empfohlen)

  • Verwenden Sie diesen Workflow und fügen Sie Ihren direkten .safetensors Link in lora_path ein.
  • Kopieren Sie die Sampling-Werte aus Ihrer AI Toolkit-Training-Konfiguration (oder RunComfy Trainer → LoRA Assets Konfiguration): width, height, num_frames, sample_steps, guidance_scale, seed, frame_rate.
  • Halten Sie "extra Geschwindigkeitstapel" aus dem Vergleich heraus, es sei denn, Sie haben mit ihnen trainiert/gesampelt.

(3) Die Verwendung von LoRAs erhöht die Inferenzzeit erheblich#

Warum das passiert Eine LoRA kann LTX 2.3 erheblich verlangsamen, wenn der LoRA-Pfad zusätzliche Patching-/Dequantisierungsarbeit erzwingt oder Gewichte in einem langsameren Codepfad als das Basismodell alleine anwendet.

Wie man es behebt (empfohlen)

  • Verwenden Sie den RC LTX 2.3 (LTX2Pipeline) Pfad dieses Workflows und übergeben Sie Ihren Adapter über lora_path / lora_scale. In dieser Konfiguration wird die LoRA einmal während des Pipeline-Ladevorgangs integriert (AI Toolkit-Stil), sodass die pro-Schritt-Sampling-Kosten nahe am Basismodell bleiben.
  • Wenn Sie ein verhaltensabgestimmtes Verhalten verfolgen, vermeiden Sie es, mehrere LoRA-Loader zu stapeln oder Ladepfade zu mischen. Halten Sie es bei einem lora_path + einem lora_scale, bis die Basislinie übereinstimmt.

(4) OOM-Fehler bei großen Auflösungen oder langen Videos#

Warum das passiert LTX 2.3 ist ein 22B-Parameter-Modell und die Videogenerierung ist VRAM-intensiv. Hohe Auflösungen oder viele Frames können den GPU-Speicher überschreiten, insbesondere mit LoRA-Overhead.

Wie man es behebt (empfohlen)

  • Verwenden Sie eine 2X Large (80 GB VRAM) oder größere Maschine. Dieser Workflow ist nicht kompatibel mit Medium, Large oder X Large Maschinen.
  • Reduzieren Sie die Auflösung oder die Frameanzahl, wenn Sie schnell iterieren müssen, und skalieren Sie dann für endgültige Renderings.
  • Aktivieren Sie VAE-Tiling, wenn verfügbar — es kann ~3 GB VRAM mit minimalem Qualitätsverlust sparen.

Führen Sie jetzt die LTX 2.3 LoRA ComfyUI Inferenz aus#

Öffnen Sie den Workflow, setzen Sie lora_path und klicken Sie auf Warteschlange/Ausführen, um LTX 2.3 LoRA-Ergebnisse zu erhalten, die nahe an Ihren AI Toolkit-Training-Previews bleiben.

RunComfy
Urheberrecht 2026 RunComfy. Alle Rechte vorbehalten.

RunComfy ist die führende ComfyUI Plattform, die ComfyUI online Umgebung und Services bietet, zusammen mit ComfyUI Workflows mit atemberaubenden Visualisierungen. RunComfy bietet auch AI Models, Künstlern ermöglichen, die neuesten AI-Tools zu nutzen, um unglaubliche Kunst zu schaffen.