logo
RunComfy
  • ComfyUI
  • TrainerNew
  • Models
  • API
  • Pricing
discord logo
ComfyUI>Workflows>LTX 2.3 LoRA Inferenz | AI Toolkit ComfyUI

LTX 2.3 LoRA Inferenz | AI Toolkit ComfyUI

Workflow Name: RunComfy/LTX-2.3-LoRA-ComfyUI-Inference
Workflow ID: 0000...1382
LTX 2.3 LoRA ComfyUI Inferenz ist ein einsatzbereites RunComfy-Workflow zur Anwendung eines AI Toolkit-geschulten LoRA auf LTX 2.3 innerhalb von ComfyUI. Anstatt LTX 2.3 mit einem generischen Sampler-Graphen neu aufzubauen, leitet es die Generierung durch LTX2Pipeline, einen modellspezifischen Wrapper, der an die AI Toolkit-Vorschau-Pipeline angepasst ist. Diese Pipeline-Level-Ausrichtung hält die LoRA-Injektion konsistent und bewahrt LTX 2.3-korrekte Standardeinstellungen für wiederholbare, training-abgestimmte Videoausgaben. Laden Sie einen einzelnen Adapter von `ComfyUI/models/loras` (lokaler Download) oder einer direkten `.safetensors` URL, dann passen Sie `lora_scale` und Ihre Sampling-Werte bei Bedarf an Ihre Trainingsbeispiele an. Ausgabenvideos werden über SaveVideo gespeichert, um einen einfachen Vergleich mit den Training-Vorschauen zu ermöglichen.

LTX 2.3 LoRA ComfyUI Inferenz: training-abgestimmte AI Toolkit LoRA Ausgabe mit der LTX 2.3 Pipeline

Dieser produktionsbereite RunComfy-Workflow führt LTX 2.3 LoRA Inferenz in ComfyUI durch RC LTX 2.3 (LTX2Pipeline) aus (Pipeline-Level-Ausrichtung, kein generischer Sampler-Graph). RunComfy hat diesen benutzerdefinierten Knoten erstellt und quelloffen gemacht — siehe die runcomfy-com Repositories — und Sie steuern die Adapteranwendung mit lora_path und lora_scale.

Hinweis: Dieser Workflow erfordert eine 2X Large oder größere Maschine zum Ausführen.

Warum LTX 2.3 LoRA ComfyUI Inferenz in ComfyUI oft anders aussieht

AI Toolkit-Training-Vorschauen werden durch eine modellspezifische LTX 2.3 Pipeline gerendert, bei der Textcodierung, Planung und LoRA-Injektion zusammenarbeiten. In ComfyUI kann der Neuaufbau von LTX 2.3 mit einem anderen Graphen (oder einem anderen LoRA-Laderpfad) diese Interaktionen ändern, sodass das Kopieren desselben Prompts, derselben Schritte, CFG und Seed immer noch sichtbare Abweichungen erzeugt. Die RunComfy RC Pipeline-Knoten schließen diese Lücke, indem sie LTX 2.3 von Anfang bis Ende in LTX2Pipeline ausführen und Ihre LoRA innerhalb dieser Pipeline anwenden, um die Inferenz mit dem Vorschauverhalten abzustimmen. Quelle: RunComfy Open-Source-Repositories.

Wie man den LTX 2.3 LoRA ComfyUI Inferenz-Workflow benutzt

Schritt 1: Holen Sie sich den LoRA-Pfad und laden Sie ihn in den Workflow (2 Optionen)

Option A — RunComfy-Trainingsergebnis → Download auf lokales ComfyUI:

  1. Gehen Sie zu Trainer → LoRA Assets
  2. Finden Sie das LoRA, das Sie verwenden möchten
  3. Klicken Sie auf das ⋮ (Drei-Punkt) Menü rechts → wählen Sie LoRA-Link kopieren
  4. Auf der ComfyUI-Workflow-Seite fügen Sie den kopierten Link in das Download-Eingabefeld in der oberen rechten Ecke der Benutzeroberfläche ein
  5. Bevor Sie auf Download klicken, stellen Sie sicher, dass der Zielordner auf ComfyUI > models > loras eingestellt ist (dieser Ordner muss als Download-Ziel ausgewählt sein)
  6. Klicken Sie auf Download — dies stellt sicher, dass die LoRA-Datei in das richtige models/loras-Verzeichnis gespeichert wird
  7. Nachdem der Download abgeschlossen ist, aktualisieren Sie die Seite
  8. Die LoRA erscheint jetzt im LoRA-Auswahl-Dropdown im Workflow — wählen Sie es aus

Option B — Direkte LoRA-URL (überschreibt Option A):

  1. Fügen Sie die direkte .safetensors Download-URL in das path / url Eingabefeld des LoRA-Knotens ein
  2. Wenn hier eine URL angegeben wird, überschreibt sie Option A — der Workflow lädt die LoRA direkt von der URL zur Laufzeit
  3. Kein lokaler Download oder Dateiablage erforderlich

Tipp: Bestätigen Sie, dass die URL zur tatsächlichen .safetensors Datei führt (nicht zu einer Zielseite oder Umleitung).

Schritt 2: Passen Sie die Inferenzparameter an Ihre Trainingseinstellung an

Im LoRA-Knoten wählen Sie Ihren Adapter in lora_path (Option A), oder fügen Sie einen direkten .safetensors Link in path / url ein (Option B überschreibt das Dropdown). Dann setzen Sie lora_scale auf die gleiche Stärke, die Sie während der Training-Vorschauen verwendet haben, und passen von dort an.

Verbleibende Parameter befinden sich auf dem Generate-Knoten (und, abhängig vom Graphen, dem Load Pipeline-Knoten):

  • prompt: Ihr Text-Prompt (einschließlich Triggerwörter, wenn Sie damit trainiert haben)
  • width / height: Ausgabeauflösung; stimmen Sie die Größe Ihrer Training-Vorschau für den saubersten Vergleich ab (Vielfache von 32 werden für LTX 2.3 empfohlen)
  • num_frames: Anzahl der Ausgabevideobilder
  • sample_steps: Anzahl der Inferenzschritte (30 ist ein häufig verwendeter Standard)
  • guidance_scale: CFG/Anleitungswert (5.5 ist ein häufiger Standard; nicht über 7 gehen)
  • seed: Fester Seed zur Reproduktion; ändern Sie es, um Variationen zu erkunden
  • seed_mode (nur wenn vorhanden): Wählen Sie fixed oder randomize
  • frame_rate: Ausgabe-FPS; halten Sie es konsistent mit den Trainingseinstellungen für Bewegungsabstimmung

Training-Abstimmungstipp: Wenn Sie während des Trainings Sampling-Werte angepasst haben (seed, guidance_scale, sample_steps, Triggerwörter, Auflösung), spiegeln Sie diese genauen Werte hier wider. Wenn Sie auf RunComfy trainiert haben, öffnen Sie Trainer → LoRA Assets > Config, um die aufgelöste YAML anzuzeigen und Vorschau-/Sampling-Einstellungen in die Workflow-Knoten zu kopieren.

Schritt 3: Führen Sie LTX 2.3 LoRA ComfyUI Inferenz aus

Klicken Sie auf Queue/Run — der SaveVideo-Knoten schreibt die Ergebnisse in Ihren ComfyUI-Ausgabeordner.

Schnell-Checkliste:

  • ✓ LoRA ist entweder: heruntergeladen in ComfyUI/models/loras (Option A), oder geladen über eine direkte .safetensors URL (Option B)
  • ✓ Seite nach lokalem Download aktualisiert (nur Option A)
  • ✓ Inferenzparameter stimmen mit der sample-Konfiguration des Trainings überein (wenn angepasst)

Wenn alles oben genannte korrekt ist, sollten die Inferenz-Ergebnisse hier eng mit Ihren Training-Vorschauen übereinstimmen.

Fehlerbehebung bei LTX 2.3 LoRA ComfyUI Inferenz

Die meisten LTX 2.3 "Training-Vorschau vs ComfyUI Inferenz"-Lücken resultieren aus Pipeline-Level-Unterschieden (wie das Modell geladen wird, wie es geplant wird und wie das LoRA eingefügt wird), nicht aus einem einzigen falschen Knopf. Dieser RunComfy-Workflow stellt die engste "training-abgestimmte" Basis wieder her, indem er die Inferenz durch RC LTX 2.3 (LTX2Pipeline) von Anfang bis Ende ausführt und Ihr LoRA innerhalb dieser Pipeline über lora_path / lora_scale anwendet (anstatt generische Lader/Sampler-Knoten in Reihe zu schalten).

(1) LoRA-Formunterschiede oder "key not loaded"-Warnungen

Warum das passiert Das LoRA wurde für eine andere Modelfamilie oder eine andere LTX-Variante trainiert. Sie sehen viele lora key not loaded-Zeilen und möglicherweise Formunterschiedsfehler.

Wie man es behebt (empfohlen)

  • Stellen Sie sicher, dass das LoRA speziell für LTX 2.3 mit AI Toolkit trainiert wurde (LTX 2.0 / 2.1 / 2.2 LoRAs sind nicht austauschbar).
  • Halten Sie den Graphen "einzelpfadig" für LoRA: Laden Sie den Adapter nur über den lora_path-Eingang des Workflows und lassen Sie LTX2Pipeline die Zusammenführung übernehmen. Stapeln Sie keinen zusätzlichen generischen LoRA-Lader parallel.
  • Wenn Sie bereits auf einen Unterschied gestoßen sind und ComfyUI danach nicht zusammenhängende CUDA/OOM-Fehler produziert, starten Sie den ComfyUI-Prozess neu, um den GPU- + Modellzustand vollständig zurückzusetzen, und versuchen Sie es dann mit einem kompatiblen LoRA erneut.

(2) Inferenz-Ergebnisse stimmen nicht mit den Training-Vorschauen überein

Warum das passiert Selbst wenn das LoRA geladen wird, können die Ergebnisse immer noch abweichen, wenn Ihr ComfyUI-Graph nicht mit der Training-Vorschau-Pipeline übereinstimmt (andere Standardeinstellungen, anderer LoRA-Injektionspfad, andere Planung).

Wie man es behebt (empfohlen)

  • Verwenden Sie diesen Workflow und fügen Sie Ihren direkten .safetensors Link in lora_path ein.
  • Kopieren Sie die Sampling-Werte aus Ihrer AI Toolkit-Training-Konfiguration (oder RunComfy Trainer → LoRA Assets Config): width, height, num_frames, sample_steps, guidance_scale, seed, frame_rate.
  • Halten Sie "extra Geschwindigkeitstapel" aus dem Vergleich heraus, es sei denn, Sie haben mit ihnen trainiert/gesampelt.

(3) Die Verwendung von LoRAs erhöht die Inferenzzeit erheblich

Warum das passiert Ein LoRA kann LTX 2.3 erheblich verlangsamen, wenn der LoRA-Pfad zusätzliche Patching/Dequantisierungsarbeit erzwingt oder Gewichte in einem langsameren Codepfad als das Basismodell allein angewendet werden.

Wie man es behebt (empfohlen)

  • Verwenden Sie den RC LTX 2.3 (LTX2Pipeline)-Pfad dieses Workflows und übergeben Sie Ihren Adapter über lora_path / lora_scale. In dieser Einrichtung wird das LoRA einmal während des Pipeline-Ladevorgangs zusammengeführt (AI Toolkit-Stil), sodass die pro-Schritt-Sampling-Kosten nahe dem Basismodell bleiben.
  • Wenn Sie ein Vorschau-abgestimmtes Verhalten verfolgen, vermeiden Sie es, mehrere LoRA-Lader zu stapeln oder Laderpfade zu mischen. Halten Sie es bei einem lora_path + einem lora_scale, bis die Basis übereinstimmt.

(4) OOM-Fehler bei großen Auflösungen oder langen Videos

Warum das passiert LTX 2.3 ist ein 22B-Parameter-Modell und die Videogenerierung ist VRAM-intensiv. Hohe Auflösungen oder viele Bilder können den GPU-Speicher überschreiten, insbesondere mit LoRA-Overhead.

Wie man es behebt (empfohlen)

  • Verwenden Sie eine 2X Large (80 GB VRAM) oder größere Maschine. Dieser Workflow ist nicht kompatibel mit Medium, Large oder X Large Maschinen.
  • Reduzieren Sie die Auflösung oder die Bildanzahl, wenn Sie schnell iterieren müssen, und skalieren Sie dann für endgültige Renderings hoch.
  • Aktivieren Sie VAE-Tiling, wenn verfügbar — es kann ~3 GB VRAM mit minimalem Qualitätsverlust sparen.

Führen Sie jetzt LTX 2.3 LoRA ComfyUI Inferenz aus

Öffnen Sie den Workflow, setzen Sie lora_path, und klicken Sie auf Queue/Run, um LTX 2.3 LoRA-Ergebnisse zu erhalten, die nahe an Ihren AI Toolkit-Training-Vorschauen bleiben.

Want More ComfyUI Workflows?

Flux Kontext 360 Grad LoRA

Erzeugen Sie immersive 360-Grad-Bilder mit Tiefen- und Raumkontrolle.

InstantCharacter

Ein Foto, endlose Charaktere. Perfekte Identitätsbewahrung.

FLUX LoRA (RealismLoRA) | Fotorealistische Bilder

FLUX LoRA (RealismLoRA) | Fotorealistische Bilder

Kombinieren Sie das FLUX-1-Modell mit FLUX-RealismLoRA für fotorealistische KI-Bilder

CCSR | Konsistenter Bild-/Video-Upscaler

Das CCSR-Modell verbessert das Upscaling von Bildern und Videos durch stärkere Fokussierung auf Inhaltsbeständigkeit.

ComfyUI Vid2Vid Dance Transfer

Überträgt die Bewegung und den Stil von einem Quellvideo auf ein Zielbild oder Objekt.

ACE++ Charakterkonsistenz

Erzeugen Sie konsistente Bilder Ihres Charakters über Posen, Winkel und Stile hinweg aus einem einzigen Foto.

FlashVSR | Echtzeit-Video-Hochskalierer

Videos schnell, flüssig und super klar hochskalieren—ohne Detailverlust.

Qwen Edit 2509 Lichtrestaurierung | Foto Relight Tool

Beheben Sie schlechte Beleuchtung schnell für perfekte, saubere, ausgeglichene Fotos jedes Mal.

Folge uns
  • LinkedIn
  • Facebook
  • Instagram
  • Twitter
Support
  • Discord
  • E-Mail
  • Systemstatus
  • Partner
Ressourcen
  • Kostenloses ComfyUI Online
  • ComfyUI Anleitungen
  • RunComfy API
  • ComfyUI Tutorials
  • ComfyUI Nodes
  • Erfahre mehr
Rechtliches
  • Nutzungsbedingungen
  • Datenschutzrichtlinie
  • Cookie-Richtlinie
RunComfy
Urheberrecht 2026 RunComfy. Alle Rechte vorbehalten.

RunComfy ist die führende ComfyUI Plattform, die ComfyUI online Umgebung und Services bietet, zusammen mit ComfyUI Workflows mit atemberaubenden Visualisierungen. RunComfy bietet auch AI Models, Künstlern ermöglichen, die neuesten AI-Tools zu nutzen, um unglaubliche Kunst zu schaffen.