logo
RunComfy
  • ComfyUI
  • TrainerNuovo
  • Modelli
  • API
  • Prezzi
discord logo
ComfyUI>Workflow>LTX 2.3 LoRA Inferenza | AI Toolkit ComfyUI

LTX 2.3 LoRA Inferenza | AI Toolkit ComfyUI

Workflow Name: RunComfy/LTX-2.3-LoRA-ComfyUI-Inference
Workflow ID: 0000...1382
LTX 2.3 LoRA ComfyUI Inferenza è un workflow RunComfy pronto all'uso per applicare un LoRA addestrato con AI Toolkit a LTX 2.3 all'interno di ComfyUI. Invece di ricostruire LTX 2.3 con un grafo di campionamento generico, instrada la generazione attraverso LTX2Pipeline, un wrapper specifico del modello allineato al pipeline di anteprima di AI Toolkit. Questo allineamento a livello di pipeline mantiene l'iniezione di LoRA coerente e preserva i valori predefiniti corretti di LTX 2.3 per output video ripetibili e corrispondenti all'addestramento. Carica un singolo adattatore da `ComfyUI/models/loras` (download locale) o un URL diretto `.safetensors`, quindi abbina i valori `lora_scale` e di campionamento ai tuoi campioni di addestramento quando necessario. I video di output vengono salvati tramite SaveVideo per un facile confronto fianco a fianco con le anteprime di addestramento.

LTX 2.3 LoRA ComfyUI Inferenza: output LoRA di AI Toolkit corrispondente all'addestramento con il pipeline LTX 2.3

Questo workflow RunComfy pronto per la produzione esegue l'inferenza LTX 2.3 LoRA in ComfyUI attraverso RC LTX 2.3 (LTX2Pipeline) (allineamento a livello di pipeline, non un grafo di campionamento generico). RunComfy ha costruito e reso open-source questo nodo personalizzato—vedi i repository runcomfy-com—e tu controlli l'applicazione dell'adattatore con lora_path e lora_scale.

Nota: Questo workflow richiede una macchina 2X Large o più grande per funzionare.

Perché l'inferenza LTX 2.3 LoRA ComfyUI spesso appare diversa in ComfyUI

Le anteprime di addestramento di AI Toolkit sono renderizzate attraverso un pipeline LTX 2.3 specifico del modello, dove la codifica del testo, la pianificazione e l'iniezione di LoRA sono progettate per lavorare insieme. In ComfyUI, ricostruire LTX 2.3 con un grafo diverso (o un percorso di caricamento LoRA diverso) può cambiare quelle interazioni, quindi copiare lo stesso prompt, passi, CFG e seme produce ancora una deriva visibile. I nodi del pipeline RC RunComfy colmano quel divario eseguendo LTX 2.3 end-to-end in LTX2Pipeline e applicando il tuo LoRA all'interno di quel pipeline, mantenendo l'inferenza allineata con il comportamento di anteprima. Fonte: Repository open-source RunComfy.

Come utilizzare il workflow di inferenza LTX 2.3 LoRA ComfyUI

Passo 1: Ottieni il percorso LoRA e caricalo nel workflow (2 opzioni)

Opzione A — Risultato di addestramento RunComfy → download su ComfyUI locale:

  1. Vai a Trainer → LoRA Assets
  2. Trova il LoRA che vuoi usare
  3. Clicca sul menu ⋮ (tre puntini) a destra → seleziona Copia Link LoRA
  4. Nella pagina workflow di ComfyUI, incolla il link copiato nel campo di input Download nell'angolo in alto a destra dell'interfaccia utente
  5. Prima di cliccare Download, assicurati che la cartella di destinazione sia impostata su ComfyUI > models > loras (questa cartella deve essere selezionata come destinazione del download)
  6. Clicca Download — questo assicura che il file LoRA sia salvato nella directory corretta models/loras
  7. Dopo che il download è terminato, aggiorna la pagina
  8. Ora il LoRA appare nel menu a tendina di selezione LoRA nel workflow — selezionalo

Opzione B — URL diretto LoRA (sovrascrive l'Opzione A):

  1. Incolla l'URL diretto di download .safetensors nel campo di input path / url del nodo LoRA
  2. Quando un URL è fornito qui, sovrascrive l'Opzione A — il workflow carica il LoRA direttamente dall'URL durante l'esecuzione
  3. Non è richiesto alcun download locale o posizionamento del file

Suggerimento: conferma che l'URL risolva al file .safetensors effettivo (non una pagina di destinazione o un reindirizzamento).

Passo 2: Abbina i parametri di inferenza con le impostazioni del tuo campione di addestramento

Nel nodo LoRA, seleziona il tuo adattatore in lora_path (Opzione A), o incolla un link diretto .safetensors in path / url (Opzione B sovrascrive il menu a tendina). Poi imposta lora_scale alla stessa intensità usata durante le anteprime di addestramento e aggiusta da lì.

I parametri rimanenti sono nel nodo Generate (e, a seconda del grafo, nel nodo Load Pipeline):

  • prompt: il tuo prompt di testo (includi parole chiave se le hai usate durante l'addestramento)
  • width / height: risoluzione di output; abbina la dimensione dell'anteprima di addestramento per il confronto più pulito (si raccomandano multipli di 32 per LTX 2.3)
  • num_frames: numero di fotogrammi video di output
  • sample_steps: numero di passi di inferenza (30 è un valore predefinito comune)
  • guidance_scale: valore di guida CFG (5.5 è un valore predefinito comune; non superare 7)
  • seed: seme fisso per riprodurre; cambia per esplorare variazioni
  • seed_mode (solo se presente): scegli fixed o randomize
  • frame_rate: FPS di output; mantieni coerente con le impostazioni di addestramento per l'allineamento del movimento

Suggerimento per l'allineamento dell'addestramento: se hai personalizzato i valori di campionamento durante l'addestramento (seed, guidance_scale, sample_steps, parole chiave, risoluzione), rispecchia quegli stessi valori qui. Se hai addestrato su RunComfy, apri Trainer → LoRA Assets > Config per visualizzare il YAML risolto e copiare le impostazioni di anteprima/campione nei nodi del workflow.

Passo 3: Esegui LTX 2.3 LoRA ComfyUI Inferenza

Clicca Queue/Run — il nodo SaveVideo scrive i risultati nella tua cartella di output ComfyUI.

Checklist rapida:

  • ✓ LoRA è: scaricato in ComfyUI/models/loras (Opzione A), o caricato tramite un URL diretto .safetensors (Opzione B)
  • ✓ Pagina aggiornata dopo il download locale (solo Opzione A)
  • ✓ I parametri di inferenza corrispondono alla configurazione sample di addestramento (se personalizzati)

Se tutto quanto sopra è corretto, i risultati di inferenza qui dovrebbero corrispondere strettamente alle tue anteprime di addestramento.

Risoluzione dei problemi di LTX 2.3 LoRA ComfyUI Inferenza

La maggior parte delle differenze tra "anteprima di addestramento vs inferenza ComfyUI" di LTX 2.3 deriva da differenze a livello di pipeline (come il modello è caricato, pianificato e come il LoRA è fuso), non da un singolo parametro errato. Questo workflow RunComfy ripristina la baseline più vicina "corrispondente all'addestramento" eseguendo l'inferenza attraverso RC LTX 2.3 (LTX2Pipeline) end-to-end e applicando il tuo LoRA all'interno di quel pipeline tramite lora_path / lora_scale (invece di impilare nodi di caricamento/campionamento generici).

(1) Incompatibilità di forma LoRA o avvisi "chiave non caricata"

Perché accade Il LoRA è stato addestrato per una famiglia di modelli diversa o una variante LTX diversa. Vedrai molte righe lora key not loaded e potenzialmente errori di incompatibilità di forma.

Come risolvere (consigliato)

  • Assicurati che il LoRA sia stato addestrato specificamente per LTX 2.3 con AI Toolkit (i LoRA di LTX 2.0 / 2.1 / 2.2 non sono intercambiabili).
  • Mantieni il grafo "a percorso singolo" per LoRA: carica l'adattatore solo tramite l'input lora_path del workflow e lascia che LTX2Pipeline gestisca la fusione. Non impilare un caricatore LoRA generico aggiuntivo in parallelo.
  • Se hai già incontrato un'incompatibilità e ComfyUI inizia a produrre errori CUDA/OOM non correlati in seguito, riavvia il processo ComfyUI per resettare completamente lo stato GPU + modello, quindi riprova con un LoRA compatibile.

(2) I risultati di inferenza non corrispondono alle anteprime di addestramento

Perché accade Anche quando il LoRA viene caricato, i risultati possono ancora derivare se il tuo grafo ComfyUI non corrisponde al pipeline di anteprima di addestramento (diversi predefiniti, diverso percorso di iniezione LoRA, diversa pianificazione).

Come risolvere (consigliato)

  • Usa questo workflow e incolla il tuo link diretto .safetensors in lora_path.
  • Copia i valori di campionamento dalla tua configurazione di addestramento AI Toolkit (o RunComfy Trainer → LoRA Assets Config): width, height, num_frames, sample_steps, guidance_scale, seed, frame_rate.
  • Mantieni "stack di velocità extra" fuori dal confronto a meno che non hai addestrato/campionati con essi.

(3) L'uso di LoRA aumenta significativamente il tempo di inferenza

Perché accade Un LoRA può rendere LTX 2.3 molto più lento quando il percorso LoRA forza un lavoro di patching/dequantizzazione extra o applica pesi in un percorso di codice più lento rispetto al solo modello base.

Come risolvere (consigliato)

  • Usa il percorso RC LTX 2.3 (LTX2Pipeline) di questo workflow e passa il tuo adattatore tramite lora_path / lora_scale. In questa configurazione, il LoRA è fuso una volta durante il caricamento del pipeline (stile AI Toolkit), quindi il costo di campionamento per passo rimane vicino al modello base.
  • Quando insegui un comportamento che corrisponde all'anteprima, evita di impilare più caricatori LoRA o di mescolare percorsi di caricamento. Mantienilo a uno lora_path + uno lora_scale fino a quando la baseline non corrisponde.

(4) Errori OOM su risoluzioni grandi o video lunghi

Perché accade LTX 2.3 è un modello con 22 miliardi di parametri e la generazione video è intensiva in VRAM. Alte risoluzioni o molti fotogrammi possono superare la memoria GPU, specialmente con l'overhead di LoRA.

Come risolvere (consigliato)

  • Usa una macchina 2X Large (80 GB VRAM) o più grande. Questo workflow non è compatibile con macchine Medium, Large o X Large.
  • Riduci la risoluzione o il conteggio dei fotogrammi se hai bisogno di iterare rapidamente, poi scala per i rendering finali.
  • Abilita il tiling VAE se disponibile — può salvare ~3 GB di VRAM con una perdita di qualità minima.

Esegui ora LTX 2.3 LoRA ComfyUI Inferenza

Apri il workflow, imposta lora_path e clicca Queue/Run per ottenere risultati LTX 2.3 LoRA che rimangono vicini alle tue anteprime di addestramento AI Toolkit.

Want More ComfyUI Workflows?

CogVideoX-5B | Modello Avanzato da Testo a Video

CogVideoX-5B: Modello avanzato da testo a video per la generazione di video di alta qualità.

Wan2.2 S2V | Generatore da Suono a Video

Trasforma il tuo clip audio in un video realistico e sincronizzato da un'immagine

ICEdit | Editing di Immagini AI Veloce con Nunchaku

ICEdit+Nunchaku: Una soluzione per un editing di immagini AI ultra-rapido e preciso.

SDXL Turbo | Da Testo a Immagine Rapidamente

SDXL Turbo | Da Testo a Immagine Rapidamente

Sperimenta la rapida sintesi da testo a immagine con SDXL Turbo.

Wan 2.2 Qwen Multiangle Split Stack | Generatore di Video Multi-Vista

Trasforma un'immagine in video animati multi-angolo sincronizzati velocemente.

Hunyuan3D 2.1 | Da Immagine a Modello 3D

Grande salto dal 2.0: Trasforma le foto in incredibili modelli 3D istantaneamente.

AnimateDiff + ControlNet | Stile Scultura di Marmo

Trasforma i tuoi video in sculture di marmo senza tempo, catturando l'essenza dell'arte classica.

HiDream-I1 | T2I

Generazione di immagini di alta qualità utilizzando un modello da 17 miliardi di parametri.

Seguici
  • LinkedIn
  • Facebook
  • Instagram
  • Twitter
Supporto
  • Discord
  • Email
  • Stato del Sistema
  • affiliato
Risorse
  • ComfyUI Online Gratuito
  • Guide di ComfyUI
  • RunComfy API
  • Tutorial ComfyUI
  • Nodi ComfyUI
  • Scopri di Più
Legale
  • Termini di Servizio
  • Informativa sulla Privacy
  • Informativa sui Cookie
RunComfy
Copyright 2026 RunComfy. Tutti i Diritti Riservati.

RunComfy è la piattaforma principale ComfyUI che offre ComfyUI online ambiente e servizi, insieme a workflow di ComfyUI con visuali mozzafiato. RunComfy offre anche AI Models, consentire agli artisti di sfruttare gli ultimi strumenti di AI per creare arte incredibile.