Inférence LTX 2.3 LoRA ComfyUI : sortie LoRA de l'AI Toolkit correspondant à l'entraînement avec le pipeline LTX 2.3
Ce workflow RunComfy prêt à la production exécute l'inférence LTX 2.3 LoRA dans ComfyUI via RC LTX 2.3 (LTX2Pipeline) (alignement au niveau du pipeline, pas un graphe d'échantillonnage générique). RunComfy a construit et open-sourcé ce nœud personnalisé—voir les répertoires runcomfy-com—et vous contrôlez l'application de l'adaptateur avec lora_path et lora_scale.
Remarque : Ce workflow nécessite une machine 2X Large ou plus grande pour fonctionner.
Pourquoi l'inférence LTX 2.3 LoRA ComfyUI semble souvent différente dans ComfyUI
Les aperçus d'entraînement de l'AI Toolkit sont rendus via un pipeline LTX 2.3 spécifique au modèle, où l'encodage de texte, la planification et l'injection LoRA sont conçus pour fonctionner ensemble. Dans ComfyUI, reconstruire LTX 2.3 avec un graphe différent (ou un chemin de chargeur LoRA différent) peut modifier ces interactions, donc copier le même prompt, les étapes, le CFG et la graine produit toujours une dérive visible. Les nœuds de pipeline RC de RunComfy comblent cet écart en exécutant LTX 2.3 de bout en bout dans LTX2Pipeline et en appliquant votre LoRA à l'intérieur de ce pipeline, maintenant l'inférence alignée avec le comportement de l'aperçu. Source : Répertoires open-source de RunComfy.
Comment utiliser le workflow d'inférence LTX 2.3 LoRA ComfyUI
Étape 1 : Obtenez le chemin LoRA et chargez-le dans le workflow (2 options)
Option A — Résultat d'entraînement RunComfy → téléchargement local dans ComfyUI :
- Allez à Entraîneur → Actifs LoRA
- Trouvez le LoRA que vous souhaitez utiliser
- Cliquez sur le menu ⋮ (trois points) à droite → sélectionnez Copier le lien LoRA
- Dans la page de workflow ComfyUI, collez le lien copié dans le champ d'entrée Télécharger en haut à droite de l'interface
- Avant de cliquer sur Télécharger, assurez-vous que le dossier cible est défini sur ComfyUI > models > loras (ce dossier doit être sélectionné comme cible de téléchargement)
- Cliquez sur Télécharger — cela garantit que le fichier LoRA est enregistré dans le répertoire correct
models/loras - Après la fin du téléchargement, rafraîchissez la page
- Le LoRA apparaît maintenant dans la liste déroulante de sélection LoRA dans le workflow — sélectionnez-le
Option B — URL directe LoRA (remplace l'Option A):
- Collez l'URL directe de téléchargement
.safetensorsdans le champ d'entréepath / urldu nœud LoRA - Lorsqu'une URL est fournie ici, elle remplace l'Option A — le workflow charge le LoRA directement depuis l'URL à l'exécution
- Aucun téléchargement local ou placement de fichier n'est requis
Astuce : confirmez que l'URL mène au fichier .safetensors réel (pas à une page d'accueil ou à une redirection).
Étape 2 : Faites correspondre les paramètres d'inférence avec les paramètres de votre échantillon d'entraînement
Dans le nœud LoRA, sélectionnez votre adaptateur dans lora_path (Option A), ou collez un lien direct .safetensors dans path / url (Option B remplace la liste déroulante). Ensuite, réglez lora_scale à la même force que vous avez utilisée lors des aperçus d'entraînement et ajustez à partir de là.
Les paramètres restants sont sur le nœud Generate (et, selon le graphe, le nœud Load Pipeline):
prompt: votre prompt texte (incluez les mots déclencheurs si vous avez entraîné avec eux)width/height: résolution de sortie; faites correspondre la taille de votre aperçu d'entraînement pour la comparaison la plus nette (les multiples de 32 sont recommandés pour LTX 2.3)num_frames: nombre de cadres vidéo de sortiesample_steps: nombre d'étapes d'inférence (30 est un défaut courant)guidance_scale: valeur CFG/guidance (5.5 est un défaut courant; ne dépassez pas 7)seed: graine fixe à reproduire; changez-la pour explorer des variationsseed_mode(seulement si présent): choisissezfixedourandomizeframe_rate: FPS de sortie; gardez cohérent avec les paramètres d'entraînement pour l'alignement du mouvement
Conseil d'alignement d'entraînement : si vous avez personnalisé les valeurs d'échantillonnage pendant l'entraînement (seed, guidance_scale, sample_steps, mots déclencheurs, résolution), reflétez ces valeurs exactes ici. Si vous vous êtes entraîné sur RunComfy, ouvrez Entraîneur → Actifs LoRA > Config pour voir le YAML résolu et copier les paramètres d'aperçu/échantillon dans les nœuds de workflow.
Étape 3 : Exécutez l'inférence LTX 2.3 LoRA ComfyUI
Cliquez sur Queue/Run — le nœud SaveVideo écrit les résultats dans votre dossier de sortie ComfyUI.
Liste de vérification rapide :
- ✓ Le LoRA est soit : téléchargé dans
ComfyUI/models/loras(Option A), soit chargé via une URL directe.safetensors(Option B) - ✓ Page rafraîchie après le téléchargement local (Option A uniquement)
- ✓ Les paramètres d'inférence correspondent à la config
sampled'entraînement (si personnalisé)
Si tout ce qui précède est correct, les résultats d'inférence ici devraient correspondre de près à vos aperçus d'entraînement.
Dépannage de l'inférence LTX 2.3 LoRA ComfyUI
La plupart des écarts "aperçu d'entraînement vs inférence ComfyUI" LTX 2.3 proviennent des différences au niveau du pipeline (comment le modèle est chargé, programmé, et comment le LoRA est fusionné), pas d'un seul bouton mal réglé. Ce workflow RunComfy rétablit la base "correspondant à l'entraînement" la plus proche en exécutant l'inférence via RC LTX 2.3 (LTX2Pipeline) de bout en bout et en appliquant votre LoRA à l'intérieur de ce pipeline via lora_path / lora_scale (au lieu d'empiler des nœuds de chargeur/échantillonneur génériques).
(1) Incompatibilités de forme LoRA ou avertissements "clé non chargée"
Pourquoi cela se produit Le LoRA a été entraîné pour une famille de modèles différente ou une variante LTX différente. Vous verrez de nombreuses lignes lora key not loaded et potentiellement des erreurs d'incompatibilité de forme.
Comment résoudre (recommandé)
- Assurez-vous que le LoRA a été entraîné spécifiquement pour LTX 2.3 avec AI Toolkit (les LoRA LTX 2.0 / 2.1 / 2.2 ne sont pas interchangeables).
- Gardez le graphe "chemin unique" pour le LoRA : chargez l'adaptateur uniquement via l'entrée
lora_pathdu workflow et laissez LTX2Pipeline gérer la fusion. N'empilez pas un chargeur LoRA générique supplémentaire en parallèle. - Si vous avez déjà rencontré une incompatibilité et que ComfyUI commence à produire des erreurs CUDA/OOM non liées par la suite, redémarrez le processus ComfyUI pour réinitialiser complètement l'état du GPU + modèle, puis réessayez avec un LoRA compatible.
(2) Les résultats d'inférence ne correspondent pas aux aperçus d'entraînement
Pourquoi cela se produit Même lorsque le LoRA se charge, les résultats peuvent encore dériver si votre graphe ComfyUI ne correspond pas au pipeline d'aperçu d'entraînement (différents paramètres par défaut, chemin d'injection LoRA différent, planification différente).
Comment résoudre (recommandé)
- Utilisez ce workflow et collez votre lien direct
.safetensorsdanslora_path. - Copiez les valeurs d'échantillonnage de votre config d'entraînement AI Toolkit (ou RunComfy Entraîneur → Actifs LoRA Config) :
width,height,num_frames,sample_steps,guidance_scale,seed,frame_rate. - Gardez les "piles de vitesse supplémentaires" hors de la comparaison à moins que vous ne vous soyez entraîné/échantillonné avec elles.
(3) L'utilisation de LoRAs augmente considérablement le temps d'inférence
Pourquoi cela se produit Un LoRA peut rendre LTX 2.3 beaucoup plus lent lorsque le chemin LoRA force un travail de patching/déquantification supplémentaire ou applique des poids dans un chemin de code plus lent que le modèle de base seul.
Comment résoudre (recommandé)
- Utilisez le chemin RC LTX 2.3 (LTX2Pipeline) de ce workflow et passez votre adaptateur via
lora_path/lora_scale. Dans ce paramétrage, le LoRA est fusionné une fois lors du chargement du pipeline (style AI Toolkit), donc le coût d'échantillonnage par étape reste proche du modèle de base. - Lorsque vous cherchez à correspondre au comportement d'aperçu, évitez d'empiler plusieurs chargeurs LoRA ou de mélanger les chemins de chargeur. Limitez-vous à un
lora_path+ unlora_scalejusqu'à ce que la base corresponde.
(4) Erreurs OOM sur grandes résolutions ou longues vidéos
Pourquoi cela se produit LTX 2.3 est un modèle de 22B paramètres et la génération vidéo est intensive en VRAM. Les hautes résolutions ou de nombreux cadres peuvent dépasser la mémoire GPU, surtout avec la surcharge LoRA.
Comment résoudre (recommandé)
- Utilisez une machine 2X Large (80 GB VRAM) ou plus grande. Ce workflow n'est pas compatible avec les machines Medium, Large ou X Large.
- Réduisez la résolution ou le nombre de cadres si vous devez itérer rapidement, puis augmentez pour les rendus finaux.
- Activez le carrelage VAE si disponible — cela peut économiser ~3 GB VRAM avec une perte de qualité minimale.
Exécutez l'inférence LTX 2.3 LoRA ComfyUI maintenant
Ouvrez le workflow, définissez lora_path, et cliquez sur Queue/Run pour obtenir des résultats LTX 2.3 LoRA qui restent proches de vos aperçus d'entraînement AI Toolkit.
