LTX 2.3 LoRA ComfyUI Inferencia: salida de LoRA del AI Toolkit coincidente con el entrenamiento con el pipeline LTX 2.3
Este workflow de RunComfy listo para producción ejecuta la inferencia de LTX 2.3 LoRA en ComfyUI a través de RC LTX 2.3 (LTX2Pipeline) (alineación a nivel de pipeline, no un gráfico de muestreo genérico). RunComfy creó y publicó este nodo personalizado—vea los repositorios runcomfy-com—y usted controla la aplicación del adaptador con lora_path y lora_scale.
Nota: Este workflow requiere una máquina 2X Large o más grande para ejecutarse.
Por qué la inferencia LTX 2.3 LoRA ComfyUI a menudo se ve diferente en ComfyUI
Las vistas previas de entrenamiento del AI Toolkit se renderizan a través de un pipeline LTX 2.3 específico del modelo, donde la codificación de texto, la programación y la inyección de LoRA están diseñadas para trabajar juntas. En ComfyUI, reconstruir LTX 2.3 con un gráfico diferente (o un camino de carga de LoRA diferente) puede cambiar esas interacciones, por lo que copiar el mismo prompt, pasos, CFG y semilla aún produce una deriva visible. Los nodos del pipeline RC de RunComfy cierran esa brecha ejecutando LTX 2.3 de principio a fin en LTX2Pipeline y aplicando su LoRA dentro de ese pipeline, manteniendo la inferencia alineada con el comportamiento de vista previa. Fuente: repositorios de código abierto de RunComfy.
Cómo utilizar el workflow de inferencia LTX 2.3 LoRA ComfyUI
Paso 1: Obtenga la ruta de LoRA y cárguela en el workflow (2 opciones)
Opción A — Resultado de entrenamiento RunComfy → descargar a ComfyUI local:
- Vaya a Trainer → LoRA Assets
- Encuentre el LoRA que desea usar
- Haga clic en el menú ⋮ (tres puntos) a la derecha → seleccione Copiar enlace de LoRA
- En la página de workflow de ComfyUI, pegue el enlace copiado en el campo de entrada Descargar en la esquina superior derecha de la UI
- Antes de hacer clic en Descargar, asegúrese de que la carpeta de destino esté configurada en ComfyUI > models > loras (esta carpeta debe seleccionarse como el destino de descarga)
- Haga clic en Descargar — esto asegura que el archivo LoRA se guarde en el directorio correcto
models/loras - Después de que finalice la descarga, actualice la página
- El LoRA ahora aparece en el desplegable de selección de LoRA en el workflow — seleccione
Opción B — URL directa de LoRA (anula la Opción A):
- Pegue la URL de descarga directa
.safetensorsen el campo de entradaruta / urldel nodo LoRA - Cuando se proporciona una URL aquí, anula la Opción A — el workflow carga el LoRA directamente desde la URL en tiempo de ejecución
- No se requiere descarga local o colocación de archivos
Consejo: confirme que la URL resuelve al archivo .safetensors real (no a una página de destino o redirección).
Paso 2: Haga coincidir los parámetros de inferencia con los ajustes de su muestra de entrenamiento
En el nodo LoRA, seleccione su adaptador en lora_path (Opción A), o pegue un enlace directo .safetensors en ruta / url (Opción B anula el desplegable). Luego configure lora_scale a la misma fuerza que usó durante las vistas previas de entrenamiento y ajuste desde allí.
Los parámetros restantes están en el nodo Generar (y, dependiendo del gráfico, el nodo Cargar Pipeline):
prompt: su prompt de texto (incluya palabras clave si entrenó con ellas)ancho/alto: resolución de salida; haga coincidir el tamaño de vista previa de entrenamiento para la comparación más limpia (se recomiendan múltiplos de 32 para LTX 2.3)num_frames: número de fotogramas de video de salidasample_steps: número de pasos de inferencia (30 es un valor predeterminado común)guidance_scale: valor de CFG/guía (5.5 es un valor predeterminado común; no exceda 7)seed: semilla fija para reproducir; cámbiela para explorar variacionesseed_mode(solo si está presente): elijafixedorandomizeframe_rate: FPS de salida; manténgalo consistente con la configuración de entrenamiento para la alineación del movimiento
Consejo de alineación de entrenamiento: si personalizó los valores de muestreo durante el entrenamiento (seed, guidance_scale, sample_steps, palabras clave, resolución), refleje esos valores exactos aquí. Si entrenó en RunComfy, abra Trainer → LoRA Assets > Config para ver el YAML resuelto y copiar la configuración de vista previa/muestra en los nodos del workflow.
Paso 3: Ejecute la inferencia LTX 2.3 LoRA ComfyUI
Haga clic en Queue/Run — el nodo SaveVideo escribe los resultados en su carpeta de salida de ComfyUI.
Lista de verificación rápida:
- ✓ LoRA está: descargado en
ComfyUI/models/loras(Opción A), o cargado a través de una URL directa.safetensors(Opción B) - ✓ Página actualizada después de la descarga local (solo Opción A)
- ✓ Los parámetros de inferencia coinciden con la configuración
samplede entrenamiento (si se personalizó)
Si todo lo anterior es correcto, los resultados de la inferencia aquí deberían coincidir estrechamente con sus vistas previas de entrenamiento.
Solución de problemas de inferencia LTX 2.3 LoRA ComfyUI
La mayoría de las brechas "vista previa de entrenamiento vs inferencia en ComfyUI" de LTX 2.3 provienen de diferencias a nivel de pipeline (cómo se carga el modelo, se programa y cómo se fusiona el LoRA), no de un solo ajuste incorrecto. Este workflow de RunComfy restaura la base "coincidente con el entrenamiento" más cercana al ejecutar la inferencia a través de RC LTX 2.3 (LTX2Pipeline) de principio a fin y aplicar su LoRA dentro de ese pipeline a través de lora_path / lora_scale (en lugar de apilar nodos de carga/muestreo genéricos).
(1) Desajustes de forma de LoRA o advertencias "clave no cargada"
Por qué ocurre esto El LoRA fue entrenado para una familia de modelos diferente o una variante LTX diferente. Verá muchas líneas lora key not loaded y potencialmente errores de desajuste de forma.
Cómo solucionarlo (recomendado)
- Asegúrese de que el LoRA fue entrenado específicamente para LTX 2.3 con AI Toolkit (los LoRAs LTX 2.0 / 2.1 / 2.2 no son intercambiables).
- Mantenga el gráfico "camino único" para LoRA: cargue el adaptador solo a través de la entrada
lora_pathdel workflow y deje que LTX2Pipeline maneje la fusión. No apile un cargador LoRA genérico adicional en paralelo. - Si ya ha encontrado un desajuste y ComfyUI comienza a producir errores CUDA/OOM no relacionados después, reinicie el proceso de ComfyUI para restablecer completamente el estado de la GPU + modelo, luego intente nuevamente con un LoRA compatible.
(2) Los resultados de inferencia no coinciden con las vistas previas de entrenamiento
Por qué ocurre esto Incluso cuando el LoRA se carga, los resultados aún pueden desviarse si su gráfico de ComfyUI no coincide con el pipeline de vista previa de entrenamiento (diferentes valores predeterminados, diferente ruta de inyección de LoRA, diferente programación).
Cómo solucionarlo (recomendado)
- Use este workflow y pegue su enlace directo
.safetensorsenlora_path. - Copie los valores de muestreo de su configuración de entrenamiento del AI Toolkit (o RunComfy Trainer → LoRA Assets Config):
ancho,alto,num_frames,sample_steps,guidance_scale,seed,frame_rate. - Mantenga "pilas de velocidad extra" fuera de la comparación a menos que haya entrenado/muestreado con ellas.
(3) Usar LoRAs aumenta significativamente el tiempo de inferencia
Por qué ocurre esto Un LoRA puede hacer que LTX 2.3 sea mucho más lento cuando la ruta de LoRA obliga a realizar trabajo adicional de parcheo/descuantificación o aplica pesos en una ruta de código más lenta que el modelo base solo.
Cómo solucionarlo (recomendado)
- Use la ruta RC LTX 2.3 (LTX2Pipeline) de este workflow y pase su adaptador a través de
lora_path/lora_scale. En esta configuración, el LoRA se fusiona una vez durante la carga del pipeline (estilo AI Toolkit), por lo que el costo de muestreo por paso se mantiene cercano al modelo base. - Cuando esté persiguiendo el comportamiento coincidente con la vista previa, evite apilar múltiples cargadores LoRA o mezclar rutas de carga. Manténgalo en una
lora_path+ unalora_scalehasta que la base coincida.
(4) Errores OOM en resoluciones grandes o videos largos
Por qué ocurre esto LTX 2.3 es un modelo de 22B parámetros y la generación de video consume mucha VRAM. Las altas resoluciones o muchos fotogramas pueden exceder la memoria de la GPU, especialmente con la sobrecarga de LoRA.
Cómo solucionarlo (recomendado)
- Use una máquina 2X Large (80 GB VRAM) o más grande. Este workflow no es compatible con máquinas Medium, Large o X Large.
- Reduzca la resolución o el conteo de fotogramas si necesita iterar rápidamente, luego escale para renders finales.
- Habilite el mosaico VAE si está disponible — puede ahorrar ~3 GB de VRAM con pérdida mínima de calidad.
Ejecute la inferencia LTX 2.3 LoRA ComfyUI ahora
Abra el workflow, configure lora_path, y haga clic en Queue/Run para obtener resultados de LTX 2.3 LoRA que se mantengan cerca de sus vistas previas de entrenamiento del AI Toolkit.


