logo
RunComfy
  • ComfyUI
  • TrainerNew
  • Models
  • API
  • Pricing
discord logo
ComfyUI>Flujos de trabajo>LTX 2.3 LoRA Inferencia | AI Toolkit ComfyUI

LTX 2.3 LoRA Inferencia | AI Toolkit ComfyUI

Workflow Name: RunComfy/LTX-2.3-LoRA-ComfyUI-Inference
Workflow ID: 0000...1382
La inferencia de LTX 2.3 LoRA ComfyUI es un workflow listo para ejecutarse que aplica un LoRA entrenado con AI Toolkit a LTX 2.3 dentro de ComfyUI. En lugar de reconstruir LTX 2.3 con un gráfico de muestreo genérico, redirige la generación a través de LTX2Pipeline, un envoltorio específico del modelo alineado al pipeline de vista previa del AI Toolkit. Esta alineación a nivel de pipeline mantiene la inyección de LoRA consistente y preserva los valores predeterminados correctos de LTX 2.3 para salidas de video repetibles y coincidentes con el entrenamiento. Cargue un único adaptador desde `ComfyUI/models/loras` (descarga local) o una URL directa `.safetensors`, luego iguale `lora_scale` y sus valores de muestreo a sus muestras de entrenamiento cuando sea necesario. Los videos de salida se guardan a través de SaveVideo para una fácil comparación lado a lado con las vistas previas de entrenamiento.

LTX 2.3 LoRA ComfyUI Inferencia: salida de LoRA del AI Toolkit coincidente con el entrenamiento con el pipeline LTX 2.3

Este workflow de RunComfy listo para producción ejecuta la inferencia de LTX 2.3 LoRA en ComfyUI a través de RC LTX 2.3 (LTX2Pipeline) (alineación a nivel de pipeline, no un gráfico de muestreo genérico). RunComfy creó y publicó este nodo personalizado—vea los repositorios runcomfy-com—y usted controla la aplicación del adaptador con lora_path y lora_scale.

Nota: Este workflow requiere una máquina 2X Large o más grande para ejecutarse.

Por qué la inferencia LTX 2.3 LoRA ComfyUI a menudo se ve diferente en ComfyUI

Las vistas previas de entrenamiento del AI Toolkit se renderizan a través de un pipeline LTX 2.3 específico del modelo, donde la codificación de texto, la programación y la inyección de LoRA están diseñadas para trabajar juntas. En ComfyUI, reconstruir LTX 2.3 con un gráfico diferente (o un camino de carga de LoRA diferente) puede cambiar esas interacciones, por lo que copiar el mismo prompt, pasos, CFG y semilla aún produce una deriva visible. Los nodos del pipeline RC de RunComfy cierran esa brecha ejecutando LTX 2.3 de principio a fin en LTX2Pipeline y aplicando su LoRA dentro de ese pipeline, manteniendo la inferencia alineada con el comportamiento de vista previa. Fuente: repositorios de código abierto de RunComfy.

Cómo utilizar el workflow de inferencia LTX 2.3 LoRA ComfyUI

Paso 1: Obtenga la ruta de LoRA y cárguela en el workflow (2 opciones)

Opción A — Resultado de entrenamiento RunComfy → descargar a ComfyUI local:

  1. Vaya a Trainer → LoRA Assets
  2. Encuentre el LoRA que desea usar
  3. Haga clic en el menú ⋮ (tres puntos) a la derecha → seleccione Copiar enlace de LoRA
  4. En la página de workflow de ComfyUI, pegue el enlace copiado en el campo de entrada Descargar en la esquina superior derecha de la UI
  5. Antes de hacer clic en Descargar, asegúrese de que la carpeta de destino esté configurada en ComfyUI > models > loras (esta carpeta debe seleccionarse como el destino de descarga)
  6. Haga clic en Descargar — esto asegura que el archivo LoRA se guarde en el directorio correcto models/loras
  7. Después de que finalice la descarga, actualice la página
  8. El LoRA ahora aparece en el desplegable de selección de LoRA en el workflow — seleccione

Opción B — URL directa de LoRA (anula la Opción A):

  1. Pegue la URL de descarga directa .safetensors en el campo de entrada ruta / url del nodo LoRA
  2. Cuando se proporciona una URL aquí, anula la Opción A — el workflow carga el LoRA directamente desde la URL en tiempo de ejecución
  3. No se requiere descarga local o colocación de archivos

Consejo: confirme que la URL resuelve al archivo .safetensors real (no a una página de destino o redirección).

Paso 2: Haga coincidir los parámetros de inferencia con los ajustes de su muestra de entrenamiento

En el nodo LoRA, seleccione su adaptador en lora_path (Opción A), o pegue un enlace directo .safetensors en ruta / url (Opción B anula el desplegable). Luego configure lora_scale a la misma fuerza que usó durante las vistas previas de entrenamiento y ajuste desde allí.

Los parámetros restantes están en el nodo Generar (y, dependiendo del gráfico, el nodo Cargar Pipeline):

  • prompt: su prompt de texto (incluya palabras clave si entrenó con ellas)
  • ancho / alto: resolución de salida; haga coincidir el tamaño de vista previa de entrenamiento para la comparación más limpia (se recomiendan múltiplos de 32 para LTX 2.3)
  • num_frames: número de fotogramas de video de salida
  • sample_steps: número de pasos de inferencia (30 es un valor predeterminado común)
  • guidance_scale: valor de CFG/guía (5.5 es un valor predeterminado común; no exceda 7)
  • seed: semilla fija para reproducir; cámbiela para explorar variaciones
  • seed_mode (solo si está presente): elija fixed o randomize
  • frame_rate: FPS de salida; manténgalo consistente con la configuración de entrenamiento para la alineación del movimiento

Consejo de alineación de entrenamiento: si personalizó los valores de muestreo durante el entrenamiento (seed, guidance_scale, sample_steps, palabras clave, resolución), refleje esos valores exactos aquí. Si entrenó en RunComfy, abra Trainer → LoRA Assets > Config para ver el YAML resuelto y copiar la configuración de vista previa/muestra en los nodos del workflow.

Paso 3: Ejecute la inferencia LTX 2.3 LoRA ComfyUI

Haga clic en Queue/Run — el nodo SaveVideo escribe los resultados en su carpeta de salida de ComfyUI.

Lista de verificación rápida:

  • ✓ LoRA está: descargado en ComfyUI/models/loras (Opción A), o cargado a través de una URL directa .safetensors (Opción B)
  • ✓ Página actualizada después de la descarga local (solo Opción A)
  • ✓ Los parámetros de inferencia coinciden con la configuración sample de entrenamiento (si se personalizó)

Si todo lo anterior es correcto, los resultados de la inferencia aquí deberían coincidir estrechamente con sus vistas previas de entrenamiento.

Solución de problemas de inferencia LTX 2.3 LoRA ComfyUI

La mayoría de las brechas "vista previa de entrenamiento vs inferencia en ComfyUI" de LTX 2.3 provienen de diferencias a nivel de pipeline (cómo se carga el modelo, se programa y cómo se fusiona el LoRA), no de un solo ajuste incorrecto. Este workflow de RunComfy restaura la base "coincidente con el entrenamiento" más cercana al ejecutar la inferencia a través de RC LTX 2.3 (LTX2Pipeline) de principio a fin y aplicar su LoRA dentro de ese pipeline a través de lora_path / lora_scale (en lugar de apilar nodos de carga/muestreo genéricos).

(1) Desajustes de forma de LoRA o advertencias "clave no cargada"

Por qué ocurre esto El LoRA fue entrenado para una familia de modelos diferente o una variante LTX diferente. Verá muchas líneas lora key not loaded y potencialmente errores de desajuste de forma.

Cómo solucionarlo (recomendado)

  • Asegúrese de que el LoRA fue entrenado específicamente para LTX 2.3 con AI Toolkit (los LoRAs LTX 2.0 / 2.1 / 2.2 no son intercambiables).
  • Mantenga el gráfico "camino único" para LoRA: cargue el adaptador solo a través de la entrada lora_path del workflow y deje que LTX2Pipeline maneje la fusión. No apile un cargador LoRA genérico adicional en paralelo.
  • Si ya ha encontrado un desajuste y ComfyUI comienza a producir errores CUDA/OOM no relacionados después, reinicie el proceso de ComfyUI para restablecer completamente el estado de la GPU + modelo, luego intente nuevamente con un LoRA compatible.

(2) Los resultados de inferencia no coinciden con las vistas previas de entrenamiento

Por qué ocurre esto Incluso cuando el LoRA se carga, los resultados aún pueden desviarse si su gráfico de ComfyUI no coincide con el pipeline de vista previa de entrenamiento (diferentes valores predeterminados, diferente ruta de inyección de LoRA, diferente programación).

Cómo solucionarlo (recomendado)

  • Use este workflow y pegue su enlace directo .safetensors en lora_path.
  • Copie los valores de muestreo de su configuración de entrenamiento del AI Toolkit (o RunComfy Trainer → LoRA Assets Config): ancho, alto, num_frames, sample_steps, guidance_scale, seed, frame_rate.
  • Mantenga "pilas de velocidad extra" fuera de la comparación a menos que haya entrenado/muestreado con ellas.

(3) Usar LoRAs aumenta significativamente el tiempo de inferencia

Por qué ocurre esto Un LoRA puede hacer que LTX 2.3 sea mucho más lento cuando la ruta de LoRA obliga a realizar trabajo adicional de parcheo/descuantificación o aplica pesos en una ruta de código más lenta que el modelo base solo.

Cómo solucionarlo (recomendado)

  • Use la ruta RC LTX 2.3 (LTX2Pipeline) de este workflow y pase su adaptador a través de lora_path / lora_scale. En esta configuración, el LoRA se fusiona una vez durante la carga del pipeline (estilo AI Toolkit), por lo que el costo de muestreo por paso se mantiene cercano al modelo base.
  • Cuando esté persiguiendo el comportamiento coincidente con la vista previa, evite apilar múltiples cargadores LoRA o mezclar rutas de carga. Manténgalo en una lora_path + una lora_scale hasta que la base coincida.

(4) Errores OOM en resoluciones grandes o videos largos

Por qué ocurre esto LTX 2.3 es un modelo de 22B parámetros y la generación de video consume mucha VRAM. Las altas resoluciones o muchos fotogramas pueden exceder la memoria de la GPU, especialmente con la sobrecarga de LoRA.

Cómo solucionarlo (recomendado)

  • Use una máquina 2X Large (80 GB VRAM) o más grande. Este workflow no es compatible con máquinas Medium, Large o X Large.
  • Reduzca la resolución o el conteo de fotogramas si necesita iterar rápidamente, luego escale para renders finales.
  • Habilite el mosaico VAE si está disponible — puede ahorrar ~3 GB de VRAM con pérdida mínima de calidad.

Ejecute la inferencia LTX 2.3 LoRA ComfyUI ahora

Abra el workflow, configure lora_path, y haga clic en Queue/Run para obtener resultados de LTX 2.3 LoRA que se mantengan cerca de sus vistas previas de entrenamiento del AI Toolkit.

Want More ComfyUI Workflows?

Anyline + MistoLine | Boceto a imagen de alta calidad

Anyline + MistoLine | Boceto a imagen de alta calidad

MistoLine se adapta a varios dibujos lineales, generando sin esfuerzo imágenes de alta calidad a partir de bocetos.

ComfyUI Phantom | Sujeto a Video

Generación de video basada en referencias usando Wan2.1 14B

Wan 2.1 Control LoRA | Profundidad y Mosaico

Avanza la generación de video Wan 2.1 con LoRAs de profundidad y mosaico ligeros para mejorar la estructura y el detalle.

Entrenamiento FLUX LoRA

Entrenamiento FLUX LoRA

Guía para todo el proceso de entrenamiento de modelos FLUX LoRA usando tus conjuntos de datos personalizados.

Generación de Música ACE-Step | Creación de Audio AI

Genera música de calidad de estudio 15× más rápido con tecnología de difusión innovadora.

FLUX ControlNet Depth-V3 y Canny-V3

Logra un mejor control con FLUX-ControlNet-Depth y FLUX-ControlNet-Canny para FLUX.1 [dev].

Qwen Image 2512 | Generador de Imágenes AI de Precisión

Creación de arte ultra detallado con precisión visual de siguiente nivel y control.

Control de Pose LipSync S2V | Generador de Video Expresivo

Convierte imágenes en personajes que hablan y se mueven con control de pose y audio.

Síguenos
  • LinkedIn
  • Facebook
  • Instagram
  • Twitter
Soporte
  • Discord
  • Correo electrónico
  • Estado del sistema
  • afiliado
Recursos
  • ComfyUI en línea gratis
  • Guías de ComfyUI
  • RunComfy API
  • Tutoriales de ComfyUI
  • Nodos de ComfyUI
  • Aprende más
Legal
  • Términos de servicio
  • Política de privacidad
  • Política de cookies
RunComfy
Derechos de autor 2026 RunComfy. Todos los derechos reservados.

RunComfy es la principal ComfyUI plataforma, ofreciendo ComfyUI en línea entorno y servicios, junto con flujos de trabajo de ComfyUI con impresionantes imágenes. RunComfy también ofrece AI Models, permitiendo a los artistas aprovechar las últimas herramientas de AI para crear arte increíble.