logo
RunComfy
  • ComfyUI
  • EntrenadorNuevo
  • Modelos
  • API
  • Precios
discord logo
ComfyUI>Flujos de trabajo>LTX 2.3 - Intercambio de Caras en Video | Reemplazo Facial Sin Fisuras

LTX 2.3 - Intercambio de Caras en Video | Reemplazo Facial Sin Fisuras

Workflow Name: RunComfy/LTX-2.3-Video-Face-Swap
Workflow ID: 0000...1391
Con este avanzado flujo de trabajo de reemplazo facial, puedes cambiar caras en video sin esfuerzo, manteniendo expresiones naturales, iluminación consistente y precisión temporal. Ideal para creadores y artistas de VFX, asegura un seguimiento de identidad estable y coherencia en cada fotograma. Aprovechando el diseño impulsado por difusión de LTX 2.3, minimiza el parpadeo y mejora el realismo. Puedes ajustar los "prompts" de control para flexibilidad creativa y resultados pulidos. Perfecto para cineastas de IA que buscan un intercambio de caras de grado profesional sin trabajo manual complejo.

LTX-2.3-Video-Face-Swap para ComfyUI

Este flujo de trabajo ofrece un reemplazo facial en video de alta fidelidad y estable en el tiempo utilizando la familia LTX 2.3. Diseñado para RunComfy y ComfyUI, fusiona una imagen guía de identidad con un video objetivo y orientación de audio opcional para preservar expresiones, iluminación y movimiento a través de los fotogramas. El resultado es un intercambio realista y resistente al parpadeo que se mantiene en primeros planos y tomas medias.

Los creadores, artistas de VFX y cineastas de IA pueden usar LTX-2.3-Video-Face-Swap para mantener el control creativo total: "prompt" manual o generación de "prompts" estructurados a partir de las entradas, elegir entre variantes dev, distilled, FP8, o GGUF, y finalizar con una decodificación espaciotemporal y una ampliación latente 2x opcional para detalles nítidos.

Modelos clave en el flujo de trabajo Comfyui LTX-2.3-Video-Face-Swap

  • LTX 2.3 22B Video Diffusion Transformer. Modelo principal de generación y edición de video que impulsa la preservación de identidad y la coherencia temporal. Ver la familia de modelos oficial en Lightricks/LTX-2.3.
  • LTX 2.3 Text Encoders. El gráfico empareja el codificador de texto LTX 2.3 con un codificador de instrucciones Gemma 3 12B para mejorar la alineación de "prompts" para la edición de video. Ejemplo de artefactos: ltx-2-3-22b-text_encoder.safetensors y gemma_3_12B_it.safetensors.
  • LTX 2.3 VAE y Audio VAE. Codificadores/decodificadores utilizados para comprimir y reconstruir fotogramas visuales y pistas de audio mientras se preserva el detalle y la sincronización. Ver Lightricks/LTX-2.3 VAE files y variantes de audio VAE en el repositorio dividido vantagewithai/LTX-2.3-Split.
  • LTX 2.3 Spatial Upscaler x2. Ampliador espacial latente 2x que aumenta la fidelidad espacial antes de la decodificación final, ideal para detalles faciales. ltx-2.3-spatial-upscaler-x2-1.1.safetensors.
  • Head‑swap LoRA. Una LoRA adaptativa de rango especializada en la transferencia de identidad que mejora la semejanza y la estabilidad al realizar la edición. Ejemplo: head_swap_v3_rank_adaptive_fro_098.safetensors.
  • MelBandRoFormer. Modelo opcional de separación de fuentes musicales utilizado aquí para aislar las voces para una orientación más fuerte del movimiento de la boca. Kijai/MelBandRoFormer_comfy.
  • Variantes de implementación opcionales. Pesos solo de transformador FP8 para velocidad en GPUs compatibles Kijai/LTX2.3_comfy y construcciones ligeras de UNet GGUF para escenarios de CPU o bajo VRAM vantagewithai/LTX-2.3-GGUF.

Cómo usar el flujo de trabajo Comfyui LTX-2.3-Video-Face-Swap

Este gráfico se ejecuta en dos etapas. La primera etapa realiza el intercambio principal en la resolución latente nativa con orientación consciente del audio. La segunda etapa amplía en el espacio latente y refina la región facial antes de una decodificación espaciotemporal y el multiplexado final a video.

Entradas

  • Carga tu imagen de identidad en Face Image (LoadImage (#255)). Usa una toma bien iluminada, frontal o de tres cuartos para la extracción de identidad más confiable.
  • Carga el metraje objetivo en Reference Video (VHS_LoadVideo (#393)). Los fotogramas se normalizan y previsualizan a través de ResizeImagesByLongerEdge y Control Video Preview (VHS_VideoCombine (#396)) para revisiones rápidas antes del muestreo.
  • El ReservedRegionFrameComposer (#395) prepara fotogramas guía que alinean la imagen facial con el diseño de la escena, ayudando al modelo a centrarse en el área de intercambio durante el condicionamiento.

Prompt

  • Puedes describir el aspecto y la acción deseados manualmente en Manual Prompt o dejar que el gráfico componga automáticamente un "prompt" estructurado. Video Prompt (AILab_QwenVL (#400)) extrae el movimiento corporal y la escena del video mientras que Face Prompt (AILab_QwenVL (#401)) extrae detalles de identidad de la imagen facial.
  • Concat Prompts fusiona identidad y acción en una instrucción concisa, luego Select Prompt dirige ya sea tu texto manual o el "prompt" automático a CLIP Text Encode. El texto de "prompt" negativo se codifica por separado para suprimir artefactos comunes de video.

Modelo

  • El grupo Model carga el LTX 2.3 UNet o su variante GGUF, aplica el LoRA destilado y el LoRA de intercambio de cabezas, y activa los LTX VAEs y los codificadores de texto duales. La configuración de dos codificadores mejora la alineación para el contenido hablado y el bloqueo de cámara sin restringir en exceso la identidad.
  • Si estás optimizando para velocidad o memoria, cambia entre dev, destilado, solo transformador FP8 o GGUF en el selector de modelos proporcionado. No se necesita configuración adicional en RunComfy.

Muestrador

  • La primera etapa combina latentes de video y audio en LTXVConcatAVLatent (#321), luego desruida con CFGGuider (#326), LTXVScheduler (#324), y SamplerCustomAdvanced (#257). El LTXVAddGuideMulti (#392) inyecta tu guía de identidad para que la cara se establezca temprano y permanezca estable con el tiempo.
  • Después de un primer paso, LTXVSeparateAVLatent (#323) divide las corrientes para que LTXVCropGuides (#282) pueda centrar la edición alrededor de la cara. Esto concentra el cálculo donde importa y mejora la consistencia temporal.

Muestreo de Ampliación (2x)

  • LTXVLatentUpsampler (#279) aplica el ampliador espacial x2 de LTX 2.3 en el espacio latente. El latente de video ampliado luego se vuelve a unir con el latente de audio en LTXVConcatAVLatent (#287) y se refina mediante un segundo paso de SamplerCustomAdvanced (#288) guiado por CFGGuider (#284).
  • Esta estrategia de dos etapas produce piel, ojos y cabello más nítidos mientras mantiene el intercambio bloqueado a la identidad deseada.

Audio

  • El grupo Audio te permite dirigir el audio original, silencio o un segmento recortado a través de Switch Audio. Para señales de movimiento de labios más fuertes, la pista seleccionada se envía a través de MelBandRoFormerSampler (#355) para aislar voces, luego se codifica con LTXVAudioVAEEncode (#364).
  • Una máscara de ruido sólida (SetLatentNoiseMask (#365)) previene cambios no deseados impulsados por audio fuera de la región de la boca mientras sigue aprovechando el tiempo del habla para guiar expresiones.

Decodificar y exportar

  • Los fotogramas finales se reconstruyen con LTXVSpatioTemporalTiledVAEDecode (#377), que decodifica con mosaicos conscientes del tiempo para evitar costuras y mantener la continuidad del movimiento. CreateVideo (#292) multiplexa las imágenes con el audio elegido, y SaveVideo escribe el clip terminado.

Nodos clave en el flujo de trabajo Comfyui LTX-2.3-Video-Face-Swap

  • LTXVAddGuideMulti (#392). Alimenta la guía facial alineada en la corriente de condicionamiento para que el modelo se fije en la identidad objetivo desde los primeros pasos. Si la semejanza se desvía en movimientos rápidos, aumenta el número o la frecuencia de los fotogramas guía en lugar de aumentar la guía globalmente.
  • LTXVCropGuides (#282). Enfoca automáticamente la segunda pasada en la región facial derivada de los latentes y "prompts" de la primera etapa. Úsalo para ajustar el área de edición cuando los fondos o las manos compiten por atención.
  • SamplerCustomAdvanced (#257). Paso principal de desruido que establece identidad, iluminación y movimiento grueso. Combínalo con el LTXVScheduler para dar forma a los pasos y mantener la elección del muestreador estable a través de experimentos para hacer comparaciones significativas.
  • LTXVLatentUpsampler (#279). Realiza una ampliación latente 2x usando el ampliador espacial LTX antes de la refinación. Usa esto cuando necesites poros, pestañas y costuras de sombrero más nítidos sin introducir parpadeo de ampliadores de píxeles post-decodificación.
  • SamplerCustomAdvanced (#288). Paso de refinamiento después de la ampliación. Ajusta la guía moderadamente aquí para afilar características mientras preservas la identidad establecida por el primer paso.
  • LTXVSpatioTemporalTiledVAEDecode (#377). Decodificador consciente del tiempo que reduce costuras de mosaico a través de los fotogramas. Si alcanzas límites de VRAM en clips largos, prefiere ajustar su diseño de mosaico en lugar de bajar la resolución.
  • MelBandRoFormerSampler (#355). Separación vocal utilizada solo para orientación. Si el audio fuente es ruidoso, cambia a audio original o silencioso para evitar propagar artefactos en el movimiento de la boca.

Extras opcionales

  • La calidad de la imagen facial importa. Usa una foto neutra, bien iluminada, de frente o de tres cuartos a una edad y expresión similar a la actuación.
  • Mantén el video de referencia estable. Las tomas estáticas o con trípode producen los resultados más estables de LTX-2.3-Video-Face-Swap, especialmente en tomas medias y cercanas.
  • Los "prompts" deben ser concisos. Indica la escena y la acción en un solo párrafo y reserva adjetivos de identidad para el "prompt" facial, no para el "prompt" de acción.
  • La orientación de audio es opcional. El habla clara mejora las formas de la boca; las pistas solo de música proporcionan poco beneficio, así que elige silencio para enfocar el cálculo en los visuales.
  • Para ejecuciones con bajo VRAM o solo CPU, prefiere la construcción GGUF de UNet; para alto rendimiento en GPUs modernas, los pesos solo de transformador FP8 son una buena opción predeterminada.
  • Usa responsablemente. Obtén consentimiento para cualquier semejanza que intercambies y cumple con las leyes y políticas de plataforma aplicables.

Agradecimientos

Este flujo de trabajo implementa y se basa en los siguientes trabajos y recursos. Agradecemos a LTX-2.3 por el modelo LTX-2.3, y a EyeForAILabs por el tutorial de YouTube, por sus contribuciones y mantenimiento. Para detalles autorizados, por favor consulta la documentación original y los repositorios enlazados a continuación.

Recursos

  • LTX-2.3/LTX-2.3 Model
    • Hugging Face: Hugging Face Model
  • EyeForAILabs/YouTube Tutorial
    • Docs / Release Notes: EyeForAILabs YouTube Tutorial

Nota: El uso de los modelos, conjuntos de datos y código referenciados está sujeto a las respectivas licencias y términos proporcionados por sus autores y mantenedores.

Want More ComfyUI Workflows?

ReActor | Intercambio Rápido de Rostros

Herramienta profesional de intercambio de rostros para ComfyUI que permite el reemplazo y mejora natural de rostros.

Transformación de Video de Baile | Personalización de Escenas e Intercambio de Rostros

Transforma videos de baile con edición de escenas, intercambio de rostros y preservación del movimiento.

LivePortrait | Animate Portraits | Vid2Vid

Actualizado el 16/6/2025: La versión de ComfyUI se actualizó a v0.3.39 para mejorar la estabilidad y compatibilidad. Transfiere expresiones faciales y movimientos de un video de conducción a un video fuente.

DreamID-Omni | Creador de Video Hablante a partir de Foto

Convierte fotos en videos hablantes ultrarrealistas en segundos.

InfiniteTalk | Generador de Avatares Sincronizados con Labios

Foto + Voz = Avatar Hablante Perfectamente Sincronizado en Minutos

Qwen Edit 2509 Restauración de Luz | Herramienta de Relighting de Fotos

Arregla la mala iluminación rápidamente para obtener fotos perfectas, limpias y equilibradas cada vez.

Wan 2.2 VBVR en ComfyUI | Razonamiento Basado en Video

Crea videos inteligentes y consistentes con lógica y estructura de escena real.

LTX Video | De Imagen+Texto a Video

Genera videos a partir de indicaciones de imagen+texto.

Síguenos
  • LinkedIn
  • Facebook
  • Instagram
  • Twitter
Soporte
  • Discord
  • Correo electrónico
  • Estado del sistema
  • afiliado
Recursos
  • ComfyUI en línea gratis
  • Guías de ComfyUI
  • RunComfy API
  • Tutoriales de ComfyUI
  • Nodos de ComfyUI
  • Aprende más
Legal
  • Términos de servicio
  • Política de privacidad
  • Política de cookies
RunComfy
Derechos de autor 2026 RunComfy. Todos los derechos reservados.

RunComfy es la principal ComfyUI plataforma, ofreciendo ComfyUI en línea entorno y servicios, junto con flujos de trabajo de ComfyUI con impresionantes imágenes. RunComfy también ofrece AI Models, permitiendo a los artistas aprovechar las últimas herramientas de AI para crear arte increíble.