logo
RunComfy
  • ComfyUI
  • EntrenadorNuevo
  • Modelos
  • API
  • Precios
discord logo
ComfyUI>Flujos de trabajo>ComfyUI Vid2Vid Dance Transfer

ComfyUI Vid2Vid Dance Transfer

Workflow Name: RunComfy/Restyle-Vid2Vid-Dance
Workflow ID: 0000...1124
Con este flujo de trabajo ComfyUI Vid2Vid Dance Transfer, puedes estilizar y transformar fácilmente videos reales en animaciones cautivadoras. Este flujo de trabajo transfiere el movimiento y el estilo de un video fuente a una imagen u objeto objetivo, creando resultados impresionantes. El tutorial cubre aspectos esenciales como la preparación de video y máscara, la configuración de la imagen objetivo, la transferencia de movimiento usando AnimateDiff, la guía de ControlNet y la generación de fotogramas de salida.

ComfyUI Vid2Vid Dance Transfer es un poderoso flujo de trabajo ComfyUI Vid2Vid que permite a los usuarios estilizar y transformar videos reales en varios objetos o elementos. Con este flujo de trabajo, puedes crear animaciones de video impresionantes transfiriendo el movimiento y el estilo de un video fuente a una imagen u objeto objetivo. Este tutorial te guiará a través de los componentes y configuraciones clave necesarios para lograr los mejores resultados.

Crédito

Gracias a MDMZ y DP por sus increíbles contribuciones en la creación de este flujo de trabajo. MDMZ compartió su flujo de trabajo ComfyUI Vid2Vid Dance Transfer a través de su tutorial de YouTube Transform Videos with AI: Dancing Noodles Step-by-Step Tutorial, que se basa en el flujo de trabajo original de DP DP's - Vid2Vid AniamteDiff LCM dance transfer.

1. ¿Qué hace el flujo de trabajo ComfyUI Vid2Vid Dance Transfer?

El flujo de trabajo ComfyUI Vid2Vid Dance Transfer te permite tomar un video real y transformarlo en una animación estilizada. Transfiere el movimiento y los pasos de baile del video fuente a una imagen u objeto objetivo de tu elección.

2. Componentes clave del flujo de trabajo ComfyUI Vid2Vid

2.1 Cargar video y crear máscara

  • El flujo de trabajo ComfyUI Vid2Vid comienza con el componente VHS_LoadVideo, donde cargas el video fuente que contiene los pasos de baile que deseas transferir.
  • El componente LayerMask: RemBgUltra se utiliza para eliminar el fondo de los fotogramas del video y crear una máscara en blanco y negro del sujeto. Esta máscara es crucial para identificar y transferir correctamente el movimiento.
  • Los componentes ImageToMask y MaskToImage convierten entre formatos de imagen y máscara según sea necesario en el flujo de trabajo ComfyUI Vid2Vid.
  • 🌟 Consejos importantes: La plataforma RunComfy ha precargado el "modelo RemBgultra" requerido para el nodo "Layer Style". Si has instalado los nodos "Layer Style" tú mismo, por favor elimina el archivo "Layer Style" de tu navegador de archivos privado para evitar conflictos. Una vez que elimines tu archivo "Layer Style", el flujo de trabajo utilizará la precarga de RunComfy y funcionará sin problemas.
    ComfyUI Vid2Vid Workflow

2.2 Configuración de la imagen objetivo con IPAdapter

  • Los componentes IPAdapterAdvanced se utilizan para cargar y configurar la imagen u objeto objetivo que recibirá la transferencia de baile ComfyUI Vid2Vid. Puedes cargar la imagen objetivo usando el nodo LoadImage, y cargar la imagen de fondo objetivo usando el nodo LoadBgImage.
  • El IPAdapterUnifiedLoader se utiliza para cargar el IPAdapter, que determina la fuerza de la influencia de la imagen objetivo en la salida.
    ComfyUI Vid2Vid Workflow

2.3 Aplicación de AnimateDiff para la transferencia de movimiento

  • El núcleo de la transferencia de baile ComfyUI Vid2Vid está impulsado por el AnimateDiff Latent Condition Model (LCM). Esto se carga usando el componente ADE_LoadAnimateDiffModel en ComfyUI Vid2Vid.
  • Componentes adicionales como ADE_AnimateDiffSamplingSettings, ADE_LoopedUniformContextOptions y ADE_ApplyAnimateDiffModelSimple se utilizan para configurar los ajustes de muestreo, opciones de contexto y aplicar el modelo AnimateDiff respectivamente en ComfyUI Vid2Vid.
  • El componente ADE_UseEvolvedSampling se utiliza para seleccionar el método de muestreo apropiado para el modelo AnimateDiff en ComfyUI Vid2Vid.
    ComfyUI Vid2Vid Workflow

2.4 Guiar la salida con ControlNet

  • ControlNet se utiliza para guiar y definir la forma y el contorno del sujeto en la animación de salida.
  • Los componentes ControlNetLoaderAdvanced se utilizan para cargar los modelos ControlNet. Este flujo de trabajo utiliza dos modelos ControlNet: QR Code Monster y Lineart.
  • Los componentes ControlNet Stacker se utilizan para apilar y combinar las salidas de ControlNet con fortalezas ajustables en ComfyUI Vid2Vid Transfer.
    ComfyUI Vid2Vid Workflow

2.5 Generación de fotogramas de salida con KSampler

  • Los componentes KSampler (Efficient) en ComfyUI Vid2Vid son responsables de generar los fotogramas de salida basados en todas las configuraciones e insumos proporcionados.
  • El componente principal KSampler procesa los fotogramas del video para crear la vista previa de la animación. Toma el modelo AnimateDiff, las salidas de IPAdapter, la pila de ControlNet y otras configuraciones como insumos.
  • El segundo componente KSampler se utiliza para escalar y reducir el ruido de los fotogramas de salida de ComfyUI Vid2Vid.
    ComfyUI Vid2Vid Workflow

2.6 Escalar si es necesario

  • El componente ImageScaleBy se utiliza para aumentar la resolución de los fotogramas de salida. El componente ImageUpscaleWithModel se utiliza para escalar aún más los fotogramas usando un modelo de escalado elegido. El flujo de trabajo predetermina la desactivación de los componentes de escalado. Si lo necesitas, habilita estos componentes para obtener un mejor resultado.
    ComfyUI Vid2Vid Workflow

Want More ComfyUI Workflows?

AnimateDiff + QR Code ControlNet | Efectos Visuales (VFX)

Cree cautivadores efectos visuales con AnimateDiff y ControlNet (con QRCode Monster y Lineart).

Inferencia de Stable Diffusion 1.5 LoRA | AI Toolkit ComfyUI

Ejecuta LoRAs de Stable Diffusion 1.5 entrenadas con AI Toolkit en ComfyUI con un comportamiento coincidente con el entrenamiento usando un solo nodo personalizado RCSD15.

Flux TTP Upscale | Restauración de Caras 4K

Repara caras distorsionadas y mejora la resolución de imágenes a 4K.

AnimateLCM | Acelera de texto a video

Acelera tu animación de texto a video usando el flujo de trabajo ComfyUI AnimateLCM.

Flux PuLID para Intercambio de Rostros

Flux PuLID para Intercambio de Rostros

Lleva tus proyectos de intercambio de rostros a nuevos niveles con Flux PuLID.

Animación Controlable en AI Video | Herramienta de Control de Movimiento

Haz que los videos obedezcan tus reglas de movimiento al instante y con precisión.

Wan 2.1 Control LoRA | Profundidad y Mosaico

Avanza la generación de video Wan 2.1 con LoRAs de profundidad y mosaico ligeros para mejorar la estructura y el detalle.

Wan 2.2 Qwen Multiangle Split Stack | Generador de Video Multi-View

Convierte una imagen en videos animados sincronizados de múltiples ángulos rápidamente.

Síguenos
  • LinkedIn
  • Facebook
  • Instagram
  • Twitter
Soporte
  • Discord
  • Correo electrónico
  • Estado del sistema
  • afiliado
Recursos
  • ComfyUI en línea gratis
  • Guías de ComfyUI
  • RunComfy API
  • Tutoriales de ComfyUI
  • Nodos de ComfyUI
  • Aprende más
Legal
  • Términos de servicio
  • Política de privacidad
  • Política de cookies
RunComfy
Derechos de autor 2026 RunComfy. Todos los derechos reservados.

RunComfy es la principal ComfyUI plataforma, ofreciendo ComfyUI en línea entorno y servicios, junto con flujos de trabajo de ComfyUI con impresionantes imágenes. RunComfy también ofrece AI Models, permitiendo a los artistas aprovechar las últimas herramientas de AI para crear arte increíble.