Wan Alpha es un flujo de trabajo de ComfyUI diseñado específicamente para generar videos con un canal alfa nativo usando la familia Wan 2.1. Produce conjuntamente RGB y alfa para que personajes, accesorios y efectos se integren directamente en las líneas de tiempo sin necesidad de keying o rotoscopía. Para VFX, gráficos en movimiento y aplicaciones interactivas, Wan Alpha ofrece bordes limpios, efectos semitransparentes y máscaras precisas listas para producción.
Construido alrededor de Wan2.1‑T2V‑14B y un par de VAE consciente del alfa, Wan Alpha equilibra fidelidad y velocidad. La aceleración opcional LightX2V LoRA acorta el muestreo mientras preserva el detalle, y el flujo de trabajo exporta secuencias de cuadros RGBA más una vista previa animada en WebP para una revisión rápida.
Este gráfico de ComfyUI sigue un camino directo desde la indicación hasta los cuadros RGBA: carga modelos, codifica texto, asigna un video latente, muestrea, decodifica RGB y alfa en sincronía, luego guarda.
Carga de modelo y LoRA
Load Wan 2.1 t2v 14B
(#37) para incorporar el modelo base. Si usas aceleración o refinamientos de estilo, aplícalos con LoraLoaderModelOnly
(#59) y LoraLoaderModelOnly
(#65) en secuencia. El modelo luego pasa por ModelSamplingSD3
(#48), que configura un muestreador compatible con el punto de control cargado. Esta pila define el movimiento previo y el estilo de renderizado que Wan Alpha refinará en pasos posteriores.Codificación de indicaciones
Load Text Encoder
(#38) carga el codificador de texto UMT5‑XXL. Ingresa tu descripción en CLIP Text Encode (Positive Prompt)
(#6); mantén conciso tu sujeto, acción, encuadre de cámara y la frase "fondo transparente". Usa CLIP Text Encode (Negative Prompt) Useless s
(#7) para evitar halos o desorden de fondo si es necesario. Estas codificaciones condicionan tanto la generación de RGB como de alfa para que los bordes y las señales de transparencia sigan tu intención.Configuración de lienzo de video
EmptyHunyuanLatentVideo
(#40) para definir el lienzo de video latente. Establece width
, height
, frames
y fps
para ajustar tu toma; resoluciones más altas o clips más largos requieren más memoria. Este nodo asigna un volumen latente temporalmente consistente que Wan Alpha llenará con movimiento y apariencia. Considera igualar la duración y la tasa de cuadros a tu edición para evitar re-muestreo más tarde.Generación
KSampler
(#3) realiza la difusión en el video latente usando tu pila de modelos y condicionamiento de indicaciones. Ajusta seed
para variaciones, y selecciona un sampler
y scheduler
que equilibren velocidad y detalle. Cuando LightX2V LoRA está activo, puedes usar menos pasos para renderizados más rápidos mientras mantienes la estabilidad. La salida es una sola secuencia latente compartida por la siguiente etapa de decodificación para garantizar una alineación perfecta de RGBA.Decodificación de RGB y alfa
RGB VAE Decode
(#8) se empareja con VAELoader
(#39) para reconstruir cuadros RGB. En paralelo, Alpha VAE Decode
(#52) se empareja con VAELoader
(#51) para reconstruir el canal alfa. Ambos decodificadores leen el mismo latente para que el mate se alinee exactamente con los píxeles de color, una idea central en el diseño de Wan‑Alpha para una transparencia consistente. Esta decodificación de doble camino es lo que hace que Wan Alpha esté listo para la composición directa.Guardado y vista previa
SavePNGZIP_and_Preview_RGBA_AnimatedWEBP
(#73) escribe dos entregables: un archivo zip de cuadros PNG RGBA y una vista previa animada compacta en WebP. La secuencia de cuadros es amigable para producción en NLEs y compositores, mientras que la vista previa acelera las revisiones. Nombra tu conjunto de salida, elige una longitud y calidad de vista previa, y ejecuta el nodo para empaquetar tu resultado.EmptyHunyuanLatentVideo
(#40)
width
, height
, frames
, y fps
para coincidir con la entrega. Los lienzos más grandes y las duraciones más largas aumentan las necesidades de VRAM; considera borradores más cortos para el desarrollo de la apariencia, luego escala para los finales.KSampler
(#3)
seed
para exploraciones, steps
para intercambiar velocidad por detalle, sampler
y scheduler
para estabilidad, y cfg
para equilibrar la adherencia a las indicaciones con el movimiento natural. Con LightX2V LoRA activo, puedes reducir significativamente los steps
mientras preservas la calidad gracias a la destilación de pasos. Consulta LightX2V para contexto sobre el muestreo rápido. ModelTC/LightX2VLoraLoaderModelOnly
(#59)
strength
para mezclar su efecto si notas sobreafilado o artefactos de tempo. Mantén este LoRA más cercano al modelo base en la cadena para que los LoRAs posteriores hereden sus beneficios de velocidad.LoraLoaderModelOnly
(#65)
strength
para evitar dominar la coherencia del movimiento; combina con tu indicación en lugar de reemplazarla. Si aparecen artefactos, reduce este LoRA antes de cambiar el muestreador.VAELoader
(#39) RGB
RGB VAE Decode
(#8). Mantén esto emparejado con el VAE alfa Wan‑Alpha para asegurar que ambos decodificadores interpreten coherentemente los latentes. Cambiar a VAEs no relacionados puede desalinear bordes o suavizar la transparencia. Antecedentes sobre el diseño conjunto RGB–alfa están en el informe Wan‑Alpha. Wan‑Alpha (arXiv)VAELoader
(#51) Alfa
Alpha VAE Decode
(#52). Reconstruye el mate desde el mismo espacio latente que RGB para que la transparencia coincida con el movimiento y el detalle. Si personalizas VAEs, prueba que RGB y alfa aún se alineen en bordes subpíxel como el cabello.SavePNGZIP_and_Preview_RGBA_AnimatedWEBP
(#73)
output_name
claro para la versionación, elige calidad de vista previa y tasa de cuadros que reflejen el clip generado, y mantén la exportación PNG como tu maestro para composición sin pérdidas. Evita cambiar de tamaño entre decodificar y guardar para preservar la fidelidad de los bordes.Recursos utilizados en Wan Alpha
Este flujo de trabajo implementa y se basa en los siguientes trabajos y recursos. Agradecemos a WeChatCV por Wan-Alpha por sus contribuciones y mantenimiento. Para detalles autorizados, consulte la documentación original y los repositorios enlazados a continuación.
Nota: El uso de los modelos, conjuntos de datos y código referenciados está sujeto a las licencias y términos respectivos proporcionados por sus autores y mantenedores.
RunComfy es la principal ComfyUI plataforma, ofreciendo ComfyUI en línea entorno y servicios, junto con flujos de trabajo de ComfyUI con impresionantes imágenes. RunComfy también ofrece AI Playground, permitiendo a los artistas aprovechar las últimas herramientas de AI para crear arte increíble.