Wan Alpha ist ein speziell entwickelter ComfyUI-Workflow, der Videos mit einem nativen Alpha-Kanal unter Verwendung der Wan 2.1-Familie erzeugt. Es produziert gemeinsam RGB und Alpha, sodass Charaktere, Requisiten und Effekte direkt in Timelines eingefügt werden können, ohne dass Keying oder Rotoscoping erforderlich ist. Für VFX, Motion Graphics und interaktive Apps liefert Wan Alpha saubere Kanten, halbtransparente Effekte und frame-genaue Masken, die bereit für die Produktion sind.
Basierend auf Wan2.1‑T2V‑14B und einem Alpha-bewussten VAE-Paar balanciert Wan Alpha Treue und Geschwindigkeit. Die optionale LightX2V LoRA-Beschleunigung verkürzt das Sampling bei gleichzeitiger Erhaltung der Details, und der Workflow exportiert RGBA-Frame-Sequenzen plus eine animierte WebP-Vorschau zur schnellen Überprüfung.
Dieser ComfyUI-Graph folgt einem einfachen Pfad von der Eingabeaufforderung zu RGBA-Frames: Modelle laden, Text codieren, ein Video-Latent zuweisen, sampeln, RGB und Alpha im Gleichschritt dekodieren und dann speichern.
Model- und LoRA-Laden
Load Wan 2.1 t2v 14B
(#37), um das Basismodell zu laden. Wenn Sie Beschleunigung oder Stilverfeinerungen verwenden, wenden Sie diese in der Reihenfolge mit LoraLoaderModelOnly
(#59) und LoraLoaderModelOnly
(#65) an. Das Modell durchläuft dann ModelSamplingSD3
(#48), das einen mit dem geladenen Checkpoint kompatiblen Sampler konfiguriert. Dieser Stack definiert den Bewegungsprior und den Renderstil, den Wan Alpha in späteren Schritten verfeinern wird.Eingabeaufforderungscodierung
Load Text Encoder
(#38) lädt den UMT5‑XXL-Text-Encoder. Geben Sie Ihre Beschreibung in CLIP Text Encode (Positive Prompt)
(#6) ein; halten Sie Ihr Thema, Aktion, Kameraführung und den Ausdruck "transparenter Hintergrund" prägnant. Verwenden Sie CLIP Text Encode (Negative Prompt) Useless s
(#7), um gegebenenfalls Halos oder Hintergrundgeräusche zu vermeiden. Diese Codierungen bedingen sowohl die RGB- als auch die Alpha-Generierung, sodass Kanten und Transparenzhinweise Ihrer Absicht folgen.Videoleinwand-Setup
EmptyHunyuanLatentVideo
(#40), um die latente Videoleinwand zu definieren. Stellen Sie width
, height
, frames
und fps
ein, um Ihren Shot anzupassen; höhere Auflösungen oder längere Clips erfordern mehr Speicher. Dieser Knoten weist ein zeitlich konsistentes latentes Volumen zu, das Wan Alpha mit Bewegung und Erscheinung füllen wird. Erwägen Sie, die Dauer und Bildrate an Ihren Schnitt anzupassen, um späteres Resampling zu vermeiden.Erzeugung
KSampler
(#3) führt die Diffusion auf dem latenten Video unter Verwendung Ihres Modellstapels und der Eingabeaufforderungskonditionierung durch. Passen Sie seed
für Variationen an und wählen Sie einen sampler
und scheduler
, die Geschwindigkeit und Detail ausbalancieren. Wenn die LightX2V LoRA aktiv ist, können Sie weniger Schritte für schnellere Renderings verwenden, während die Stabilität erhalten bleibt. Der Output ist ein einzelner latenter Stream, der von der nächsten Dekodierungsstufe geteilt wird, um perfekte RGBA-Ausrichtung zu gewährleisten.Dekodierung von RGB und Alpha
RGB VAE Decode
(#8) arbeitet mit VAELoader
(#39) zusammen, um RGB-Frames zu rekonstruieren. Parallel dazu arbeitet Alpha VAE Decode
(#52) mit VAELoader
(#51) zusammen, um den Alpha-Kanal zu rekonstruieren. Beide Decoder lesen das gleiche Latent, sodass die Matte genau mit den Farb-Pixeln übereinstimmt, eine Kernidee im Design von Wan‑Alpha für konsistente Transparenz. Dieses Zwei-Wege-Dekodieren macht Wan Alpha bereit für direktes Compositing.Speichern und Vorschau
SavePNGZIP_and_Preview_RGBA_AnimatedWEBP
(#73) schreibt zwei Ausgaben: ein Zip-Archiv von RGBA-PNG-Frames und eine kompakte animierte WebP-Vorschau. Die Frame-Sequenz ist produktionstauglich für NLEs und Compositoren, während die Vorschau die Überprüfungen beschleunigt. Benennen Sie Ihr Output-Set, wählen Sie eine Vorschau-Länge und -Qualität und führen Sie den Knoten aus, um Ihr Ergebnis zu verpacken.EmptyHunyuanLatentVideo
(#40)
width
, height
, frames
und fps
an die Auslieferung an. Größere Leinwände und längere Dauer erhöhen den VRAM-Bedarf; erwägen Sie kürzere Entwürfe für die Look-Entwicklung und skalieren Sie dann für die endgültigen Ergebnisse.KSampler
(#3)
seed
für Erkundungen an, steps
zum Abwägen von Geschwindigkeit und Detail, sampler
und scheduler
für Stabilität und cfg
, um Eingabeaufforderungskonformität mit natürlicher Bewegung auszubalancieren. Mit LightX2V LoRA aktiv können Sie steps
erheblich reduzieren, während die Qualität dank Schritt-Destillation erhalten bleibt. Siehe LightX2V für Kontext zu schnellem Sampling. ModelTC/LightX2VLoraLoaderModelOnly
(#59)
strength
-Steuerung, um ihren Effekt zu mischen, wenn Sie Überschärfung oder Tempoartefakte sehen. Halten Sie diese LoRA am nächsten zum Basismodell in der Kette, damit nachgelagerte LoRAs von ihren Geschwindigkeitsvorteilen profitieren.LoraLoaderModelOnly
(#65)
strength
, um zu vermeiden, dass die Bewegungskoherenz übermächtig wird; kombinieren Sie sie mit Ihrer Eingabeaufforderung, anstatt sie zu ersetzen. Wenn Artefakte auftreten, senken Sie diese LoRA, bevor Sie den Sampler ändern.VAELoader
(#39) RGB
RGB VAE Decode
(#8) verwendet wird. Halten Sie dies mit dem Wan‑Alpha-Alpha-VAE gepaart, um sicherzustellen, dass beide Decoder Latents kohärent interpretieren. Der Wechsel zu nicht verwandten VAEs kann Kanten falsch ausrichten oder Transparenz weicher machen. Hintergrundinformationen zum gemeinsamen RGB-Alpha-Design finden Sie im Wan‑Alpha-Bericht. Wan‑Alpha (arXiv)VAELoader
(#51) Alpha
Alpha VAE Decode
(#52) verwendet wird. Es rekonstruiert die Matte aus demselben latenten Raum wie RGB, sodass Transparenz Bewegung und Detail entspricht. Wenn Sie VAEs anpassen, testen Sie, ob RGB und Alpha weiterhin an subpixelgenauen Kanten wie Haaren ausgerichtet sind.SavePNGZIP_and_Preview_RGBA_AnimatedWEBP
(#73)
output_name
für die Versionierung, wählen Sie eine Vorschauqualität und Bildrate, die den erzeugten Clip widerspiegeln, und behalten Sie den PNG-Export als Ihr Master für verlustfreies Compositing. Vermeiden Sie das Ändern der Größe zwischen Dekodierung und Speichern, um die Kantentreue zu erhalten.Verwendete Ressourcen in Wan Alpha
Dieser Workflow implementiert und baut auf den folgenden Arbeiten und Ressourcen auf. Wir danken WeChatCV für Wan-Alpha für ihre Beiträge und Wartung. Für autoritative Details verweisen wir auf die ursprüngliche Dokumentation und die unten verlinkten Repositories.
Hinweis: Die Verwendung der referenzierten Modelle, Datensätze und Codes unterliegt den jeweiligen Lizenzen und Bedingungen der Autoren und Verwalter.
RunComfy ist die führende ComfyUI Plattform, die ComfyUI online Umgebung und Services bietet, zusammen mit ComfyUI Workflows mit atemberaubenden Visualisierungen. RunComfy bietet auch AI-Spielplatz, Künstlern ermöglichen, die neuesten AI-Tools zu nutzen, um unglaubliche Kunst zu schaffen.