logo
RunComfy
ComfyUIPlaygroundPricing
discord logo
ComfyUI>Workflow>Wan Alpha | Generatore di Video Trasparenti

Wan Alpha | Generatore di Video Trasparenti

Workflow Name: RunComfy/Wan-Alpha
Workflow ID: 0000...1295
Questo workflow ti aiuta a generare clip video di alta qualità con trasparenza integrata, eliminando la necessità di mascherature manuali o rimozione di green screen. Puoi facilmente posizionare personaggi, oggetti o elementi animati su qualsiasi sfondo a tua scelta. Il suo output è altamente flessibile, rendendolo perfetto per lavori di VFX, motion graphics e compositing. Risparmierai tempo e semplificherai il tuo processo creativo lavorando con asset video trasparenti pronti all'uso. Progettato per professionisti, garantisce un'integrazione senza soluzione di continuità nei pipeline di design esistenti. Basato sul modello Wan 2.1, offre fedeltà e precisione con ogni render.

Wan Alpha: testo-a-video trasparente per compositing professionale

Wan Alpha è un workflow ComfyUI appositamente costruito che genera video con un canale alpha nativo utilizzando la famiglia Wan 2.1. Produce congiuntamente RGB e alpha così che personaggi, oggetti di scena ed effetti si inseriscano direttamente nelle timeline senza chiave o rotoscoping. Per VFX, motion graphics e app interattive, Wan Alpha offre bordi puliti, effetti semi-trasparenti e maschere precise pronte per la produzione.

Costruito attorno a Wan2.1‑T2V‑14B e a un paio di VAE consapevoli dell'alpha, Wan Alpha bilancia fedeltà e velocità. L'accelerazione opzionale LightX2V LoRA riduce il campionamento pur preservando i dettagli, e il workflow esporta sequenze di frame RGBA più un'anteprima animata WebP per una revisione rapida.

Modelli chiave nel workflow Comfyui Wan Alpha

  • Wan2.1‑T2V‑14B. Modello di base testo-a-video che guida la struttura della scena, il movimento e la qualità del rendering. I pesi e il codice ufficiali sono mantenuti nell'organizzazione Wan-Video su GitHub. Wan-Video/Wan2.1
  • UMT5‑XXL text encoder. Encoder multilingue utilizzato per tokenizzare e incorporare prompt per i modelli Wan, abilitando una fraseologia ricca di prompt in più lingue. google/umt5-xxl e UMT5 docs
  • Coppia Wan‑Alpha VAE. Un design VAE che apprende RGB e alpha congiuntamente così che l'alpha decodificato si allinei pixel per pixel con RGB, supportando bordi sottili e semi-trasparenza. Vedi il rapporto tecnico Wan‑Alpha per maggiori informazioni. Wan‑Alpha (arXiv)
  • LightX2V LoRA. LoRA di accelerazione opzionale che distilla lunghi campionatori in pochi passaggi per un testo-a-video più veloce mantenendo la qualità percettiva. ModelTC/LightX2V

Come usare il workflow Comfyui Wan Alpha

Questo grafico ComfyUI segue un percorso semplice dal prompt ai frame RGBA: carica modelli, codifica testo, alloca un video latente, campiona, decodifica RGB e alpha in sincronia, quindi salva.

Caricamento di modelli e LoRA

  • Inizia da Load Wan 2.1 t2v 14B (#37) per portare nel modello base. Se utilizzi accelerazioni o affinamenti di stile, applicali con LoraLoaderModelOnly (#59) e LoraLoaderModelOnly (#65) in sequenza. Il modello passa quindi attraverso ModelSamplingSD3 (#48), che configura un campionatore compatibile con il checkpoint caricato. Questo stack definisce il moto e lo stile di rendering che Wan Alpha affinerà nei passaggi successivi.

Codifica del prompt

  • Load Text Encoder (#38) carica l'encoder di testo UMT5‑XXL. Inserisci la tua descrizione in CLIP Text Encode (Positive Prompt) (#6); mantieni il tuo soggetto, azione, inquadratura e la frase "sfondo trasparente" concise. Usa CLIP Text Encode (Negative Prompt) Useless s (#7) per evitare aloni o ingombri di sfondo se necessario. Queste codifiche condizionano sia la generazione di RGB che di alpha affinché i bordi e gli indizi di trasparenza seguano la tua intenzione.

Impostazione della tela video

  • Usa EmptyHunyuanLatentVideo (#40) per definire la tela video latente. Imposta width, height, frames e fps per adattarsi al tuo scatto; risoluzioni più alte o clip più lunghe richiedono più memoria. Questo nodo alloca un volume latente temporalmente coerente che Wan Alpha riempirà di movimento e aspetto. Considera di abbinare durata e frame rate al tuo montaggio per evitare il ricampionamento successivo.

Generazione

  • Il KSampler (#3) esegue la diffusione sul video latente utilizzando il tuo stack di modelli e la codifica del prompt. Regola il seed per le variazioni e seleziona un sampler e un scheduler che bilanciano velocità e dettaglio. Quando il LightX2V LoRA è attivo, puoi usare meno passaggi per rendering più veloci mantenendo la stabilità. L'output è un unico flusso latente condiviso dalla fase di decodifica successiva per garantire l'allineamento perfetto RGBA.

Decodifica RGB e alpha

  • RGB VAE Decode (#8) si accoppia con VAELoader (#39) per ricostruire i frame RGB. In parallelo, Alpha VAE Decode (#52) si accoppia con VAELoader (#51) per ricostruire il canale alpha. Entrambi i decoder leggono lo stesso latente così che il matte si allinei esattamente con i pixel di colore, un'idea centrale nel design di Wan‑Alpha per una trasparenza coerente. Questa decodifica a doppio percorso è ciò che rende Wan Alpha pronto per il compositing diretto.

Salvataggio e anteprima

  • SavePNGZIP_and_Preview_RGBA_AnimatedWEBP (#73) scrive due deliverables: un archivio zip di frame PNG RGBA e un'anteprima animata WebP compatta. La sequenza di frame è amichevole per la produzione per NLE e compositori, mentre l'anteprima accelera le revisioni. Nomina il tuo set di output, scegli una lunghezza e qualità di anteprima, e esegui il nodo per confezionare il tuo risultato.

Nodi chiave nel workflow Comfyui Wan Alpha

EmptyHunyuanLatentVideo (#40)

  • Ruolo: definisce la risoluzione spaziale e temporale del clip generato. Sintonizza width, height, frames e fps per adattarsi alla consegna. Tele più grandi e durate più lunghe aumentano le necessità di VRAM; considera bozze più brevi per lo sviluppo dell'aspetto, quindi scala per i finali.

KSampler (#3)

  • Ruolo: il principale denoiser per Wan Alpha. Regola seed per esplorazioni, steps per scambiare velocità per dettaglio, sampler e scheduler per stabilità, e cfg per bilanciare l'adesione al prompt con il movimento naturale. Con il LightX2V LoRA attivo, puoi ridurre significativamente steps preservando la qualità grazie alla distillazione dei passaggi. Vedi LightX2V per il contesto sul campionamento veloce. ModelTC/LightX2V

LoraLoaderModelOnly (#59)

  • Ruolo: carica il LightX2V LoRA che accelera il campionamento Wan2.1. Usa il controllo strength per mescolare il suo effetto se vedi sovraffilature o artefatti di tempo. Mantieni questo LoRA più vicino al modello base nella catena così che i LoRA a valle ereditino i suoi benefici di velocità.

LoraLoaderModelOnly (#65)

  • Ruolo: carica un LoRA aggiuntivo per il raffinamento di stile o dominio. Modera strength per evitare di sovrastare la coerenza del movimento; combina con il tuo prompt piuttosto che sostituirlo. Se appaiono artefatti, abbassa questo LoRA prima di cambiare il campionatore.

VAELoader (#39) RGB

  • Ruolo: fornisce il VAE RGB utilizzato da RGB VAE Decode (#8). Mantieni questo accoppiato con il VAE alpha Wan‑Alpha per garantire che entrambi i decoder interpretino i latenti in modo coerente. Cambiare a VAE non correlati può disallineare i bordi o ammorbidire la trasparenza. Il background sul design congiunto RGB–alpha è nel rapporto Wan‑Alpha. Wan‑Alpha (arXiv)

VAELoader (#51) Alpha

  • Ruolo: fornisce il VAE alpha utilizzato da Alpha VAE Decode (#52). Ricostruisce il matte dallo stesso spazio latente di RGB così che la trasparenza corrisponda a movimento e dettaglio. Se personalizzi i VAE, testa che RGB e alpha si allineino ancora su bordi subpixel come i capelli.

SavePNGZIP_and_Preview_RGBA_AnimatedWEBP (#73)

  • Ruolo: esporta asset. Imposta un chiaro output_name per il versioning, scegli qualità e frame rate dell'anteprima che riflettano il clip generato e mantieni l'esportazione PNG come tuo master per il compositing senza perdita. Evita di ridimensionare tra decodifica e salvataggio per preservare la fedeltà dei bordi.

Extra opzionali

  • I prompt forti per Wan Alpha descrivono esplicitamente soggetto, azione, camera, illuminazione e "sfondo trasparente." Aggiungi materiali sottili come "capelli sottili" o "vetro" per esercitare il dettaglio dell'alpha.
  • Per iterazioni rapide, usa durate più brevi o frame rate più bassi, quindi aumenta le impostazioni una volta bloccato l'aspetto e il movimento.
  • Se vedi aloni, aggiungi negativi come "sfondo, contorno, green screen, bordo bianco" e mantieni l'illuminazione coerente nel prompt.
  • Quando combini più LoRA, posiziona i LoRA di accelerazione prima e i LoRA stilistici dopo, e mantieni le intensità modeste per mantenere il realismo del movimento.
  • Importa la sequenza PNG RGBA direttamente nel tuo compositore; usa il WebP animato solo per le anteprime, non come master.

Risorse utilizzate in Wan Alpha

  • Famiglia di modelli e codice Wan2.1: Wan-Video/Wan2.1
  • UMT5 text encoder: google/umt5-xxl e UMT5 docs
  • Panoramica del metodo Wan‑Alpha: Wan‑Alpha (arXiv)
  • Accelerazione LightX2V: ModelTC/LightX2V

Riconoscimenti

Questo workflow implementa e si basa sui seguenti lavori e risorse. Ringraziamo con gratitudine WeChatCV per Wan-Alpha per i loro contributi e la manutenzione. Per dettagli autorevoli, si prega di fare riferimento alla documentazione originale e ai repository collegati di seguito.

Risorse

  • WeChatCV/Wan-Alpha
    • GitHub: WeChatCV/Wan-Alpha

Nota: L'uso dei modelli, dataset e codice di riferimento è soggetto alle rispettive licenze e termini forniti dai loro autori e manutentori.

Want More ComfyUI Workflows?

Wan 2.1 Control LoRA | Profondità e Tile

Avanza la generazione video Wan 2.1 con LoRA di profondità e tile leggeri per una struttura e dettagli migliorati.

Wan 2.1 Video Restyle | Trasformazione Consistente dello Stile Video

Trasforma lo stile del tuo video applicando il primo fotogramma restilizzato utilizzando il flusso di lavoro Wan 2.1 video restyle.

Wan 2.1 LoRA

Migliora la generazione video Wan 2.1 con modelli LoRA per uno stile e una personalizzazione avanzati.

Wan 2.1 | Generazione Video Rivoluzionaria

Crea video incredibili da testo o immagini con l'innovativa AI che funziona su CPU di tutti i giorni.

PuLID Flux II | Generazione Coerente di Personaggi

Genera immagini con un controllo preciso dei personaggi preservando lo stile artistico.

LBM Relighting | I2I

Illumina nuovamente i soggetti utilizzando input di illuminazione basati su immagini con LBM.

Sonic | Animazione Lip-Sync per Ritratti

Sonic offre un lip-sync avanzato guidato dall'audio per ritratti con animazioni di alta qualità.

Era3D | ComfyUI 3D Pack

Era3D | ComfyUI 3D Pack

Genera contenuti 3D, da immagini multi-vista a mesh dettagliati.

Seguici
  • LinkedIn
  • Facebook
  • Instagram
  • Twitter
Supporto
  • Discord
  • Email
  • Stato del Sistema
  • affiliato
Risorse
  • ComfyUI Online Gratuito
  • Guide di ComfyUI
  • RunComfy API
  • Tutorial ComfyUI
  • Nodi ComfyUI
  • Scopri di Più
Legale
  • Termini di Servizio
  • Informativa sulla Privacy
  • Informativa sui Cookie
RunComfy
Copyright 2025 RunComfy. Tutti i Diritti Riservati.

RunComfy è la piattaforma principale ComfyUI che offre ComfyUI online ambiente e servizi, insieme a workflow di ComfyUI con visuali mozzafiato. RunComfy offre anche AI Playground, consentire agli artisti di sfruttare gli ultimi strumenti di AI per creare arte incredibile.