logo
RunComfy
ComfyUIPlaygroundPricing
discord logo
Loading...
ComfyUI>Workflow>Genera INTERI MONDI AI Costruttore di Scene Video

Genera INTERI MONDI AI Costruttore di Scene Video

Workflow Name: RunComfy/Generate-ENTIRE-AI-WORLDS-Vace-Wan-2-1
Workflow ID: 0000...1282
Questo flusso di lavoro ti consente di trasformare filmati grezzi in ambienti cinematografici con controllo completo sulla sostituzione dello sfondo. Mantiene il movimento originale della fotocamera mentre trasforma le impostazioni in scene dettagliate e immersive. Progettato per registi e artisti VFX, offre coerenza nella profondità e precisione nella prospettiva. Lo strumento consente una creazione di mondi rapida ed efficiente direttamente dal video. Puoi creare interi paesaggi senza perdere la fedeltà del movimento. Perfetto per chiunque abbia bisogno di una generazione di scene realistiche e creative per progetti di narrazione.

ComfyUI Generate ENTIRE AI WORLDS (Vace Wan 2.1) Workflow

Generate ENTIRE AI WORLDS (Vace Wan 2.1) in ComfyUI | Video World-Building
Want to run this workflow?
  • Fully operational workflows
  • No missing nodes or models
  • No manual setups required
  • Features stunning visuals

ComfyUI Generate ENTIRE AI WORLDS (Vace Wan 2.1) Examples

Genera INTERI MONDI AI (Vace Wan 2.1): Costruzione di mondi video-cinematografici con vero tracciamento della fotocamera

Genera INTERI MONDI AI (Vace Wan 2.1) è un flusso di lavoro ComfyUI pronto per la produzione di Mickmumpitz per trasformare filmati live-action in nuovi ambienti mantenendo il movimento originale della fotocamera. Scambia sfondi, preserva prospettiva e scala, e compone un attore mascherato in mondi completamente rigenerati guidati da testo e immagini di riferimento.

Costruito sullo stack VACE Wan 2.1, questo flusso di lavoro è ideale per registi, artisti VFX e creatori che necessitano di previz veloci o scatti raffinati. Puoi dirigere la scena con prompt, partire da un'immagine di riferimento opzionale e scegliere tra una pipeline FP8 ad alta velocità o una pipeline GGUF a basso VRAM. Il risultato è una costruzione di mondi senza soluzione di continuità che ti consente veramente di Generare INTERI MONDI AI (Vace Wan 2.1) da piatti quotidiani.

Modelli chiave nel flusso di lavoro Comfyui Genera INTERI MONDI AI (Vace Wan 2.1)

  • Modello di diffusione testo-video Wan 2.1 14B. Generatore principale utilizzato per sintetizzare il nuovo mondo in modo temporalmente coerente. I pesi riconfezionati per ComfyUI sono disponibili nel rilascio Comfy-Org su Hugging Face.
    Comfy‑Org/Wan_2.1_ComfyUI_repackaged
  • Modulo VACE Wan 2.1 14B. Fornisce embedding VACE che legano la generazione alla struttura della scena, consentendo una precisa sostituzione dello sfondo e tracciamento della fotocamera.
    Kijai/WanVideo_comfy
  • Wan 2.1 VAE. Gestisce la codifica/decodifica latente per i fotogrammi video.
    Comfy‑Org/Wan_2.1_ComfyUI_repackaged (VAE split)
  • Codificatore di testo uMT5‑XXL. Codifica i prompt per lo spazio di condizionamento di Wan 2.1. Un codificatore confezionato compatibile con questo flusso di lavoro è fornito insieme alle divisioni Wan 2.1.
    Comfy‑Org/Wan_2.1_ComfyUI_repackaged (text_encoders)
  • Wan 2.1 14B VACE GGUF (UNet quantizzato). Un'alternativa quantizzata per GPU a basso VRAM che alimenta il percorso GGUF senza il modello FP8 completo.
    QuantStack/Wan2.1_14B_VACE‑GGUF
  • FILM: Interpolazione di fotogrammi per grandi movimenti. Processo post-optional per migliorare la fluidità del movimento interpolando fotogrammi aggiuntivi.
    google‑research/frame‑interpolation
  • Passo distillazione LightX opzionale per Wan 2.1. Un LoRA orientato alla velocità che si abbina bene con conteggi di passi brevi mantenendo struttura e identità.
    Kijai/WanVideo_comfy (LoRA)

Come utilizzare il flusso di lavoro Comfyui Genera INTERI MONDI AI (Vace Wan 2.1)

Questo flusso di lavoro segue una strategia VACE a due passaggi: primo, codifica il movimento della scena da immagini di controllo per bloccare il movimento della fotocamera; secondo, codifica l'inserimento dell'attore e lo fonde nell'ambiente rigenerato. Puoi eseguire il percorso FP8 per la massima velocità o il percorso GGUF per basso VRAM. Le sezioni seguenti mappano ai gruppi sul grafico così puoi operare l'intero pipeline Genera INTERI MONDI AI (Vace Wan 2.1) con fiducia.

INPUT VIDEO & SELEZIONE DIMENSIONE

L'area di input ti consente di scegliere la risoluzione di lavoro e i controlli di clip di base. Usa l'interruttore di risoluzione per scegliere un preset (720p, 576p o 480p), che alimenta Set_width (#370) e Set_height (#369) così ogni fase rimane sincronizzata. Puoi limitare il numero di fotogrammi per mantenere veloci i tempi di turnaround e impostare un piccolo salto se vuoi compensare il punto di inizio. Per stabilità e memoria, mantieni le sequenze entro l'intervallo raccomandato; le etichette del grafico segnalano che 81 fotogrammi è un limite sensato per la maggior parte delle GPU. Queste scelte si applicano globalmente a immagini di controllo, codifiche VACE e rendering finali.

Nota: Il video di input può anche essere generato attraverso un altro flusso di lavoro, MASK_AND_TRACK. Puoi scaricare il file del flusso di lavoro qui: workflow.json. Dopo il download, trascina il file in una nuova scheda di flusso di lavoro ed eseguilo per ottenere il video di input.

IMPOSTA SFONDO / IMMAGINE DI RIFERIMENTO

Una piastra di sfondo e un'immagine di riferimento opzionale guidano lo stile visivo. Carica un fermo immagine di sfondo, quindi il grafico lo ridimensiona per adattarlo alla tua dimensione di lavoro. Se vuoi un'ancora di stile invece di un backplate rigido, abilita l'immagine_di_riferimento attraverso il selettore; questa immagine guida colore, composizione e tono senza dettare la geometria. Il percorso di riferimento è utile quando vuoi che il modello Generi INTERI MONDI AI (Vace Wan 2.1) che riecheggiano un aspetto specifico, mentre il prompt di testo gestisce il resto. Disattivalo quando preferisci un controllo solo testo.

INIZIO FOTOGRAMMA + PERSONA

Usa questa sezione per decidere come inizia la generazione. Con un attore pronto, Image Remove Background Rembg (mtb) (#1433) tira una maschera pulita e ImageCompositeMasked (#1441) posiziona l'attore sullo sfondo scelto per formare un fotogramma iniziale. L'interruttore Inizio Fotogramma (ImpactSwitch, #1760) offre tre modalità: attore composito più sfondo, solo sfondo, o nessun fotogramma iniziale. I fotogrammi iniziali aiutano ad ancorare identità e layout; solo sfondo consente al personaggio di “entrare” nel tempo; nessun fotogramma iniziale chiede al modello di stabilire sia soggetto che mondo da testo e riferimento. Un blocco di anteprima dal vivo mostra come appare quell'inizio prima di impegnarti a valle.

IMMAGINI DI CONTROLLO

Le immagini di controllo bloccano il movimento della fotocamera così prospettiva e parallasse sembrano reali. Alimenta un video tracciato dalla fotocamera nel gruppo; il grafico può derivare i livelli OpenPose e Canny, quindi fonderli per creare un forte segnale di struttura. L'interruttore Nodi Immagine di Controllo (ImpactSwitch, #1032) ti consente di scegliere Solo Traccia, Traccia+Pose, Canny+Pose, o un video di controllo preparato esternamente. Rivedi lo stack con la combinazione di anteprima per assicurarti che silhouette e bordi siano chiaramente leggibili. Per sequenze lunghe, puoi salvare e ricaricare successivamente questo video di controllo per evitare di ricomputare; è particolarmente utile quando iteri prompt o maschere continuando a Generare INTERI MONDI AI (Vace Wan 2.1).

INPUT CN VIDEO

Se hai già esportato un video di “immagini di controllo”, inseriscilo qui per bypassare la pre-elaborazione. Seleziona l'opzione corrispondente nell'interruttore immagine di controllo così il resto della pipeline utilizza la tua struttura memorizzata nella cache. Questo mantiene il tracciamento della fotocamera coerente tra le esecuzioni e riduce drasticamente il tempo di iterazione su lunghe riprese.

CARICATORI MODELLO FP8

Il ramo FP8 carica l'intero stack modello Wan 2.1. WanVideoModelLoader (#4) porta nel backbone T2V 14B e nel modulo VACE, oltre a un LoRA LightX opzionale per campionamento veloce e coerente. WanVideoVAELoader (#26) fornisce il VAE, e WanVideoBlockSwap (#5) espone una strategia di risparmio VRAM scambiando blocchi nella memoria del dispositivo secondo necessità. Questo ramo è il modo più veloce per Generare INTERI MONDI AI (Vace Wan 2.1) quando hai spazio VRAM sufficiente.

CAMPIONATORE MODELLO FP8

I prompt sono codificati da WanVideoTextEncodeSingle per testo positivo e negativo, quindi raffinati tramite WanVideoApplyNAG per mantenere coerente la formulazione. Il primo passaggio, WanVideo VACE Encode (CN‑CameraTrack) (#948), legge le immagini di controllo per produrre embedding consapevoli del movimento. Il secondo passaggio, WanVideo VACE Encode (InsertPerson) (#1425), inietta l'attore utilizzando un alfa pulito e una maschera che puoi espandere o ridurre delicatamente per evitare aloni. WanVideoSampler (#2) quindi rende la sequenza, WanVideoDecode (#1) trasforma i latenti in fotogrammi, e un semplice interruttore sceglie tra il frame rate originale o un flusso interpolato FILM prima della combinazione video finale.

CARICATORI MODELLO GGUF

Il ramo GGUF è progettato per flussi di lavoro a basso VRAM. UnetLoaderGGUF (#1677) carica un Wan 2.1 VACE UNet quantizzato, CLIPLoader (#1680) fornisce il codificatore di testo, e un LoRA può essere applicato con LoraLoader (#2420). Un VAELoader standard ComfyUI (#1676) gestisce la decodifica. Questo percorso scambia velocità per impronta mantenendo la stessa logica VACE a due passaggi così puoi ancora Generare INTERI MONDI AI (Vace Wan 2.1) su hardware modesto.

CAMPIONATORE MODELLO GGUF

Nel percorso quantizzato, WanVaceToVideo (#1724) trasforma embedding VACE, condizionamento del testo e il tuo riferimento in un latente guidato. WanVideoNAG e WanVideoEnhanceAVideoKJ aiutano a mantenere identità e dettaglio locale, dopo di che KSampler (#1726) genera la sequenza latente finale. VAEDecode (#1742) produce fotogrammi, un passo FILM opzionale aggiunge fluidità temporale, e la combinazione video scrive il risultato su disco. Usa questo percorso quando il VRAM è limitato o quando hai bisogno di lunghe riprese stabili.

PROMPT

Ci sono due pannelli di prompt. Il lato FP8 utilizza il codificatore di testo Wan T5, mentre il lato GGUF utilizza un percorso di condizionamento CLIP; entrambi ricevono testo positivo e negativo. Mantieni i prompt positivi cinematografici e specifici per il mondo che desideri, e riserva i prompt negativi per artefatti di compressione, sovrasaturazione e ingombro indesiderato in primo piano. Puoi mescolare i prompt con un'immagine di riferimento morbida per guidare colore e illuminazione lasciando comunque che il modello Generi INTERI MONDI AI (Vace Wan 2.1) che corrispondono alla tua intenzione.

Nodi chiave nel flusso di lavoro Comfyui Genera INTERI MONDI AI (Vace Wan 2.1)

  • WanVideo VACE Encode (CN-CameraTrack) (#948)
    Primo passaggio VACE che analizza le tue immagini di controllo per bloccare il movimento della fotocamera. Abbina larghezza, altezza e lunghezza con la dimensione di lavoro e la durata del clip scelti così gli embedding si allineano con il campionamento a valle. Se ti affidi a un video di controllo esterno, mantieni coerente il conteggio dei fotogrammi per evitare derive temporali. Implementazione di riferimento e comportamento del nodo seguono il wrapper WanVideo.
    Fonte: kijai/ComfyUI‑WanVideoWrapper
  • WanVideo VACE Encode (InsertPerson) (#1425)
    Secondo passaggio VACE che inietta l'attore utilizzando il matte alfa e una maschera pulita. Se vedi bordi deboli, regola la contrazione/espansione della maschera a monte (DilateErodeMask, #2391) per tirare leggermente il matte all'interno. Questo passaggio collega l'inserimento al movimento della scena così scala e parallasse rimangono naturali.
    Fonte: kijai/ComfyUI‑WanVideoWrapper
  • WanVaceToVideo (#1724 e #1729)
    Collega il condizionamento VACE al campionatore. Imposta le dimensioni di output sulla stessa dimensione di lavoro, e usa il conteggio dei fotogrammi del clip di controllo così non sono richiesti tagli successivi. Abbina con un'unica immagine di riferimento quando vuoi un aspetto coeso lungo il colpo senza sovra-constraining layout.
    Fonte: kijai/ComfyUI‑WanVideoWrapper
  • WanVideoSampler (#2)
    Campionatore FP8 che rende la sequenza finale da Wan 2.1 utilizzando i tuoi embedding di testo e embedding di immagini VACE. Supporta lo scambio di blocchi di risparmio VRAM e funziona bene con il LoRA LightX step-distill per risultati veloci e sicuri per l'identità a bassi conteggi di passi.
    Fonti: kijai/ComfyUI‑WanVideoWrapper, Kijai/WanVideo_comfy (LoRA)
  • KSampler (#1726)
    Campionatore del ramo GGUF. Inizia con un piccolo numero di passi per preservare l'attore e ridurre l'eccessiva nitidezza; il LoRA LightX è sintonizzato per questo regime. Se il dettaglio sbiadisce, aumenta i passi moderatamente o affidati al blocco Enhance A Video per recuperare la micro-texture senza far derivare il movimento.
    Fonte: ComfyUI core
  • FILM VFI (#2019 e #1757)
    Interpolazione di fotogrammi opzionale controllata dall'interruttore di interpolazione. Usalo per lisciare movimenti rapidi o estendere la durata senza ri-renderizzare. Se noti oscillazioni temporali su strutture sottili, disabilitalo per quei colpi o riduci il fattore di interpolazione.
    Fonte: google‑research/frame‑interpolation

Extra opzionali

-json

  • Mantieni le lunghezze dei clip gestibili; la guida del grafico di circa 81 fotogrammi per esecuzione bilancia stabilità e memoria su GPU comuni.
  • Se stai iterando i prompt, salva il video delle “immagini di controllo” una volta e passa al percorso Input CN Video per evitare di ricomputare la struttura.
  • Per rimuovere bordi deboli attorno al soggetto, sposta la maschera dell'attore con DilateErodeMask nel percorso di inserimento fino a quando gli aloni scompaiono.
  • Basso VRAM o lunghe riprese: scegli il ramo GGUF; alto VRAM e iterazione veloce: scegli il ramo FP8.
  • Per l'inquadratura iniziale, usa “Solo sfondo” quando vuoi che il soggetto entri più tardi, o “Nessun fotogramma iniziale” quando vuoi che il modello stabilisca completamente la scena da testo e riferimento.

Con questi passaggi, puoi eseguire con fiducia il flusso di lavoro end-to-end e Generare INTERI MONDI AI (Vace Wan 2.1) che resistono al movimento reale della fotocamera.

Riconoscimenti

Questo flusso di lavoro implementa e si basa sui lavori e risorse di @mickmumpitz. Ringraziamo con gratitudine Mickmumpitz per il Tutorial sul flusso di lavoro per il flusso di lavoro istruttivo, e lo ringraziamo per i suoi contributi e la manutenzione. Per dettagli autorevoli, si prega di fare riferimento alla documentazione originale e ai repository collegati di seguito.

Risorse

  • YouTube/Tutorial sul flusso di lavoro
    • Documenti / Note di rilascio da Mickmumpitz Youtube: Tutorial sul flusso di lavoro

Nota: L'uso dei modelli, set di dati e codice di riferimento è soggetto alle rispettive licenze e termini forniti da Mickmumpitz.

Want More ComfyUI Workflows?

Wan 2.2 | Leader Open-Source nella Generazione Video

Disponibile ora! Maggiore precisione + movimento più fluido.

Wan 2.2 + Lightx2v V2 | I2V & T2V Ultra Veloce

Configurazione Dual Light LoRA, 4X più veloce.

Wan 2.2 FLF2V | Generazione Video da Primo a Ultimo Fotogramma

Genera video fluidi da un fotogramma iniziale e finale utilizzando Wan 2.2 FLF2V.

Wan 2.2 Lightning T2V I2V | 4-Fasi Ultra Veloce

Wan 2.2 ora 20x più veloce! T2V + I2V in 4 fasi.

Wan 2.1 | Generazione Video Rivoluzionaria

Crea video incredibili da testo o immagini con l'innovativa AI che funziona su CPU di tutti i giorni.

ACE++ Face Swap | Modifica Immagini

Scambia volti nelle immagini con istruzioni in linguaggio naturale preservando stile e contesto.

Flux Upscaler - Ultimate 32k | Image Upscaler

Flux Upscaler - Ultimate 32k | Image Upscaler

Flux Upscaler – Raggiungi risoluzioni 4k, 8k, 16k e Ultimate 32k!

OmniGen2 | Da Testo a Immagine & Modifica

Modello unificato potente per generazione e modifica di immagini

Seguici
  • LinkedIn
  • Facebook
  • Instagram
  • Twitter
Supporto
  • Discord
  • Email
  • Stato del Sistema
  • affiliato
Risorse
  • ComfyUI Online Gratuito
  • Guide di ComfyUI
  • RunComfy API
  • Tutorial ComfyUI
  • Nodi ComfyUI
  • Scopri di Più
Legale
  • Termini di Servizio
  • Informativa sulla Privacy
  • Informativa sui Cookie
RunComfy
Copyright 2025 RunComfy. Tutti i Diritti Riservati.

RunComfy è la piattaforma principale ComfyUI che offre ComfyUI online ambiente e servizi, insieme a workflow di ComfyUI con visuali mozzafiato. RunComfy offre anche AI Playground, consentire agli artisti di sfruttare gli ultimi strumenti di AI per creare arte incredibile.