logo
RunComfy
ComfyUIPlaygroundPricing
discord logo
Loading...
ComfyUI>Workflows>Erstellen Sie KOMPLETTE KI-WELTEN Video Szenenbauer

Erstellen Sie KOMPLETTE KI-WELTEN Video Szenenbauer

Workflow Name: RunComfy/Generate-ENTIRE-AI-WORLDS-Vace-Wan-2-1
Workflow ID: 0000...1282
Dieser Workflow ermöglicht es Ihnen, Rohmaterial in filmische Umgebungen zu verwandeln, wobei Sie die vollständige Kontrolle über den Austausch des Hintergrunds haben. Er behält die ursprüngliche Kamerabewegung bei und verwandelt Schauplätze in detaillierte, immersive Szenen. Entwickelt für Filmemacher und VFX-Künstler, bietet er konsistente Tiefen- und Perspektivgenauigkeit. Das Tool ermöglicht schnelles und effizientes Weltenbauen direkt aus dem Video. Sie können ganze Landschaften erstellen, ohne dabei die Bewegungsgenauigkeit zu verlieren. Perfekt für alle, die realistische und kreative Szenengenerierung für Erzählprojekte benötigen.

ComfyUI Generate ENTIRE AI WORLDS (Vace Wan 2.1) Workflow

Generate ENTIRE AI WORLDS (Vace Wan 2.1) in ComfyUI | Video World-Building
Want to run this workflow?
  • Fully operational workflows
  • No missing nodes or models
  • No manual setups required
  • Features stunning visuals

ComfyUI Generate ENTIRE AI WORLDS (Vace Wan 2.1) Examples

Erstellen Sie KOMPLETTE KI-WELTEN (Vace Wan 2.1): Filmisches Video-zu-Video-Weltaufbau mit echtem Kameratracking

"Generate ENTIRE AI WORLDS (Vace Wan 2.1)" ist ein produktionsreifer ComfyUI-Workflow von Mickmumpitz, um Live-Action-Material in neue Umgebungen zu transformieren, während die ursprüngliche Kamerabewegung beibehalten wird. Es tauscht Hintergründe aus, bewahrt Perspektive und Maßstab und fügt einen maskierten Schauspieler in vollständig regenerierte Welten ein, die durch Text und Referenzbilder gesteuert werden.

Aufgebaut auf dem Wan 2.1 VACE-Stack, ist dieser Workflow ideal für Filmemacher, VFX-Künstler und Kreative, die schnelle Previz oder polierte Aufnahmen benötigen. Sie können die Szene mit Anweisungen leiten, von einem optionalen Referenzbild aus starten und zwischen einer schnellen FP8-Pipeline oder einer Low-VRAM GGUF-Pipeline wählen. Das Ergebnis ist ein nahtloser Weltaufbau, der es Ihnen ermöglicht, wirklich KOMPLETTE KI-WELTEN (Vace Wan 2.1) aus alltäglichen Platten zu erstellen.

Schlüsselmodelle im Comfyui Generate ENTIRE AI WORLDS (Vace Wan 2.1) Workflow

  • Wan 2.1 14B Text-zu-Video-Diffusionsmodell. Kern-Generator, der verwendet wird, um die neue Welt auf zeitlich konsistente Weise zu synthetisieren. Neu verpackte Gewichte für ComfyUI sind in der Comfy-Org-Veröffentlichung auf Hugging Face verfügbar.
    Comfy-Org/Wan_2.1_ComfyUI_repackaged
  • Wan 2.1 VACE-Modul 14B. Bietet VACE-Einbettungen, die die Generierung an die Szenenstruktur binden und so einen genauen Hintergrundaustausch und Kameratracking ermöglichen.
    Kijai/WanVideo_comfy
  • Wan 2.1 VAE. Handhabt latentes Kodieren/Dekodieren für Videoframes.
    Comfy-Org/Wan_2.1_ComfyUI_repackaged (VAE split)
  • uMT5-XXL Text-Encoder. Kodiert Anweisungen für den Konditionierungsraum von Wan 2.1. Ein verpackter Encoder, der mit diesem Workflow kompatibel ist, wird zusammen mit den Wan 2.1-Splits bereitgestellt.
    Comfy-Org/Wan_2.1_ComfyUI_repackaged (text_encoders)
  • Wan 2.1 14B VACE GGUF (quantisierter UNet). Eine quantisierte Alternative für GPUs mit niedrigem VRAM, die den GGUF-Pfad ohne das vollständige FP8-Modell antreibt.
    QuantStack/Wan2.1_14B_VACE-GGUF
  • FILM: Frame Interpolation for Large Motion. Optionaler Nachbearbeitungsschritt, um die Bewegungsglätte durch Interpolation zusätzlicher Frames zu erhöhen.
    google-research/frame-interpolation
  • Optionales LightX Step-Distill LoRA für Wan 2.1. Ein geschwindigkeitsorientiertes LoRA, das gut mit kurzen Schrittzahlen funktioniert und dabei Struktur und Identität beibehält.
    Kijai/WanVideo_comfy (LoRA)

So verwenden Sie den Comfyui Generate ENTIRE AI WORLDS (Vace Wan 2.1) Workflow

Dieser Workflow folgt einer zweistufigen VACE-Strategie: Zuerst kodiert er die Bewegungen der Szene aus Kontrollbildern, um die Kamerabewegung zu sperren; zweitens kodiert er das Einfügen des Schauspielers und mischt ihn in die regenerierte Umgebung ein. Sie können den FP8-Pfad für maximale Geschwindigkeit oder den GGUF-Pfad für niedrigen VRAM verwenden. Die folgenden Abschnitte entsprechen den On-Graph-Gruppen, sodass Sie die gesamte "Generate ENTIRE AI WORLDS (Vace Wan 2.1)"-Pipeline mit Vertrauen betreiben können.

VIDEOEINGABE & GRÖSSENAUSWAHL

Der Eingabebereich ermöglicht es Ihnen, die Arbeitsauflösung und grundlegende Clip-Steuerungen auszuwählen. Verwenden Sie den Auflösungsschalter, um eine Voreinstellung (720p, 576p oder 480p) auszuwählen, die Set_width (#370) und Set_height (#369) speist, sodass jede Phase synchron bleibt. Sie können die Anzahl der Frames begrenzen, um schnelle Durchläufe zu gewährleisten, und einen kleinen Sprung festlegen, wenn Sie den Startpunkt verschieben möchten. Für Stabilität und Speicher halten Sie Sequenzen innerhalb des empfohlenen Bereichs; die Graph-Beschriftungen weisen darauf hin, dass 81 Frames eine vernünftige Obergrenze für die meisten GPUs sind. Diese Entscheidungen gelten global für Kontrollbilder, VACE-Kodierungen und endgültige Renderings.

Hinweis: Das Eingabevideo kann auch durch einen anderen Workflow generiert werden, MASK_AND_TRACK. Sie können die Workflow-Datei hier herunterladen: workflow.json. Nach dem Herunterladen ziehen Sie die Datei in eine neue Workflow-Registerkarte und führen Sie sie aus, um das Eingabevideo zu erhalten.

HINTERGRUND / REFERENZBILD EINSTELLEN

Eine Hintergrundplatte und ein optionales Referenzbild leiten den visuellen Stil. Laden Sie ein Hintergrundstill, dann passt der Graph es an Ihre Arbeitsgröße an. Wenn Sie einen Stilanker anstelle einer harten Hintergrundplatte wünschen, aktivieren Sie das reference_image über den Selektor; dieses Bild leitet Farbe, Komposition und Ton, ohne die Geometrie zu diktieren. Der Referenzweg ist hilfreich, wenn Sie möchten, dass das Modell KOMPLETTE KI-WELTEN (Vace Wan 2.1) erzeugt, die einem bestimmten Look ähneln, während der Text die restliche Kontrolle übernimmt. Schalten Sie es aus, wenn Sie nur Textsteuerung bevorzugen.

START FRAME + PERSON

Verwenden Sie diesen Abschnitt, um zu entscheiden, wie die Generierung beginnt. Mit einem bereitstehenden Schauspieler-Still zieht Image Remove Background Rembg (mtb) (#1433) eine saubere Maske und ImageCompositeMasked (#1441) platziert den Schauspieler auf Ihrem gewählten Hintergrund, um einen Startframe zu bilden. Der Start Frame-Schalter (ImpactSwitch, #1760) bietet drei Modi: zusammengesetzter Schauspieler plus Hintergrund, nur Hintergrund oder kein Startframe. Startframes helfen, Identität und Layout zu verankern; nur Hintergrund lässt den Charakter im Laufe der Zeit „eintreten“; kein Startframe fordert das Modell auf, sowohl das Subjekt als auch die Welt aus Text und Referenz zu etablieren. Ein Live-Vorschau-Block zeigt, wie dieser Start aussieht, bevor Sie ihn nach unten übertragen.

KONTROLLBILDER

Kontrollbilder sperren die Bewegung der Kamera, sodass Perspektive und Parallaxe echt wirken. Geben Sie ein Kameratrack-Video in die Gruppe ein; der Graph kann OpenPose- und Canny-Schichten ableiten und dann mischen, um ein starkes Struktursignal zu erzeugen. Der Control Image Nodes-Schalter (ImpactSwitch, #1032) ermöglicht es Ihnen, nur Track, Track+Pose, Canny+Pose oder ein extern vorbereitetes Kontrollvideo auszuwählen. Überprüfen Sie den Stapel mit der Vorschau-Kombination, um sicherzustellen, dass Silhouetten und Kanten klar lesbar sind. Für lange Sequenzen können Sie dieses Kontrollvideo speichern und später neu laden, um die Struktur nicht neu zu berechnen; das ist besonders nützlich, wenn Sie Anweisungen oder Masken iterieren und weiterhin KOMPLETTE KI-WELTEN (Vace Wan 2.1) erzeugen.

EINGABE CN VIDEO

Wenn Sie bereits ein "Kontrollbilder"-Video exportiert haben, legen Sie es hier ab, um die Vorverarbeitung zu umgehen. Wählen Sie die entsprechende Option im Kontrollbildschalter aus, damit der Rest der Pipeline Ihre zwischengespeicherte Struktur verwendet. Dies hält das Kameratracking über Läufe hinweg konsistent und reduziert die Iterationszeit bei langen Takes erheblich.

FP8-MODELLLADER

Der FP8-Zweig lädt den vollständigen Wan 2.1-Modellstack. WanVideoModelLoader (#4) bringt das T2V 14B-Rückgrat und das VACE-Modul sowie ein optionales LightX LoRA für schnelles, kohärentes Sampling. WanVideoVAELoader (#26) liefert die VAE, und WanVideoBlockSwap (#5) bietet eine VRAM-sparende Strategie, indem Blöcke nach Bedarf in den Gerätespeicher verschoben werden. Dieser Zweig ist der schnellste Weg, KOMPLETTE KI-WELTEN (Vace Wan 2.1) zu erzeugen, wenn Sie den VRAM-Spielraum haben.

FP8-MODELL-SAMPLER

Anweisungen werden von WanVideoTextEncodeSingle für positiven und negativen Text kodiert und dann durch WanVideoApplyNAG verfeinert, um die Phrasierung konsistent zu halten. Der erste Durchgang, WanVideo VACE Encode (CN-CameraTrack) (#948), liest die Kontrollbilder, um bewegungsbewusste Einbettungen zu erzeugen. Der zweite Durchgang, WanVideo VACE Encode (InsertPerson) (#1425), injiziert den Schauspieler mit einem sauberen Alpha und einer Maske, die Sie sanft vergrößern oder verkleinern können, um Halos zu vermeiden. WanVideoSampler (#2) rendert dann die Sequenz, WanVideoDecode (#1) wandelt Latents in Frames um, und ein einfacher Schalter wählt zwischen der ursprünglichen Bildrate oder einem FILM-interpolierten Stream, bevor die endgültige Videokombination erfolgt.

GGUF-MODELLLADER

Der GGUF-Zweig ist für Low-VRAM-Workflows ausgelegt. UnetLoaderGGUF (#1677) lädt ein quantisiertes Wan 2.1 VACE UNet, CLIPLoader (#1680) stellt den Text-Encoder bereit, und ein LoRA kann mit LoraLoader (#2420) angewendet werden. Ein Standard-ComfyUI VAELoader (#1676) handhabt das Dekodieren. Dieser Weg tauscht Geschwindigkeit gegen Fußabdruck ein, während er die gleiche zweiphasige VACE-Logik beibehält, damit Sie weiterhin KOMPLETTE KI-WELTEN (Vace Wan 2.1) auf bescheidener Hardware erzeugen können.

GGUF-MODELL-SAMPLER

Im quantisierten Pfad verwandelt WanVaceToVideo (#1724) VACE-Einbettungen, Textkonditionierung und Ihre Referenz in ein geführtes Latent. WanVideoNAG und WanVideoEnhanceAVideoKJ helfen, Identität und lokale Details beizubehalten, nach denen KSampler (#1726) die endgültige latente Sequenz generiert. VAEDecode (#1742) erzeugt Frames, ein optionaler FILM-Schritt fügt zeitliche Glätte hinzu, und die Videokombination schreibt das Ergebnis auf die Festplatte. Verwenden Sie diesen Pfad, wenn VRAM knapp ist oder wenn Sie lange, stabile Aufnahmen benötigen.

ANWEISUNGEN

Es gibt zwei Anweisungstafeln. Die FP8-Seite verwendet den Wan T5-Text-Encoder, während die GGUF-Seite einen CLIP-Konditionierungspfad verwendet; beide erhalten positiven und negativen Text. Halten Sie positive Anweisungen filmisch und spezifisch für die gewünschte Welt und reservieren Sie negative Anweisungen für Kompressionsartefakte, Übersättigung und unerwünschtes Vordergrundgerümpel. Sie können Anweisungen mit einem weichen Referenzbild mischen, um Farbe und Beleuchtung zu steuern, während das Modell weiterhin KOMPLETTE KI-WELTEN (Vace Wan 2.1) erzeugt, die Ihrer Absicht entsprechen.

Schlüsselknoten im Comfyui Generate ENTIRE AI WORLDS (Vace Wan 2.1) Workflow

  • WanVideo VACE Encode (CN-CameraTrack) (#948)
    Erster VACE-Durchgang, der Ihre Kontrollbilder analysiert, um die Kamerabewegung zu sperren. Passen Sie Breite, Höhe und Länge an Ihre gewählte Arbeitsgröße und Clipdauer an, damit Einbettungen mit dem nachfolgenden Sampling übereinstimmen. Wenn Sie auf externes Kontrollvideo angewiesen sind, halten Sie die Frame-Anzahl konsistent, um Zeitverschiebungen zu vermeiden. Die Referenzimplementierung und das Knotenverhalten folgen dem WanVideo-Wrapper.
    Quelle: kijai/ComfyUI-WanVideoWrapper
  • WanVideo VACE Encode (InsertPerson) (#1425)
    Zweiter VACE-Durchgang, der den Schauspieler mit dem Alphamatte und einer gereinigten Maske injiziert. Wenn Sie schwache Kanten sehen, passen Sie die Maskenschrumpfung/-erweiterung (DilateErodeMask, #2391) an, um die Matte leicht einzuziehen. Dieser Durchgang bindet das Einfügen an die Bewegungen der Szene, sodass Maßstab und Parallaxe natürlich bleiben.
    Quelle: kijai/ComfyUI-WanVideoWrapper
  • WanVaceToVideo (#1724 und #1729)
    Verbindet VACE-Konditionierung mit dem Sampler. Stellen Sie die Ausgabedimensionen auf die gleiche Arbeitsgröße ein und verwenden Sie die Frame-Anzahl des Kontrollclips, damit keine Zuschnitte später erforderlich sind. Kombinieren Sie mit einem einzelnen Referenzbild, wenn Sie einen kohärenten Look über den Shot hinweg wünschen, ohne das Layout zu stark einzuschränken.
    Quelle: kijai/ComfyUI-WanVideoWrapper
  • WanVideoSampler (#2)
    FP8-Sampler, der die endgültige Sequenz von Wan 2.1 mit Ihren Texteingebungen und VACE-Bild-Einbettungen rendert. Er unterstützt VRAM-sparenden Blockwechsel und funktioniert gut mit dem LightX Step-Distill LoRA für schnelle, identitätssichere Ergebnisse bei niedrigen Schrittzahlen.
    Quellen: kijai/ComfyUI-WanVideoWrapper, Kijai/WanVideo_comfy (LoRA)
  • KSampler (#1726)
    GGUF-Zweigsampler. Beginnen Sie mit einer kleinen Anzahl von Schritten, um den Schauspieler zu bewahren und Überschärfung zu reduzieren; das LightX LoRA ist für dieses Regime abgestimmt. Wenn Details auswaschen, erhöhen Sie die Schritte leicht oder nutzen Sie den Enhance A Video-Block, um Mikrotextur ohne Bewegungsabdriften zurückzugewinnen.
    Quelle: ComfyUI core
  • FILM VFI (#2019 und #1757)
    Optionale Frame-Interpolation, gesteuert durch den Interpolationsschalter. Verwenden Sie es, um schnelle Bewegungen zu glätten oder die Dauer zu verlängern, ohne neu zu rendern. Wenn Sie temporales Wackeln bei dünnen Strukturen bemerken, deaktivieren Sie es für diese Aufnahmen oder reduzieren Sie den Interpolationsfaktor.
    Quelle: google-research/frame-interpolation

Optionale Extras

  • Halten Sie Clip-Längen handhabbar; die Graph-Leitlinie von bis zu etwa 81 Frames pro Lauf balanciert Stabilität und Speicher auf gängigen GPUs.
  • Wennjson

Want More ComfyUI Workflows?

Wan 2.2 | Open-Source Video Gen Leader

Jetzt verfügbar! Bessere Präzision + flüssigere Bewegungen.

Wan 2.2 + Lightx2v V2 | Ultra Schnelle I2V & T2V

Dual Light LoRA Setup, 4X schneller.

Wan 2.2 FLF2V | First-Last Frame Video Generation

Erzeuge flüssige Videos aus einem Start- und Endbild mit Wan 2.2 FLF2V.

Wan 2.2 Lightning T2V I2V | 4-Schritt Ultra Schnell

Wan 2.2 jetzt 20x schneller! T2V + I2V in 4 Schritten.

Wan 2.1 | Revolutionäre Videogenerierung

Erstellen Sie unglaubliche Videos aus Text oder Bildern mit bahnbrechender KI, die auf alltäglichen CPUs läuft.

Hunyuan Video | Video zu Video

Kombinieren Sie Textprompt und Quellvideo, um ein neues Video zu generieren.

SDXL Turbo | Schnelle Text-zu-Bild-Umwandlung

SDXL Turbo | Schnelle Text-zu-Bild-Umwandlung

Erleben Sie eine schnelle Text-zu-Bild-Synthese mit SDXL Turbo.

LTX Video | Bild+Text zu Video

Erzeugt Videos aus Bild+Text-Eingaben.

Folge uns
  • LinkedIn
  • Facebook
  • Instagram
  • Twitter
Support
  • Discord
  • E-Mail
  • Systemstatus
  • Partner
Ressourcen
  • Kostenloses ComfyUI Online
  • ComfyUI Anleitungen
  • RunComfy API
  • ComfyUI Tutorials
  • ComfyUI Nodes
  • Erfahre mehr
Rechtliches
  • Nutzungsbedingungen
  • Datenschutzrichtlinie
  • Cookie-Richtlinie
RunComfy
Urheberrecht 2025 RunComfy. Alle Rechte vorbehalten.

RunComfy ist die führende ComfyUI Plattform, die ComfyUI online Umgebung und Services bietet, zusammen mit ComfyUI Workflows mit atemberaubenden Visualisierungen. RunComfy bietet auch AI-Spielplatz, Künstlern ermöglichen, die neuesten AI-Tools zu nutzen, um unglaubliche Kunst zu schaffen.