Dieser Workflow verwandelt ein Referenzbild in ein kurzes Video, in dem dasselbe Gesicht und derselbe Stil über die Frames hinweg bestehen bleiben. Angetrieben von der Wan 2.1 Familie und einem speziell entwickelten Stand In LoRA, ist es für Geschichtenerzähler, Animatoren und Avatar-Ersteller gedacht, die eine stabile Identität mit minimalem Aufwand benötigen. Der Wan2.1 Stand In-Pipeline übernimmt Hintergrundbereinigung, Zuschneiden, Maskierung und Einbettung, sodass Sie sich auf Ihren Prompt und die Bewegung konzentrieren können.
Verwenden Sie den Wan2.1 Stand In Workflow, wenn Sie eine zuverlässige Identitätskontinuität aus einem einzigen Foto, schnelle Iterationen und exportfertige MP4s sowie eine optionale Nebeneinander-Vergleichsausgabe wünschen.
Auf einen Blick: Laden Sie ein sauberes, frontales Referenzbild, der Workflow bereitet eine gesichtszentrierte Maske und Komposition vor, kodiert es in ein Latent, integriert diese Identität in Wan 2.1 Bild-Einbettungen, dann werden Videoframes abgetastet und MP4 exportiert. Zwei Ausgaben werden gespeichert: das Hauptrendering und ein Nebeneinander-Vergleich.
Beginnen Sie mit einem gut beleuchteten, nach vorne gerichteten Bild auf einem einfachen Hintergrund. Die Pipeline lädt Ihr Bild in LoadImage
(#58), standardisiert die Größe mit ImageResizeKJv2
(#142) und erstellt eine gesichtszentrierte Maske mit MediaPipe-FaceMeshPreprocessor
(#144) und BinaryPreprocessor
(#151). Der Hintergrund wird in TransparentBGSession+
(#127) und ImageRemoveBackground+
(#128) entfernt, dann wird das Subjekt über eine saubere Leinwand mit ImageCompositeMasked
(#108) zusammengesetzt, um Farbverlauf zu minimieren. Schließlich richten ImagePadKJ
(#129) und ImageResizeKJv2
(#68) das Seitenverhältnis für die Generierung aus; der vorbereitete Frame wird über WanVideoEncode
(#104) in ein Latent kodiert.
Wenn Sie Bewegungssteuerung aus einem vorhandenen Clip wünschen, laden Sie diesen mit VHS_LoadVideo
(#161) und optional ein sekundäres Führungs- oder Alphavideo mit VHS_LoadVideo
(#168). Die Frames durchlaufen DWPreprocessor
(#163) für Pose-Hinweise und ImageResizeKJv2
(#169) für Formanpassung; ImageToMask
(#171) und ImageCompositeMasked
(#174) lassen Sie Steuerbilder präzise mischen. WanVideoVACEEncode
(#160) verwandelt diese in VACE-Einbettungen. Dieser Pfad ist optional; lassen Sie ihn unberührt, wenn Sie nur textgesteuerte Bewegung von Wan 2.1 wünschen.
WanVideoModelLoader
(#22) lädt die Wan 2.1 14B Basis plus das Stand In LoRA, sodass die Identität von Anfang an eingebrannt ist. VRAM-freundliche Geschwindigkeitsfunktionen sind über WanVideoBlockSwap
(#39) verfügbar und werden mit WanVideoSetBlockSwap
(#70) angewendet. Sie können einen zusätzlichen Adapter wie LightX2V über WanVideoSetLoRAs
(#79) anhängen. Prompts werden mit WanVideoTextEncodeCached
(#159) kodiert, wobei UMT5-XXL für mehrsprachige Steuerung verwendet wird. Halten Sie Prompts prägnant und beschreibend; betonen Sie die Kleidung, den Winkel und die Beleuchtung des Subjekts, um die Stand In-Identität zu ergänzen.
WanVideoEmptyEmbeds
(#177) stellt die Zielgestalt für Bildeinbettungen her, und WanVideoAddStandInLatent
(#102) injiziert Ihr kodiertes Referenz-Latent, um die Identität über die Zeit zu tragen. Die kombinierten Bild- und Texteingebettungen werden in WanVideoSampler
(#27) eingespeist, das eine latente Videosequenz mit dem konfigurierten Scheduler und den Schritten generiert. Nach der Abtastung werden die Frames mit WanVideoDecode
(#28) dekodiert und in VHS_VideoCombine
(#180) in eine MP4 geschrieben.
Für sofortige QA stapelt ImageConcatMulti
(#122) die generierten Frames neben der verkleinerten Referenz, sodass Sie die Ähnlichkeit Bild für Bild beurteilen können. VHS_VideoCombine
(#74) speichert das als separates „Vergleichs“-MP4. Der Wan2.1 Stand In Workflow erzeugt daher ein sauberes Endvideo plus einen Nebeneinander-Check ohne zusätzlichen Aufwand.
WanVideoModelLoader
(#22). Lädt Wan 2.1 14B und wendet das Stand In LoRA bei der Modellinitialisierung an. Halten Sie den Stand In-Adapter hier verbunden, anstatt später im Diagramm, damit die Identität während des gesamten Denoising-Pfads durchgesetzt wird. Kombinieren Sie es mit WanVideoVAELoader
(#38) für das passende Wan-VAE.WanVideoAddStandInLatent
(#102). Verschmilzt Ihr kodiertes Referenzbild-Latent mit den Bildeinbettungen. Wenn die Identität abweicht, erhöhen Sie ihren Einfluss; wenn die Bewegung zu stark eingeschränkt erscheint, verringern Sie sie leicht.WanVideoSampler
(#27). Der Hauptgenerator. Das Abstimmen von Schritten, Scheduler-Wahl und Führungsstrategie hat hier den größten Einfluss auf Detail, Bewegungsreichtum und zeitliche Stabilität. Wenn Sie Auflösung oder Länge erhöhen, ziehen Sie in Betracht, Sampler-Einstellungen anzupassen, bevor Sie etwas upstream ändern.WanVideoSetBlockSwap
(#70) mit WanVideoBlockSwap
(#39). Tauscht GPU-Speicher gegen Geschwindigkeit, indem es Aufmerksamkeitsblöcke zwischen Geräten austauscht. Wenn Sie Speicherfehler feststellen, erhöhen Sie das Offloading; wenn Sie Spielraum haben, reduzieren Sie das Offloading für schnellere Iterationen.ImageRemoveBackground+
(#128) und ImageCompositeMasked
(#108). Diese stellen sicher, dass das Subjekt sauber isoliert und auf einer neutralen Leinwand platziert wird, was Farbverunreinigungen reduziert und die Stand In-Identitätsverriegelung über die Frames hinweg verbessert.VHS_VideoCombine
(#180). Steuert Kodierung, Bildrate und Dateibenennung für das Haupt-MP4-Ausgabe. Verwenden Sie es, um Ihre bevorzugte FPS und Qualitätsziel für die Lieferung festzulegen.Ressourcen
Dieser Workflow implementiert und baut auf den Arbeiten und Ressourcen von ArtOfficial Labs auf. Wir danken ArtOfficial Labs und den Autoren von Wan 2.1 für ihre Beiträge und die Wartung des Wan2.1 Demos. Für autoritative Details verweisen wir auf die originale Dokumentation und die unten verlinkten Repositories.
Hinweis: Die Verwendung der referenzierten Modelle, Datensätze und Codes unterliegt den jeweiligen Lizenzen und Bedingungen, die von ihren Autoren und Betreuern bereitgestellt werden.
RunComfy ist die führende ComfyUI Plattform, die ComfyUI online Umgebung und Services bietet, zusammen mit ComfyUI Workflows mit atemberaubenden Visualisierungen. RunComfy bietet auch AI-Spielplatz, Künstlern ermöglichen, die neuesten AI-Tools zu nutzen, um unglaubliche Kunst zu schaffen.