logo
RunComfy
  • Playground
  • ComfyUI
  • TrainerNew
  • API
  • Pricing
discord logo
ComfyUI>Workflows>One to All Animation | Pose-basiertes Video-Erstellungstool

One to All Animation | Pose-basiertes Video-Erstellungstool

Workflow Name: RunComfy/One-to-All-Animation
Workflow ID: 0000...1321
Mit diesem Workflow können Sie statische Posen in lange, ausdrucksstarke Bewegungssequenzen verwandeln. Er stimmt die Bewegung der Charaktere mit Referenzquellen ab, um präzise und natürliche Ergebnisse zu erzielen. Sie erhalten konsistente Bildkohärenz und flüssige Übergänge, die Ihrem visuellen Stil treu bleiben. Ideal für Tanz, Performance und narrative Projekte, liefert er Bewegungsfortsetzung in Studioqualität. Erstellen Sie Videos, die authentisch, flüssig und künstlerisch kohärent wirken.

One to All Animation: Langform-, pose-abgestimmtes Charaktervideo in ComfyUI

Dieser One to All Animation-Workflow verwandelt einen kurzen Referenzclip in ein erweitertes, hochauflösendes Video, während Bewegung, Pose-Abstimmung und Charakteridentität über die gesamte Sequenz hinweg konsistent bleiben. Er basiert auf der Wan 2.1 Videogenerierung mit Ganzkörper-Pose-Anleitung und einem Sliding-Window-Erweiterungstool und ist ideal für Tanz, Performance Capture und narrative Aufnahmen, bei denen Sie möchten, dass ein einzelner Look einer komplexen Bewegung folgt.

Wenn Sie ein Ersteller sind, der stabile, posegesteuerte Ergebnisse ohne Zittern oder Identitätsdrift benötigt, bietet Ihnen One to All Animation einen klaren Weg: Extrahieren Sie Posen aus Ihrem Quellvideo, verschmelzen Sie sie mit einem Referenzbild und einer Maske, generieren Sie das erste Segment und erweitern Sie dieses Segment wiederholt, bis die volle Länge abgedeckt ist.

Hinweis: Auf 2XL- oder 3XL-Maschinen setzen Sie bitte den attention_mode auf "sdpa" im WanVideo Model Loader-Knoten. Das Standard-Segeattn-Backend kann Kompatibilitätsprobleme bei High-End-GPUs verursachen.

WanVideo Model Loader node-sdpa option

Wichtige Modelle im Comfyui One to All Animation-Workflow

  • Wan 2.1 OneToAllAnimation (Videogenerierung). Das Haupt-Diffusionsmodell, das für hochwertige Bewegung und Identitätsbewahrung verwendet wird. Beispiel-Gewichte: Wan21-OneToAllAnimation fp8 skaliert von Kijai. Model card
  • UMT5-XXL-Text-Encoder. Kodiert Eingabeaufforderungen für die Wan-Videogenerierung. Model card
  • ViTPose Whole-Body (Pose-Schätzung). Produziert dichte Skelett-Schlüsselpunkte, die die Pose-Treue antreiben. Siehe das ViTPose-Paper und die Ganzkörper-ONNX-Gewichte. Paper • Weights
  • YOLOv10m-Detektor (Personen-/Regions-Erkennung). Beschleunigt die robuste Pose-Extraktion, indem der Schätzer auf das Subjekt fokussiert wird. Paper • Weights
  • Optionales ViTPose-H-Alternativmodell. Hochkapazitäts-Ganzkörpermodell für herausfordernde Bewegungen. Weights und data file
  • Optionale LoRA-Pakete für Stil/Steuerung. Beispiel-LoRAs, die in diesem Graphen verwendet werden, umfassen Wan2.1-Fun-InP-MPS, detailz-wan und lightx2v T2V; sie verfeinern Textur, Detail oder In-Place-Steuerung ohne erneutes Training.

So verwenden Sie den Comfyui One to All Animation-Workflow

Gesamtfluss

  • Der Workflow liest Ihr Referenzbewegungsvideo, extrahiert Ganzkörper-Posen, bereitet One to All Animation-Einbettungen vor, die Pose und eine Charakterreferenz verschmelzen, generiert einen Anfangsclip und erweitert diesen Clip dann mit Überlappung wiederholt, bis die gesamte Dauer abgedeckt ist. Schließlich werden Audio zusammengeführt und ein vollständiges Video exportiert.

Pose-Extraktion

  • Laden Sie Ihre Bewegungsquelle in VHS_LoadVideo (#454). Frames werden mit ImageResizeKJv2 (#131) in der Größe angepasst, um das Generierungsseitenverhältnis für stabiles Sampling zu erreichen.
  • OnnxDetectionModelLoader (#128) lädt YOLOv10m und ViTPose-Ganzkörper; PoseDetectionOneToAllAnimation (#141) gibt dann eine pro-Frame-Pose-Karte, ein Referenz-Pose-Bild und eine saubere Referenzmaske aus.
  • Verwenden Sie PreviewImage (#145), um schnell zu überprüfen, dass Posen das Subjekt verfolgen. Klare, kontrastreiche Aufnahmen mit minimaler Bewegungsunschärfe liefern die besten One to All Animation-Ergebnisse.

Modelle

  • WanVideoModelLoader (#22) lädt Wan 2.1 OneToAllAnimation-Gewichte; WanVideoVAELoader (#38) stellt das zugehörige VAE bereit. Bei Bedarf stapeln Sie Stil-/Steuerungs-LoRAs über WanVideoLoraSelect (#452, #451, #56) und wenden Sie sie mit WanVideoSetLoRAs (#80) an.
  • Texteingabeaufforderungen werden von WanVideoTextEncode (#16) kodiert. Schreiben Sie eine prägnante, identitätsfokussierte positive Eingabeaufforderung und eine starke Bereinigung-negative, um den Charakter im Modell zu halten.

Videoeinstellungen

  • Breite und Höhe werden in der Gruppe „Video Setting“ festgelegt und zur Pose-Extraktion und -Generierung propagiert, damit alles ausgerichtet bleibt.

Hinweis: ⚠️ Auflösungsgrenze : Dieser Workflow ist fest auf 720×1280 (720p) eingestellt. Die Verwendung einer anderen Auflösung führt zu Dimensionsfehlanpassungsfehlern, es sei denn, der Workflow wird manuell umkonfiguriert.

  • WanVideoScheduler (#231) und die CFG-Steuerung wählen den Rauschzeitplan und die Eingabeaufforderungsstärke. Höhere CFG passt sich stärker der Eingabeaufforderung an; niedrigere Werte verfolgen die Pose etwas lockerer, können jedoch Artefakte reduzieren.
  • VHS_VideoInfoLoaded (#440) liest die fps und Bildanzahl des Quellclips, die die Schleife verwendet, um zu bestimmen, wie viele One to All Animation-Fenster benötigt werden.

Sampling – Teil 1

  • WanVideoEmptyEmbeds (#99) erstellt einen Container für die Konditionierung in der Zielgröße. WanVideoAddOneToAllReferenceEmbeds (#105) injiziert Ihr Referenzbild und seine ref_mask, um Identität zu sperren und Bereiche wie Hintergrund oder Kleidung zu bewahren oder zu ignorieren.
  • WanVideoAddOneToAllPoseEmbeds (#98) fügt die extrahierten pose_images und pose_prefix_image hinzu, sodass das erste generierte Segment der Quellbewegung ab Bild eins folgt.
  • WanVideoSampler (#27) erzeugt den ersten latenten Clip, der von WanVideoDecode (#28) dekodiert und optional mit VHS_VideoCombine (#139) in der Vorschau betrachtet oder gespeichert wird. Dies ist das Ausgangssegment, das erweitert werden soll.

Schleife

  • VHS_GetImageCount (#327) und MathExpression|pysssss (#332) berechnen, wie viele Erweiterungspässe basierend auf der Gesamtanzahl der Frames und der pro-Pass-Länge erforderlich sind.
  • easy forLoopStart (#329) startet die Erweiterungspässe unter Verwendung des anfänglichen Clips als Ausgangskontext.

Sampling – Schleife

  • Extend (#263) ist das Herzstück der langwierigen One to All Animation. Es berechnet die Konditionierung mit WanVideoAddOneToAllExtendEmbeds (innerhalb des Untergraphen) neu, um die Kontinuität von den vorherigen Latents zu erhalten, und sampelt und dekodiert dann das nächste Fenster.
  • ImageBatchExtendWithOverlap (innerhalb von Extend) mischt jedes neue Fenster auf das angesammelte Video unter Verwendung einer overlap-Region, glättet Grenzen und reduziert zeitliche Nähte.
  • easy forLoopEnd (#334) fügt jeden erweiterten Block hinzu. Das Ergebnis wird über Set_video_OneToAllAnimation (#386) zur Export gespeichert.

Export

  • VHS_VideoCombine (#344) schreibt das endgültige Video unter Verwendung der Quell-fps und optionalem Audio von VHS_LoadVideo. Wenn Sie ein stilles Ergebnis bevorzugen, lassen Sie den Audioeingang hier weg oder stummschalten Sie ihn.

Wichtige Knoten im Comfyui One to All Animation-Workflow

PoseDetectionOneToAllAnimation (#141)

  • Erkennt das Subjekt und schätzt Ganzkörper-Schlüsselstellen, die die Pose-Anleitung steuern. Unterstützt von YOLOv10 und ViTPose, ist es robust gegen schnelle Bewegungen und teilweise Verdeckung. Wenn Ihr Subjekt driftet oder Mehrpersonenszenen den Detektor verwirren, beschneiden Sie Ihre Eingabe oder wechseln Sie zu den oben verlinkten ViTPose-H-Gewichten mit höherer Kapazität.

WanVideoAddOneToAllReferenceEmbeds (#105)

  • Verschmilzt ein Referenzbild und ref_mask in die Konditionierung, sodass Identität, Outfit oder geschützte Bereiche über die Frames hinweg stabil bleiben. Enge Masken bewahren Gesichter und Haare; breitere Masken können Hintergründe sperren. Wenn Sie das Aussehen ändern, tauschen Sie die Referenz aus und behalten Sie die gleiche Bewegung.

WanVideoAddOneToAllPoseEmbeds (#98)

  • Bindet Posenkarten und eine Präfixpose an die One to All Animation-Einbettungen. Für strengere Choreografie erhöhen Sie den Pose-Einfluss; für freiere Interpretation reduzieren Sie ihn leicht. Kombinieren Sie mit LoRAs, wenn Sie eine konsistente Textur wünschen, während Sie dennoch die Bewegung anpassen.

WanVideoSampler (#27)

  • Der Haupt-Videosampler, der Einbettungen und Text in den ersten latenten Clip verwandelt. cfg steuert die Eingabeaufforderungsbindung, und scheduler tauscht Qualität, Geschwindigkeit und Stabilität aus. Verwenden Sie dieselbe Samplerfamilie hier und in der Schleife, um Flimmern zu vermeiden.

Extend (#263)

  • Ein kompakter Untergraph, der Sliding-Window-Erweiterung mit Überlappung durchführt. Die overlap-Einstellung ist das zentrale Steuerelement: Mehr Überlappung mischt Übergänge glatter auf Kosten zusätzlicher Berechnung; weniger Überlappung ist schneller, kann jedoch Nähte offenbaren. Dieser Knoten verwendet auch vorherige Latents erneut, um Szene und Charakter über Fenster hinweg kohärent zu halten.

VHS_VideoCombine (#344)

  • Finale Muxing und Speicherung. Stellen Sie die frame_rate von den erkannten fps ein, um die Bewegungstiming treu zu Ihrem Original zu halten. Sie können in der Nachbearbeitung trimmen oder loopen, aber das Exportieren im Originalrhythmus bewahrt das Gefühl der Performance.

Optionale Extras

  • Installationshinweise für Vorprozessoren. Die Pose-Extraktor-Knoten stammen aus dem Community-Add-on. Siehe das Repo für Einrichtung und ONNX-Platzierung. ComfyUI-WanAnimatePreprocess
  • Bevorzugen Sie ViTPose-H für schwierige Bewegungen. Wechseln Sie zu ViTPose-H, wenn Hände/Füße schnell oder teilweise verdeckt sind; laden Sie sowohl das Modell als auch seine Datendatei von den oben verlinkten Seiten herunter.
  • Feinabstimmung für lange Läufe. Wenn Sie VRAM-Grenzen erreichen, reduzieren Sie die Fensterlänge pro Pass oder vereinfachen Sie LoRA-Stapel. Die Überlappung kann dann ein wenig nach oben geschoben werden, um Übergänge sauber zu halten.
  • Starke Identitätsbewahrung. Verwenden Sie eine hochwertige, frontale Referenz und malen Sie eine präzise ref_mask, um Gesicht, Haare oder Outfit zu schützen. Dies ist entscheidend für lange One to All Animation-Sequenzen.
  • Sauberes Filmmaterial hilft. Hohe Verschlussgeschwindigkeit, gleichmäßige Beleuchtung und ein klarer Vordergrund verbessern die Pose-Verfolgung erheblich und reduzieren das Zittern in One to All Animation-Ausgaben.
  • Video-Dienstprogramme. Der Exporteur und die Hilfsknoten stammen aus der Video Helper Suite. Wenn Sie zusätzliche Kontrolle über Codecs oder Vorschauen wünschen, lesen Sie die Projektdokumentation. Video Helper Suite

Danksagungen

Dieser Workflow implementiert und baut auf den folgenden Arbeiten und Ressourcen auf. Wir danken Innovate Futures @ Benji für das One to All Animation-Workflow-Tutorial und ssj9596 für das One-to-All Animation-Projekt für ihre Beiträge und Wartung. Für autoritative Details verweisen wir auf die ursprüngliche Dokumentation und die unten verlinkten Repositories.

Ressourcen

  • Innovate Futures @ Benji/One to All Animation Source
    • GitHub: ssj9596/One-to-All-Animation
    • Hugging Face: MochunniaN1/One-to-All-1.3b_1
    • arXiv: 2511.22940
    • Docs / Release Notes: Patreon post

Hinweis: Die Nutzung der referenzierten Modelle, Datensätze und des Codes unterliegt den jeweiligen Lizenzen und Bedingungen der Autoren und Betreuer.

Want More ComfyUI Workflows?

AnimateDiff + Batch-Prompt-Zeitplan | Text zu Video

Der Batch-Prompt-Zeitplan mit AnimateDiff bietet präzise Kontrolle über Erzählung und Visualisierung bei der Animationserstellung.

AnimateLCM | Beschleunigen Sie Text-zu-Video

Beschleunigen Sie Ihre Text-zu-Video-Animation mit dem ComfyUI AnimateLCM Workflow.

Flux Konsistente Charaktere | Eingabebild

Flux Konsistente Charaktere | Eingabebild

Erstellen Sie konsistente Charaktere und stellen Sie sicher, dass sie mit Ihren Bildern einheitlich aussehen.

InstantID | Gesicht zu Aufkleber

InstantID | Gesicht zu Aufkleber

Nutzen Sie Instant ID und IPAdapter, um anpassbare, erstaunliche Gesichtsaufkleber zu erstellen.

Pergament-Stil mit Unsampling

Verwandeln Sie Ihr Video in Animationen im Pergamentstil mit der Unsampling-Methode.

IPAdapter Plus (V2) | Ein-Bild-Stilübertragung

IPAdapter Plus (V2) | Ein-Bild-Stilübertragung

Verwenden Sie IPAdapter Plus und ControlNet für präzise Stilübertragungen mit einem einzigen Referenzbild.

Vid2Vid Teil 2 | SDXL Style Transfer

Steigern Sie die Kreativität von Vid2Vid, indem Sie sich auf die Komposition und Maskierung Ihres Originalvideos konzentrieren.

LivePortrait | Animate Portraits | Vid2Vid

Aktualisiert am 16.06.2025: ComfyUI-Version auf v0.3.39 aktualisiert für verbesserte Stabilität und Kompatibilität. Übertragen Sie Gesichtsausdrücke und Bewegungen aus einem Steuerungsvideo auf ein Quellvideo

Folge uns
  • LinkedIn
  • Facebook
  • Instagram
  • Twitter
Support
  • Discord
  • E-Mail
  • Systemstatus
  • Partner
Ressourcen
  • Kostenloses ComfyUI Online
  • ComfyUI Anleitungen
  • RunComfy API
  • ComfyUI Tutorials
  • ComfyUI Nodes
  • Erfahre mehr
Rechtliches
  • Nutzungsbedingungen
  • Datenschutzrichtlinie
  • Cookie-Richtlinie
RunComfy
Urheberrecht 2025 RunComfy. Alle Rechte vorbehalten.

RunComfy ist die führende ComfyUI Plattform, die ComfyUI online Umgebung und Services bietet, zusammen mit ComfyUI Workflows mit atemberaubenden Visualisierungen. RunComfy bietet auch AI-Spielplatz, Künstlern ermöglichen, die neuesten AI-Tools zu nutzen, um unglaubliche Kunst zu schaffen.