logo
RunComfy
ComfyUIPlaygroundPricing
discord logo
ComfyUI>Workflows>Hunyuan Video | Video zu Video

Hunyuan Video | Video zu Video

Workflow Name: RunComfy/Hunyuan-Vid2Vid
Workflow ID: 0000...1178
Dieser Hunyuan-Workflow in ComfyUI ermöglicht es Ihnen, bestehende visuelle Inhalte in atemberaubende neue visuelle Inhalte zu verwandeln. Durch die Eingabe von Textprompts und einem Quellvideo generiert das Hunyuan-Modell beeindruckende Transformationen, die die Bewegung und Schlüsselelemente des Originals integrieren. Mit fortschrittlicher Architektur und Trainingstechniken produziert Hunyuan qualitativ hochwertige, vielfältige und stabile Inhalte.

Hunyuan Video, ein Open-Source-AI-Modell entwickelt von Tencent, ermöglicht es Ihnen, atemberaubende und dynamische visuelle Inhalte mühelos zu erzeugen. Das Hunyuan-Modell nutzt fortschrittliche Architektur und Trainingstechniken, um Inhalte von hoher Qualität, Bewegungsvielfalt und Stabilität zu verstehen und zu generieren.

Über den Hunyuan Video zu Video Workflow

Dieser Hunyuan-Workflow in ComfyUI verwendet das Hunyuan-Modell, um neue visuelle Inhalte zu erstellen, indem Eingabetextprompts mit einem vorhandenen Ausgangsvideo kombiniert werden. Durch die Nutzung der Fähigkeiten des Hunyuan-Modells können Sie beeindruckende Videotransformationen erzeugen, die nahtlos die Bewegung und Schlüsselelemente des Ausgangsvideos integrieren und das Ergebnis mit Ihrem gewünschten Textprompt abstimmen.

So verwenden Sie den Hunyuan Video zu Video Workflow

🟥 Schritt 1: Laden Sie Hunyuan-Modelle

  • Laden Sie das Hunyuan-Modell, indem Sie die Datei "hunyuan_video_720_cfgdistill_fp8_e4m3fn.safetensors" im HyVideoModelLoader-Knoten auswählen. Dies ist das Haupttransformator-Modell.
  • Das HunyuanVideo VAE-Modell wird automatisch im HunyuanVideoVAELoader-Knoten heruntergeladen. Es wird zum Codieren/Decodieren von Videoframes verwendet.
  • Laden Sie einen Text-Encoder im DownloadAndLoadHyVideoTextEncoder-Knoten. Der Workflow verwendet standardmäßig den "Kijai/llava-llama-3-8b-text-encoder-tokenizer" LLM-Encoder und den "openai/clip-vit-large-patch14" CLIP-Encoder, die automatisch heruntergeladen werden. Sie können auch andere CLIP- oder T5-Encoder verwenden, die mit früheren Modellen funktioniert haben.
Hunyuan Video zu Video Workflow

🟨 Schritt 2: Eingabeaufforderung eingeben & Ausgangsvideo laden

  • Geben Sie Ihren Textprompt ein, der das visuelle beschreibt, das Sie im HyVideoTextEncode-Knoten erzeugen möchten.
  • Laden Sie das Ausgangsvideo, das Sie als Bewegungsreferenz im VHS_LoadVideo-Knoten verwenden möchten.
    • frame_load_cap: Anzahl der zu generierenden Frames. Beim Festlegen der Zahl müssen Sie sicherstellen, dass die Zahl minus eins durch 4 teilbar ist; andernfalls wird ein ValueError ausgelöst, der anzeigt, dass die Videolänge ungültig ist.
    • skip_first_frames: Passen Sie diesen Parameter an, um zu steuern, welcher Teil des Videos verwendet wird.
Hunyuan Video zu Video Workflow

🟦 Schritt 3: Hunyuan-Generierungseinstellungen

  • Konfigurieren Sie die Videoerzeugungs-Hyperparameter im HyVideoSampler-Knoten:
    • Steps: Anzahl der Diffusionsschritte pro Frame, höhere bedeutet bessere Qualität, aber langsamere Erzeugung. Standard 30.
    • Embedded_guidance_scale: Wie stark soll am Prompt festgehalten werden, höhere Werte halten sich näher am Prompt.
    • Denoise_strength: Steuert die Stärke der Verwendung des ursprünglichen Ausgangsvideos. Niedrigere Werte (z.B. 0,6) lassen das Ergebnis mehr wie das Original aussehen.
  • Wählen Sie Add-ons und Umschalter im "Fast Groups Bypasser"-Knoten, um zusätzliche Funktionen wie das Vergleichsvideo zu aktivieren/deaktivieren.
Hunyuan Video zu Video Workflow

🟩 Schritt 4: Hunyuan-Video erzeugen

  • Die VideoCombine-Knoten generieren und speichern standardmäßig zwei Ausgaben:
    • Das übersetzte Videoergebnis
    • Ein Vergleichsvideo, das das Ausgangsvideo und das erzeugte Ergebnis zeigt
Hunyuan Video zu Video Workflow

Das Anpassen des Prompts und der Erzeugungseinstellungen ermöglicht beeindruckende Flexibilität bei der Erstellung neuer Videos, die durch die Bewegung eines bestehenden Videos mit dem Hunyuan-Modell angetrieben werden. Viel Spaß beim Erkunden der kreativen Möglichkeiten dieses Hunyuan-Workflows!


Dieser Hunyuan-Workflow wurde von Black Mixture entworfen. Bitte besuchen Sie Black Mixture's Youtube-Kanal für weitere Informationen. Ein besonderer Dank geht auch an Kijai für die Hunyuan-Wrappers Knoten und Workflow-Beispiele.

Want More ComfyUI Workflows?

Hunyuan Video | Text zu Video

Erzeugt Videos aus Texteingaben.

Animatediff V2 & V3 | Text zu Video

Erkunden Sie AnimateDiff V3, AnimateDiff SDXL und AnimateDiff V2 und verwenden Sie Upscale für hochauflösende Ergebnisse.

FLUX Kontext Preset | Szenenkontrolle

Meistern Sie die Szenenerstellung mit kuratierten One-Click-AI-Presets.

FLUX Controlnet Inpainting

Verbessern Sie den Realismus, indem Sie ControlNet verwenden, um FLUX.1-dev zu steuern.

Vid2Vid Teil 1 | Komposition und Maskierung

Der ComfyUI Vid2Vid bietet zwei unterschiedliche Workflows zur Erstellung hochwertiger, professioneller Animationen: Vid2Vid Teil 1, der Ihre Kreativität fördert, indem er sich auf die Komposition und Maskierung Ihres Originalvideos konzentriert, und Vid2Vid Teil 2, der SDXL Style Transfer nutzt, um den Stil Ihres Videos an Ihr gewünschtes ästhetisches Erscheinungsbild anzupassen. Diese Seite behandelt speziell Vid2Vid Teil 1.

Flux TTP Upscale | 4K Gesichtswiederherstellung

Reparieren Sie verzerrte Gesichter und skalieren Sie Bilder auf 4K-Auflösung hoch.

AnimateDiff + Batch Prompt Schedule | Text to Video

Nutzen Sie Prompts Travel mit Animatediff für präzise Kontrolle über bestimmte Frames innerhalb der Animation.

Vid2Vid Teil 2 | SDXL Style Transfer

Steigern Sie die Kreativität von Vid2Vid, indem Sie sich auf die Komposition und Maskierung Ihres Originalvideos konzentrieren.

Folge uns
  • LinkedIn
  • Facebook
  • Instagram
  • Twitter
Support
  • Discord
  • E-Mail
  • Systemstatus
  • Partner
Ressourcen
  • Kostenloses ComfyUI Online
  • ComfyUI Anleitungen
  • RunComfy API
  • ComfyUI Tutorials
  • ComfyUI Nodes
  • Erfahre mehr
Rechtliches
  • Nutzungsbedingungen
  • Datenschutzrichtlinie
  • Cookie-Richtlinie
RunComfy
Urheberrecht 2025 RunComfy. Alle Rechte vorbehalten.

RunComfy ist die führende ComfyUI Plattform, die ComfyUI online Umgebung und Services bietet, zusammen mit ComfyUI Workflows mit atemberaubenden Visualisierungen. RunComfy bietet auch AI-Spielplatz, Künstlern ermöglichen, die neuesten AI-Tools zu nutzen, um unglaubliche Kunst zu schaffen.