logo
RunComfy
  • ComfyUI
  • TrainerNew
  • Models
  • API
  • Pricing
discord logo
ComfyUI>Workflows>Hunyuan Video | Video zu Video

Hunyuan Video | Video zu Video

Workflow Name: RunComfy/Hunyuan-Vid2Vid
Workflow ID: 0000...1178
Dieser Hunyuan-Workflow in ComfyUI ermöglicht es Ihnen, bestehende visuelle Inhalte in atemberaubende neue visuelle Inhalte zu verwandeln. Durch die Eingabe von Textprompts und einem Quellvideo generiert das Hunyuan-Modell beeindruckende Transformationen, die die Bewegung und Schlüsselelemente des Originals integrieren. Mit fortschrittlicher Architektur und Trainingstechniken produziert Hunyuan qualitativ hochwertige, vielfältige und stabile Inhalte.

Hunyuan Video, ein Open-Source-AI-Modell entwickelt von Tencent, ermöglicht es Ihnen, atemberaubende und dynamische visuelle Inhalte mühelos zu erzeugen. Das Hunyuan-Modell nutzt fortschrittliche Architektur und Trainingstechniken, um Inhalte von hoher Qualität, Bewegungsvielfalt und Stabilität zu verstehen und zu generieren.

Über den Hunyuan Video zu Video Workflow

Dieser Hunyuan-Workflow in ComfyUI verwendet das Hunyuan-Modell, um neue visuelle Inhalte zu erstellen, indem Eingabetextprompts mit einem vorhandenen Ausgangsvideo kombiniert werden. Durch die Nutzung der Fähigkeiten des Hunyuan-Modells können Sie beeindruckende Videotransformationen erzeugen, die nahtlos die Bewegung und Schlüsselelemente des Ausgangsvideos integrieren und das Ergebnis mit Ihrem gewünschten Textprompt abstimmen.

So verwenden Sie den Hunyuan Video zu Video Workflow

🟥 Schritt 1: Laden Sie Hunyuan-Modelle

  • Laden Sie das Hunyuan-Modell, indem Sie die Datei "hunyuan_video_720_cfgdistill_fp8_e4m3fn.safetensors" im HyVideoModelLoader-Knoten auswählen. Dies ist das Haupttransformator-Modell.
  • Das HunyuanVideo VAE-Modell wird automatisch im HunyuanVideoVAELoader-Knoten heruntergeladen. Es wird zum Codieren/Decodieren von Videoframes verwendet.
  • Laden Sie einen Text-Encoder im DownloadAndLoadHyVideoTextEncoder-Knoten. Der Workflow verwendet standardmäßig den "Kijai/llava-llama-3-8b-text-encoder-tokenizer" LLM-Encoder und den "openai/clip-vit-large-patch14" CLIP-Encoder, die automatisch heruntergeladen werden. Sie können auch andere CLIP- oder T5-Encoder verwenden, die mit früheren Modellen funktioniert haben.
    Hunyuan Video zu Video Workflow

🟨 Schritt 2: Eingabeaufforderung eingeben & Ausgangsvideo laden

  • Geben Sie Ihren Textprompt ein, der das visuelle beschreibt, das Sie im HyVideoTextEncode-Knoten erzeugen möchten.
  • Laden Sie das Ausgangsvideo, das Sie als Bewegungsreferenz im VHS_LoadVideo-Knoten verwenden möchten.
    • frame_load_cap: Anzahl der zu generierenden Frames. Beim Festlegen der Zahl müssen Sie sicherstellen, dass die Zahl minus eins durch 4 teilbar ist; andernfalls wird ein ValueError ausgelöst, der anzeigt, dass die Videolänge ungültig ist.
    • skip_first_frames: Passen Sie diesen Parameter an, um zu steuern, welcher Teil des Videos verwendet wird.
      Hunyuan Video zu Video Workflow

🟦 Schritt 3: Hunyuan-Generierungseinstellungen

  • Konfigurieren Sie die Videoerzeugungs-Hyperparameter im HyVideoSampler-Knoten:
    • Steps: Anzahl der Diffusionsschritte pro Frame, höhere bedeutet bessere Qualität, aber langsamere Erzeugung. Standard 30.
    • Embedded_guidance_scale: Wie stark soll am Prompt festgehalten werden, höhere Werte halten sich näher am Prompt.
    • Denoise_strength: Steuert die Stärke der Verwendung des ursprünglichen Ausgangsvideos. Niedrigere Werte (z.B. 0,6) lassen das Ergebnis mehr wie das Original aussehen.
  • Wählen Sie Add-ons und Umschalter im "Fast Groups Bypasser"-Knoten, um zusätzliche Funktionen wie das Vergleichsvideo zu aktivieren/deaktivieren.
    Hunyuan Video zu Video Workflow

🟩 Schritt 4: Hunyuan-Video erzeugen

  • Die VideoCombine-Knoten generieren und speichern standardmäßig zwei Ausgaben:
    • Das übersetzte Videoergebnis
    • Ein Vergleichsvideo, das das Ausgangsvideo und das erzeugte Ergebnis zeigt
      Hunyuan Video zu Video Workflow

Das Anpassen des Prompts und der Erzeugungseinstellungen ermöglicht beeindruckende Flexibilität bei der Erstellung neuer Videos, die durch die Bewegung eines bestehenden Videos mit dem Hunyuan-Modell angetrieben werden. Viel Spaß beim Erkunden der kreativen Möglichkeiten dieses Hunyuan-Workflows!


Dieser Hunyuan-Workflow wurde von Black Mixture entworfen. Bitte besuchen Sie Black Mixture's Youtube-Kanal für weitere Informationen. Ein besonderer Dank geht auch an Kijai für die Hunyuan-Wrappers Knoten und Workflow-Beispiele.

Want More ComfyUI Workflows?

Hunyuan Video | Text zu Video

Erzeugt Videos aus Texteingaben.

Z-Image LoRA Inferenz | AI Toolkit ComfyUI

Wenden Sie Ihr mit dem AI Toolkit trainiertes Z-Image LoRA in ComfyUI durch einen einzigen RCZimage-Pipeline-Knoten für training-übereinstimmende Ausgaben an.

Character AI Ovi | Generator für sprechende Avatare

Verwandelt jedes Foto in lebensechte sprechende Avatare mit Emotionen und Stimme.

Step1X-Edit | KI-Bildbearbeitungstool

Führen Sie 11 Bearbeitungsvorgänge mit natürlicher Sprache in Step1X-Edit durch.

Omost | Bilderschaffung verbessern

Omost | Bilderschaffung verbessern

Omost verwendet LLM-Codierung, um präzise, hochwertige Bilder zu erzeugen.

Era3D | ComfyUI 3D Pack

Era3D | ComfyUI 3D Pack

Erstellen Sie 3D-Inhalte, von Mehransichtenbildern bis hin zu detaillierten Netzen.

Flux Krea Dev | Natürlicher Text zu Bild

Das beste Open-Source-FLUX-Modell! Absolut unglaubliche natürliche Ergebnisse.

Flux Kontext Zoom Out ComfyUI Workflow | Nahtloses Outpainting

Zoom Out LoRA vergrößert Bilder nahtlos mit natürlicher Fortsetzung.

Folge uns
  • LinkedIn
  • Facebook
  • Instagram
  • Twitter
Support
  • Discord
  • E-Mail
  • Systemstatus
  • Partner
Ressourcen
  • Kostenloses ComfyUI Online
  • ComfyUI Anleitungen
  • RunComfy API
  • ComfyUI Tutorials
  • ComfyUI Nodes
  • Erfahre mehr
Rechtliches
  • Nutzungsbedingungen
  • Datenschutzrichtlinie
  • Cookie-Richtlinie
RunComfy
Urheberrecht 2026 RunComfy. Alle Rechte vorbehalten.

RunComfy ist die führende ComfyUI Plattform, die ComfyUI online Umgebung und Services bietet, zusammen mit ComfyUI Workflows mit atemberaubenden Visualisierungen. RunComfy bietet auch AI Models, Künstlern ermöglichen, die neuesten AI-Tools zu nutzen, um unglaubliche Kunst zu schaffen.