ComfyUI  >  Workflows  >  Hunyuan Bild-zu-Video | Atemberaubender Bewegungscreator

Hunyuan Bild-zu-Video | Atemberaubender Bewegungscreator

Aktualisiert am 16.06.2025: ComfyUI-Version auf v0.3.39 aktualisiert für verbesserte Stabilität und Kompatibilität, mit installiertem SageAttn für 30% schnellere Generierung. Hunyuan Bild-zu-Video ist das neueste Bild-zu-Video-Modell von Tencent, basierend auf dem HunyuanVideo-Fundament. Es verwandelt statische Bilder in hochwertige Videos mit flüssigen Bewegungen. Durch die Verwendung von Bild-Latent-Konkatenation und einem vortrainierten Multimodalen Großen Sprachmodell werden Bilder reibungslos mit Textanweisungen kombiniert. HunyuanVideo I2V unterstützt Auflösungen bis zu 720p bei 24fps für Videos bis zu 5 Sekunden. Es ermöglicht auch anpassbare Effekte über LoRA-Training, was einzigartige Transformationen wie Haarwachstum oder emotionale Umarmungen erlaubt. Der Hunyuan Bild-zu-Video-Workflow umfasst Wrapper-Knoten und native Kompatibilität, mit Speicheroptimierung durch FP8-Gewichte für Effizienz.

ComfyUI Hunyuan image-to-video Arbeitsablauf

HunyuanVideo-I2V Workflow in ComfyUI | Premium Image-to-Video Generation
Möchtest du diesen Workflow ausführen?
  • Voll funktionsfähige Workflows
  • Keine fehlenden Nodes oder Modelle
  • Keine manuelle Einrichtung erforderlich
  • Beeindruckende Visualisierungen

ComfyUI Hunyuan image-to-video Beispiele

ComfyUI Hunyuan image-to-video Beschreibung

ComfyUI Hunyuan Bild-zu-Video-Workflow Beschreibung

1. Was ist der Hunyuan Bild-zu-Video-Workflow?

Der Hunyuan Bild-zu-Video-Workflow ist eine leistungsstarke Pipeline, die entwickelt wurde, um Standbilder in hochwertige Videos mit natürlicher Bewegung zu verwandeln. Entwickelt von Tencent, ermöglicht diese hochmoderne Technologie Benutzern, kinoreife Animationen mit flüssiger 24fps-Wiedergabe bei Auflösungen bis zu 720p zu erstellen. Durch die Nutzung von latenter Bild-Konkatenation und einem Multimodalen Großen Sprachmodell interpretiert Hunyuan Bild-zu-Video Bildinhalte und wendet konsistente Bewegungsmuster basierend auf Textanweisungen an.

2. Vorteile von Hunyuan Bild-zu-Video:

  • Hochauflösende Ausgabe - Generiert Videos bis zu 720p bei 24fps
  • Natürliche Bewegungserzeugung - Erstellt flüssige, realistische Animationen aus statischen Bildern
  • Textgeführte Animation - Verwendet Textanweisungen zur Steuerung von Bewegung und visuellen Effekten
  • Kinoqualität - Produziert Videos in professioneller Qualität mit hoher Treue
  • Anpassbare Effekte - Unterstützt LoRA-trainierte Effekte wie Haarwachstum, Gesichtsausdrücke und Stiländerungen
  • Optimierte Speichernutzung - Nutzt FP8-Gewichte für besseres Ressourcenmanagement

3. Wie man den Hunyuan Bild-zu-Video-Workflow verwendet

3.1 Generierungsmethoden mit Hunyuan Bild-zu-Video

Beispiel-Workflow:

Hunyuan Image-to-Video

  1. Eingaben vorbereiten
    • In Bild Laden: Laden Sie Ihr Quellbild hoch
  2. Bewegungsbeschreibung eingeben
    • In HyVideo I2V Kodieren: Geben Sie ein beschreibendes Textanweisung für die gewünschte Bewegung ein
  3. Verfeinerung (Optional)
    • Im HunyuanVideo Sampler: Passen Sie frames an, um die Videolänge zu steuern (Standard: 129 Frames ≈ 5 Sekunden)
    • Im HunyuanVideo TeaCache: Ändern Sie cache_factor für optimierte Speichernutzung
    • Im HunyuanVideo Video Verbessern: Aktivieren Sie für zeitliche Konsistenz und Flackernreduzierung
  4. Ausgabe
    • Im Video Kombinieren: Überprüfen Sie die Vorschau und finden Sie das gespeicherte Ergebnis im ComfyUI > Ausgabe-Ordner

3.2 Parameterreferenz für Hunyuan Bild-zu-Video

Hunyuan Image-to-Video

  • HunyuanVideo Modelllader
    • model_name: hunyuan_video_I2V_fp8_e4m3fn.safetensors - Kernmodell für die Bild-zu-Video-Konvertierung
    • weight_precision: bf16 - Definiert das Präzisionsniveau für Modellgewichte
    • scale_weights: fp8_e4m3fn - Optimiert die Speichernutzung
    • attention_implementation: flash_attn_varlen - Steuert die Effizienz der Aufmerksamkeitsverarbeitung
  • HunyuanVideo Sampler
    • frames: 129 - Anzahl der Frames (5.4 Sekunden bei 24fps)
    • steps: 20 - Abtastschritte (höhere Werte verbessern die Qualität)
    • cfg: 6 - Steuert die Stärke der Anweisungstreue
    • seed: variiert - Sichert die Konsistenz der Generierung
  • HyVideo I2V Kodieren
    • prompt: [Textfeld] - Beschreibende Anweisung für Bewegung und Stil
    • add_prepend: true - Ermöglicht automatische Textformatierung

3.3 Erweiterte Optimierung mit Hunyuan Bild-zu-Video

  • Speicheroptimierung
    • HunyuanVideo BlockSwap: CPU-Auslagerung für VRAM-Effizienz
    • HunyuanVideo TeaCache: Steuert das Cache-Verhalten zur Balance zwischen Speicher und Geschwindigkeit
    • scale_weights: FP8-Gewichte (e4m3fn-Format) zur Speicherreduzierung
  • Geschwindigkeitsoptimierung
    • HunyuanVideo Torch Compile Einstellungen: Aktiviert Torch-Kompilierung für schnellere Verarbeitung
    • attention_implementation: Wählt effiziente Aufmerksamkeitsmechanismen zur Leistungssteigerung
    • offload_device: Konfiguriert das Speicher-Management von GPU/CPU

Weitere Informationen

Für weitere Details zum Hunyuan Bild-zu-Video-Workflow besuchen Sie das .

Danksagungen

Dieser Workflow wird von Hunyuan Bild-zu-Video betrieben, entwickelt von Tencent. Die ComfyUI-Integration umfasst Wrapper-Knoten, die von Kijai erstellt wurden und erweiterte Funktionen wie Kontext-Fenster und direkte Bild-Einbettungsunterstützung ermöglichen. Der volle Kredit gebührt den ursprünglichen Erstellern für ihre Beiträge zum Hunyuan Bild-zu-Video-Workflow!

Möchtest du mehr ComfyUI Workflows?

RunComfy
Urheberrecht 2025 RunComfy. Alle Rechte vorbehalten.

RunComfy ist die führende ComfyUI Plattform, die ComfyUI online Umgebung und Services bietet, zusammen mit ComfyUI Workflows mit atemberaubenden Visualisierungen. RunComfy bietet auch AI-Spielplatz, Künstlern ermöglichen, die neuesten AI-Tools zu nutzen, um unglaubliche Kunst zu schaffen.