Hunyuan Video
Video Model
Text to Video
Image to Video
Einführung in Hunyuan Video
Im Dezember 2024 veröffentlichte Tencent mit Hunyuan Video ein Open-Source-Videomodell, das mithilfe künstlicher Intelligenz aus detaillierten Texteingaben hochwertige Videos erzeugt. Der Fokus liegt dabei auf filmischer Gestaltung, fließenden Übergängen und realistischer Bewegung. Hunyuan Video richtet sich an Kreative, Entwickler und Medienprofis, die aus Textbeschreibungen beeindruckende Videoinhalte generieren möchten. Die KI erstellt visuell konsistente Clips mit natürlichem Schnitt, nahtlosen Übergängen und realistischer Kameraführung – perfekt für alle, die ihre Storys eindrucksvoll in Szene setzen wollen.
Entdecken Sie die Funktionen von Hunyuan Video

Kinoqualität
Mit Hunyuan Video erstellen Sie hochwertige Videos mit cineastischem Flair. Dank eines speziellen räumlich-zeitlichen Latentraums und der Causal 3D VAE-Technologie bietet Hunyuan Video gleichbleibend klare Bildfolgen, kontrollierte Lichtverhältnisse und realistische Kamerafahrten. Ideal für alle, die professionelle Videoqualität direkt aus Text generieren möchten.

Sanfter Schnitt
Hunyuan Video analysiert Motion und visuelle Struktur, um automatisch kohärente Szenen zu erkennen und fließend zu schneiden. Durch semantische Schnittlogik und vordefinierte Kamerabewegungen gelingen Bildwechsel ohne visuelle Brüche. Hunyuan Video sorgt so für realistische Übergänge – ideal für hochwertige Videoerstellung ohne manuelle Nachbearbeitung.

Fließende Aktion
Hunyuan Video erzeugt realistische Bewegungen mit logischem Ablauf dank fortschrittlichem Video-Bild-Training. Die Flow Matching-Technologie macht Handlungen dynamisch und artefaktfrei – perfekt für Animationen und lange Handlungssequenzen. Hunyuan Video gibt Ihnen damit präzise Kontrolle über Bewegungsflüsse und verbessert Ihre Videostabilität maßgeblich.

Starke Szenen
Hunyuan Video kombiniert auch komplexe Konzepte in einer einzigen Szene – egal ob verschiedene Stile, Umgebungen oder Objekte. Die KI nutzt ein multimodales Sprachmodell zur Synthese sinnvoller Inhalte. Hunyuan Video ermöglicht so kreative Videoideen ohne komplizierte Nachbearbeitung – ein Gewinn für jeden, der mit Text kreative Welten erschaffen will.
Frequently Asked Questions
Was ist Hunyuan Video und wofür kann ich es nutzen?
Hunyuan Video ist ein Open-Source-KI-Modell zur Videogenerierung, das von Tencent entwickelt wurde und über 13 Milliarden Parameter verfügt. Es verwandelt detaillierte Texteingaben in hochwertige Videos mit flüssigen Szenenübergängen, realistischen Schnitten und gleichmäßigen Bewegungen. Damit eignet sich Hunyuan Video ideal zur Erstellung überzeugender visueller Geschichten.
Wie nutze ich Hunyuan Video?
Hunyuan Video wird in der Regel über ComfyUI oder ähnliche Oberflächen genutzt, um Videos aus Text (T2V) oder Bildern (I2V) zu generieren. RunComfy bietet dafür mehrere Workflows an, unter anderem den Hunyuan Text-to-Video Workflow, den Hunyuan Image-to-Video Workflow, sowie Hunyuan Video-to-Video und Hunyuan LoRA Workflows.
Falls du ComfyUI nicht verwenden möchtest, kannst du Hunyuan Video auch ganz unkompliziert im RunComfy AI Playground ausprobieren – ohne Installation und mit einer benutzerfreundlichen Oberfläche.
Wo kann ich Hunyuan Video kostenlos ausprobieren?
Du kannst Hunyuan Video kostenlos im RunComfy AI Playground testen. Dort erhältst du ein Guthaben, mit dem du Hunyuan Video und weitere KI-Modelle sowie Workflows erkunden kannst.
Wie kann ich Hunyuan Video in ComfyUI länger machen?
Die Länge eines Hunyuan Video hängt von den Parametern „num_frames“ und „frame rate“ ab. Die Dauer berechnet sich aus num_frames geteilt durch die Bildrate. Bei 85 Bildern und 16 fps ergibt sich z. B. eine Laufzeit von rund 5 Sekunden.
Um ein längeres Hunyuan Video zu erstellen, kannst du den Wert für num_frames erhöhen, während du die Bildrate gleich lässt. Alternativ kannst du beide Parameter anpassen, um die richtige Balance zwischen Länge und Bildfluss zu finden. Beachte, dass längere Videos höhere Anforderungen an Rechenleistung und VRAM stellen.
Unterstützend bietet RunComfy verschiedene Workflows für Hunyuan Video an – darunter Text-to-Video, Image-to-Video und weitere.
Wie lang kann ein Hunyuan Video maximal sein?
Ein Hunyuan Video kann maximal 129 Bilder umfassen. Bei einer Bildrate von 24 fps ergibt das rund 5 Sekunden Videozeit. Wenn du die Rate auf 16 fps senkst, verlängert sich die mögliche Länge auf etwa 8 Sekunden.
Wie installiere ich Hunyuan Video?
1. Lokale Installation von Hunyuan Video
Schritt 1: ComfyUI auf den neuesten Stand bringen. Schritt 2: Die benötigten Modell-Dateien (Diffusionsmodell, Textencoder, VAE) von offiziellen Quellen wie Tencent GitHub oder Hugging Face herunterladen. Schritt 3: Dateien in die vorgegebenen Verzeichnisse legen (siehe Anleitung für die Ordnerstruktur). Schritt 4: Die Hunyuan Video Workflow-JSON-Datei in ComfyUI laden. Schritt 5: Fehlende Custom Nodes ggf. über ComfyUI Manager installieren. Schritt 6: ComfyUI neu starten und ein Testvideo erzeugen.
2. Online über RunComfy AI Playground nutzen
Alternativ kannst du Hunyuan Video direkt im RunComfy AI Playground starten, ohne Installation.
3. Online über RunComfy ComfyUI nutzen
Für einen nahtlosen Workflow-Betrieb stehen fertige Workflows auf RunComfy zur Verfügung: Text-to-Video, Image-to-Video, Video-to-Video und LoRA Workflows.
Wie viel VRAM benötigt das Hunyuan KI-Video-Modell?
Der VRAM-Bedarf von Hunyuan Video hängt von Modell-Einstellungen, Ausgabelänge und Qualitätsansprüchen ab. Für einfache Workflows genügen ca. 10–12 GB VRAM. Für flüssigere Abläufe und bessere Qualität – insbesondere bei längeren Videos – empfehlen sich mindestens 16 GB. Die genauen Anforderungen variieren je nach Konfiguration.
Wohin kommen die Hunyuan LoRA-Dateien?
Die Hunyuan LoRA-Dateien müssen in den dafür vorgesehenen LoRA-Ordner deiner Installation gelegt werden. In lokalen Setups mit ComfyUI oder Stable Diffusion ist das meist ein Unterverzeichnis im Modelle-Ordner, z. B. „models/lora“. So kann das System die Dateien automatisch erkennen und laden.
Wie formuliere ich eine gute Eingabeaufforderung für Hunyuan AI?
Ein durchdachter Prompt ist entscheidend für hochwertige Videos mit Hunyuan Video. Gute Prompts bestehen aus folgenden Elementen: 1. Subjekt: z. B. „Eine junge Frau mit wallendem roten Haar“ 2. Szene: z. B. „In einer neonbeleuchteten Cyberpunk-Stadt“ 3. Bewegung: z. B. „Tanzt durch herabfallende Herbstblätter“ 4. Kamerabewegung: z. B. „Langsames Hochfahren der Kamera mit Blick auf die Skyline“ 5. Atmosphäre: z. B. „Geheimnisvolle, ätherische Stimmung“ 6. Lichtverhältnisse: z. B. „Weiches, warmes Sonnenlicht zwischen den Bäumen“ 7. Kadrage: z. B. „Nahaufnahme mit Fokus auf emotionale Mimik“
Mit solchen Angaben gibst du Hunyuan Video präzise Anleitungen für die gewünschte Szene.
Was ist SkyReels Hunyuan?
SkyReels Hunyuan ist eine spezielle Variante des Hunyuan Video-Modells, die für cineastische und stilisierte Videogenerierung optimiert wurde. Sie basiert auf über 10 Millionen Film- und TV-Clips, die aus dem Hunyuan Basismodell weiter verfeinert wurden. Dadurch entstehen besonders realistische Bewegungen und emotionale Ausdrücke. Du kannst SkyReels AI direkt ausprobieren und deine eigenen Videos erstellen.
Wie verarbeitet Hunyuan Video Bild-zu-Video-Aufgaben?
Hunyuan Video wurde ursprünglich als Text-zu-Video-Modell entwickelt. Mit der Erweiterung HunyuanVideo-I2V kannst du jetzt auch statische Bilder in dynamische Videos umwandeln. Diese Anwendung nutzt ein Token-Replacement-Verfahren, um Informationen aus Referenzbildern effektiv in die Videogenerierung zu integrieren – ideal für kreative Bild-zu-Video-Projekte mit Hunyuan Video.
Wie verwende ich Hunyuan I2V in ComfyUI?
Eine ausführliche Anleitung zur Nutzung von Hunyuan I2V in ComfyUI findest du hier. Der Workflow ist so gestaltet, dass du Schritt für Schritt lernst, wie du aus Bildern animierte Szenen mit Hunyuan Video erzeugst.
Was ist Hunyuan-DiT?
Hunyuan-DiT ist eine Variante auf Basis von Diffusion-Transformern, die speziell auf Text-zu-Bild-Aufgaben ausgelegt ist. Sie teilt sich die zentrale Technologie mit Hunyuan Video und verbindet text- oder bildbasierte Eingaben mit Videogenerierung. Damit entsteht ein flexibler Ansatz über verschiedene Medien hinweg.
Unterstützt Hunyuan Video die Erstellung von 3D-Inhalten?
Ja, Hunyuan Video unterstützt auch 3D-Content-Erstellung. Tencent bietet dazu Tools, die Text und Bilder in hochwertige 3D-Visuals umwandeln. Die zugrunde liegende Hunyuan3D-2.0-Technologie ermöglicht schnelle und realistische 3D-Ergebnisse. Über ComfyUI kannst du mit dem Hunyuan3D-2 Workflow direkt loslegen.
Wie installiere ich Tencent Hunyuan3D-2 in ComfyUI?
Du kannst Hunyuan3D-2 lokal in ComfyUI installieren, indem du die aktuelle Version verwendest, das entsprechende Modell und den Workflow-JSON von Tencent herunterlädst und alle Dateien in die vorgesehenen Ordner legst. Fehlende Custom Nodes installierst du über den ComfyUI Manager. Nach dem Neustart sollte alles bereit sein.
Alternativ bietet sich der Online-Zugang über den Hunyuan3D-2 Workflow im RunComfy Playground an – ganz ohne Installation.
Wie kann ich Hunyuan Video lokal oder auf einem MacBook ausführen?
Für die lokale Nutzung von Hunyuan Video musst du das offizielle Modell von Tencents GitHub herunterladen und in dein ComfyUI-Verzeichnis integrieren. Auf einem MacBook solltest du vorab prüfen, ob dein System die Anforderungen (RAM, GPU-Unterstützung) erfüllt.
Wer sich den Aufwand sparen möchte, nutzt einfach den RunComfy AI Playground: Hier kannst du Hunyuan Video direkt online verwenden, ohne es lokal einrichten zu müssen.
Was ist der Hunyuan Video Wrapper und wie verwende ich ihn?
Der Hunyuan Video Wrapper ist ein auf ComfyUI basierender Node von 'kijai', der die einfache Integration des Hunyuan Video-Modells ermöglicht. Mithilfe vordefinierter Workflows kannst du sofort loslegen:
Wie verwende ich Hunyuan Video mit ComfyUI?
Mit den fertigen Workflows von RunComfy gelingt der Einstieg in Hunyuan Video über ComfyUI im Handumdrehen. Jeder Workflow ist schon vorkonfiguriert und bietet eine detaillierte Anleitung:
So nutzt du den vollen Funktionsumfang von Hunyuan Video direkt in ComfyUI.