logo
RunComfy
  • Playground
  • ComfyUI
  • TrainerNew
  • API
  • Pricing
discord logo
ComfyUI>Workflows>Hunyuan Vidéo | Vidéo à Vidéo

Hunyuan Vidéo | Vidéo à Vidéo

Workflow Name: RunComfy/Hunyuan-Vid2Vid
Workflow ID: 0000...1178
Ce workflow Hunyuan dans ComfyUI vous permet de transformer des visuels existants en nouveaux visuels époustouflants. En entrant des invites texte et une vidéo source, le modèle Hunyuan génère des traductions impressionnantes qui incorporent le mouvement et les éléments clés de la source. Grâce à une architecture avancée et des techniques d'entraînement, Hunyuan produit un contenu de haute qualité, diversifié et stable.

La vidéo Hunyuan, un modèle d'IA open-source développé par Tencent, vous permet de générer des visuels époustouflants et dynamiques avec facilité. Le modèle Hunyuan utilise une architecture avancée et des techniques d'entraînement pour comprendre et générer un contenu de haute qualité, diversifié en mouvements et stable.

À propos du workflow Hunyuan Vidéo à Vidéo

Ce workflow Hunyuan dans ComfyUI utilise le modèle Hunyuan pour créer un nouveau contenu visuel en combinant des invites texte avec une vidéo existante. En tirant parti des capacités du modèle Hunyuan, vous pouvez générer des traductions vidéo impressionnantes qui intègrent parfaitement le mouvement et les éléments clés de la vidéo de référence tout en alignant le résultat sur votre invite texte souhaitée.

Comment utiliser le workflow Hunyuan Vidéo à Vidéo

🟥 Étape 1 : Charger les modèles Hunyuan

  • Chargez le modèle Hunyuan en sélectionnant le fichier "hunyuan_video_720_cfgdistill_fp8_e4m3fn.safetensors" dans le nœud HyVideoModelLoader. C'est le modèle transformateur principal.
  • Le modèle HunyuanVideo VAE sera automatiquement téléchargé dans le nœud HunyuanVideoVAELoader. Il est utilisé pour l'encodage/décodage des images vidéo.
  • Chargez un encodeur de texte dans le nœud DownloadAndLoadHyVideoTextEncoder. Le workflow utilise par défaut l'encodeur LLM "Kijai/llava-llama-3-8b-text-encoder-tokenizer" et l'encodeur CLIP "openai/clip-vit-large-patch14", qui seront téléchargés automatiquement. Vous pouvez également utiliser d'autres encodeurs CLIP ou T5 qui ont fonctionné avec des modèles précédents.
Hunyuan Video to Video Workflow

🟨 Étape 2 : Entrer l'invite & Charger la vidéo de référence

  • Entrez votre invite texte décrivant le visuel que vous souhaitez générer dans le nœud HyVideoTextEncode.
  • Chargez la vidéo de référence que vous souhaitez utiliser comme référence de mouvement dans le nœud VHS_LoadVideo.
    • frame_load_cap : Nombre d'images à générer. Lors de la définition du nombre, vous devez vous assurer que le nombre moins un est divisible par 4 ; sinon, une ValueError sera déclenchée, indiquant que la longueur de la vidéo est invalide.
    • skip_first_frames : Ajustez ce paramètre pour contrôler quelle partie de la vidéo est utilisée.
Hunyuan Video to Video Workflow

🟦 Étape 3 : Paramètres de génération Hunyuan

  • Dans le nœud HyVideoSampler, configurez les hyperparamètres de génération vidéo :
    • Steps : Nombre d'étapes de diffusion par image, plus élevé signifie une meilleure qualité mais une génération plus lente. Par défaut 30.
    • Embedded_guidance_scale : À quel point s'en tenir à l'invite, des valeurs plus élevées adhèrent davantage à l'invite.
    • Denoise_strength : Contrôle la force de l'utilisation de la vidéo de référence initiale. Des valeurs plus basses (par exemple 0,6) rendent le résultat plus semblable à l'initial.
  • Choisissez des addons et des bascules dans le nœud "Fast Groups Bypasser" pour activer/désactiver des fonctionnalités supplémentaires comme la vidéo de comparaison.
Hunyuan Video to Video Workflow

🟩 Étape 4 : Générer la vidéo Huanyuan

  • Les nœuds VideoCombine génèreront et enregistreront deux sorties par défaut :
    • Le résultat vidéo traduit
    • Une vidéo de comparaison montrant la vidéo de référence et le résultat généré
Hunyuan Video to Video Workflow

Modifier l'invite et les paramètres de génération permet une flexibilité impressionnante dans la création de nouvelles vidéos entraînées par le mouvement d'une vidéo existante en utilisant le modèle Hunyuan. Amusez-vous à explorer les possibilités créatives de ce workflow Hunyuan !


Ce workflow Hunyuan a été conçu par Black Mixture. Veuillez visiter la chaîne Youtube de Black Mixture pour plus d'informations. Remerciements spéciaux à Kijai pour les wrappers Hunyuan et les exemples de workflow.

Want More ComfyUI Workflows?

Hunyuan Video | Texte en Vidéo

Génère des vidéos à partir de textes.

SeedVR2 V2.5 | Workflow de Mise à l'Échelle Vidéo AI

Mettez à l'échelle les vidéos rapidement avec des résultats nets, fluides et cinématographiques.

Pose Control LipSync S2V | Générateur de Vidéos Expressives

Transformez des images en personnages parlants et animés avec un contrôle de la pose et de l'audio.

Flux Krea Dev | Texte à Image Naturel

Le meilleur modèle FLUX open-source ! Des résultats naturels absolument incroyables.

OmniGen | Image-à-Image

OmniGen : Modifier les Images Basées sur des Images de Référence et des Prompts

Put It Here Kontext | Remplacement d'Objet

Mettez n'importe quoi n'importe où. Kontext le rend réaliste. Fonctionne parfaitement.

Effets d'animation graphique | Vid2Vid

Réalisez des effets d'animation graphique à partir d'une vidéo existante.

Mochi Edit Suréchantillonnage | Vidéo-à-Vidéo

Mochi Edit : Modifiez des vidéos en utilisant des invites textuelles et le suréchantillonnage.

Suivez-nous
  • LinkedIn
  • Facebook
  • Instagram
  • Twitter
Support
  • Discord
  • Email
  • État du système
  • affilié
Ressources
  • ComfyUI en ligne gratuit
  • Guides ComfyUI
  • RunComfy API
  • Tutoriels ComfyUI
  • Nœuds ComfyUI
  • En savoir plus
Légal
  • Conditions d'utilisation
  • Politique de confidentialité
  • Politique relative aux cookies
RunComfy
Droits d'auteur 2025 RunComfy. Tous droits réservés.

RunComfy est la première ComfyUI plateforme, offrant des ComfyUI en ligne environnement et services, ainsi que des workflows ComfyUI proposant des visuels époustouflants. RunComfy propose également AI Playground, permettant aux artistes d'utiliser les derniers outils d'IA pour créer des œuvres d'art incroyables.