logo
RunComfy
  • Models
  • ComfyUI
  • TrainerNew
  • API
  • Pricing
discord logo
ComfyUI>Fluxos de Trabalho>Hunyuan Video | Vídeo para Vídeo

Hunyuan Video | Vídeo para Vídeo

Workflow Name: RunComfy/Hunyuan-Vid2Vid
Workflow ID: 0000...1178
Este workflow Hunyuan no ComfyUI permite transformar visuais existentes em novos visuais impressionantes. Ao inserir prompts de texto e um vídeo de origem, o modelo Hunyuan gera traduções impressionantes que incorporam o movimento e os elementos-chave do vídeo de origem. Com arquitetura avançada e técnicas de treinamento, o Hunyuan produz conteúdo de alta qualidade, diverso e estável.

O vídeo Hunyuan, um modelo de IA de código aberto desenvolvido pela Tencent, permite gerar visuais impressionantes e dinâmicos com facilidade. O modelo Hunyuan aproveita uma arquitetura avançada e técnicas de treinamento para entender e gerar conteúdo de alta qualidade, diversidade de movimento e estabilidade.

Sobre o Workflow de Vídeo para Vídeo Hunyuan

Este Workflow Hunyuan no ComfyUI utiliza o modelo Hunyuan para criar novo conteúdo visual combinando prompts de texto de entrada com um vídeo de condução existente. Aproveitando as capacidades do modelo Hunyuan, você pode gerar traduções de vídeo impressionantes que incorporam perfeitamente o movimento e os elementos-chave do vídeo de condução enquanto alinha a saída com o seu prompt de texto desejado.

Como Usar o Workflow de Vídeo para Vídeo Hunyuan

🟥 Passo 1: Carregar Modelos Hunyuan

  • Carregue o modelo Hunyuan selecionando o arquivo "hunyuan_video_720_cfgdistill_fp8_e4m3fn.safetensors" no nó HyVideoModelLoader. Este é o modelo transformer principal.
  • O modelo HunyuanVideo VAE será baixado automaticamente no nó HunyuanVideoVAELoader. Ele é usado para codificar/decodificar quadros de vídeo.
  • Carregue um codificador de texto no nó DownloadAndLoadHyVideoTextEncoder. O workflow usa por padrão o codificador LLM "Kijai/llava-llama-3-8b-text-encoder-tokenizer" e o codificador CLIP "openai/clip-vit-large-patch14", que serão baixados automaticamente. Você também pode usar outros codificadores CLIP ou T5 que funcionaram com modelos anteriores.
    Hunyuan Video to Video Workflow

🟨 Passo 2: Inserir Prompt & Carregar Vídeo de Condução

  • Insira seu prompt de texto descrevendo o visual que você deseja gerar no nó HyVideoTextEncode.
  • Carregue o vídeo de condução que você deseja usar como referência de movimento no nó VHS_LoadVideo.
    • frame_load_cap: Número de quadros a gerar. Ao definir o número, você precisa garantir que o número menos um seja divisível por 4; caso contrário, um ValueError será acionado, indicando que o comprimento do vídeo é inválido.
    • skip_first_frames: Ajuste este parâmetro para controlar qual parte do vídeo será usada.
      Hunyuan Video to Video Workflow

🟦 Passo 3: Configurações de Geração Hunyuan

  • No nó HyVideoSampler, configure os hiperparâmetros de geração de vídeo:
    • Steps: Número de etapas de difusão por quadro, quanto maior, melhor a qualidade, mas mais lenta a geração. Padrão 30.
    • Embedded_guidance_scale: Quanto aderir ao prompt, valores mais altos aderem mais ao prompt.
    • Denoise_strength: Controla a força de uso do vídeo de condução inicial. Valores mais baixos (por exemplo, 0.6) fazem a saída parecer mais com o inicial.
  • Escolha complementos e alternâncias no nó "Fast Groups Bypasser" para habilitar/desabilitar recursos extras como o vídeo de comparação.
    Hunyuan Video to Video Workflow

🟩 Passo 4: Gerar Vídeo Huanyuan

  • Os nós VideoCombine irão gerar e salvar duas saídas por padrão:
    • O resultado do vídeo traduzido
    • Um vídeo de comparação mostrando o vídeo de condução e o resultado gerado
      Hunyuan Video to Video Workflow

Ajustar o prompt e as configurações de geração permite uma flexibilidade impressionante na criação de novos vídeos impulsionados pelo movimento de um vídeo existente usando o modelo Hunyuan. Divirta-se explorando as possibilidades criativas deste workflow Hunyuan!


Este workflow Hunyuan foi projetado por Black Mixture. Por favor, visite o canal do Youtube do Black Mixture para mais informações. Também agradecimentos especiais ao Kijai pelos wrappers Hunyuan nós e exemplos de workflow.

Want More ComfyUI Workflows?

Hunyuan Video | Texto para Vídeo

Gera vídeos a partir de prompts de texto.

LivePortrait | Anima Retratos | Img2Vid

Anime retratos com expressões faciais e movimento usando uma única imagem e vídeo de referência.

FLUX IP-Adapter | Geração de Imagens com Adaptação de Estilo

FLUX IP-Adapter | Geração de Imagens com Adaptação de Estilo

Adapte modelos pré-treinados a estilos de imagem específicos para visuais impressionantes de 512x512 e 1024x1024.

AnimateDiff + ControlNet | Estilo de Desenho Animado

Dê um toque divertido aos seus vídeos transformando-os em desenhos animados animados.

Wan 2.1 Ditto | Gerador de Restilização de Vídeo Cinematográfico

Transforme vídeos em estilos artísticos deslumbrantes com fluxo de movimento perfeito.

Consistent Character Creator 3.0 | Consistência Fácil, Qualquer Ângulo

Faça os personagens permanecerem os mesmos, todos os ângulos, fortes e perfeitos.

LatentSync| Modelo de Sincronização Labial

Tecnologia avançada de sincronização labial guiada por áudio.

ReActor | Troca Rápida de Rostos

Com o ComfyUI ReActor, você pode facilmente trocar os rostos de um ou mais personagens em imagens ou vídeos.

Siga-nos
  • LinkedIn
  • Facebook
  • Instagram
  • Twitter
Suporte
  • Discord
  • E-mail
  • Status do Sistema
  • afiliado
Recursos
  • ComfyUI Online Gratuito
  • Guias do ComfyUI
  • RunComfy API
  • Tutoriais do ComfyUI
  • Nós do ComfyUI
  • Saiba Mais
Legal
  • Termos de Serviço
  • Política de Privacidade
  • Política de Cookies
RunComfy
Copyright 2026 RunComfy. Todos os Direitos Reservados.

RunComfy é a principal ComfyUI plataforma, oferecendo ComfyUI online ambiente e serviços, juntamente com fluxos de trabalho do ComfyUI apresentando visuais impressionantes. RunComfy também oferece AI Models, permitindo que artistas utilizem as mais recentes ferramentas de AI para criar arte incrível.