logo
RunComfy
ComfyUIPlaygroundPricing
discord logo
ComfyUI>Fluxos de Trabalho>FLUX ControlNet Depth-V3 & Canny-V3

FLUX ControlNet Depth-V3 & Canny-V3

Workflow Name: RunComfy/FLUX-ControlNet
Workflow ID: 0000...1115
Transforme seu processo criativo com os modelos FLUX-ControlNet Depth e Canny, projetados para o FLUX.1 [dev] pela XLabs AI. Este fluxo de trabalho do ComfyUI guia você no carregamento de modelos, configuração de parâmetros e combinação de FLUX-ControlNets para um controle sem precedentes sobre o conteúdo e a estrutura da imagem. Quer você esteja usando mapas de profundidade ou detecção de bordas, o FLUX-ControlNet capacita você a criar arte AI impressionante.

FLUX é um novo modelo de geração de imagens desenvolvido por Black Forest Labs, Os modelos FLUX-ControlNet-Depth e FLUX-ControlNet-Canny foram criados pela equipe XLabs AI. Este fluxo de trabalho do ComfyUI FLUX ControlNet também foi criado pela equipe XLabs AI. Para mais detalhes, visite x-flux-comfyui. Todo o crédito vai para sua contribuição.

Sobre o FLUX

Os modelos FLUX estão pré-carregados no RunComfy, nomeados flux/flux-schnell e flux/flux-dev.

  • Ao iniciar uma Máquina de Tamanho Médio no RunComfy: Selecione o checkpoint flux-schnell, fp8 e o clip t5_xxl_fp8 para evitar problemas de falta de memória.
  • Ao iniciar uma Máquina de Tamanho Grande ou Acima no RunComfy: Opte por um checkpoint grande flux-dev, default e um clip alto t5_xxl_fp16.

Para mais detalhes, visite: ComfyUI FLUX | Uma Nova Geração de Imagens Artísticas

🌟O seguinte Fluxo de Trabalho FLUX-ControlNet é especificamente projetado para o modelo FLUX.1 [dev].🌟

Sobre o Fluxo de Trabalho FLUX-ControlNet (FLUX-ControlNet-Depth-V3 e FLUX-ControlNet-Canny-V3)

Apresentamos dois fluxos de trabalho FLUX-ControlNet excepcionais: FLUX-ControlNet-Depth e FLUX-ControlNet-Canny, cada um oferecendo capacidades únicas para aprimorar seu processo criativo.

1. Como Usar o Fluxo de Trabalho ComfyUI FLUX-ControlNet-Depth-V3

O modelo FLUX-ControlNet Depth é primeiro carregado usando o nó "LoadFluxControlNet". Selecione o modelo "flux-depth-controlnet.safetensors" para um controle de profundidade ideal.

  • flux-depth-controlnet
  • flux-depth-controlnet-v2
  • flux-depth-controlnet-v3: ControlNet é treinado em resolução 1024x1024 e funciona para resolução 1024x1024, com uma versão melhor e mais realista

Conecte a saída deste nó ao nó "ApplyFluxControlNet". Além disso, conecte sua imagem de mapa de profundidade à entrada de imagem deste nó. O mapa de profundidade deve ser uma imagem em tons de cinza onde objetos mais próximos são mais claros e objetos distantes são mais escuros, permitindo que o FLUX-ControlNet interprete a informação de profundidade com precisão.

Você pode gerar o mapa de profundidade a partir de uma imagem de entrada usando um modelo de estimativa de profundidade. Aqui, o nó "MiDaS-DepthMapPreprocessor" é usado para converter a imagem carregada em um mapa de profundidade adequado para o FLUX-ControlNet. Parâmetros chave:

  • Threshold = 6.28 (afeta a sensibilidade às bordas)
  • Depth scale = 0.1 (quanto os valores do mapa de profundidade são escalados)
  • Output Size = 768 (resolução do mapa de profundidade)

No nó "ApplyFluxControlNet", o parâmetro Strength determina o quanto a imagem gerada é influenciada pelo condicionamento de profundidade do FLUX-ControlNet. Maior força fará com que a saída adira mais de perto à estrutura de profundidade.

2. Como Usar o Fluxo de Trabalho ComfyUI FLUX-ControlNet-Canny-V3

O processo é muito semelhante ao fluxo de trabalho FLUX-ControlNet-Depth. Primeiro, o modelo FLUX-ControlNet Canny é carregado usando "LoadFluxControlNet". Em seguida, ele é conectado ao nó "ApplyFluxControlNet".

  • flux-canny-controlnet
  • flux-canny-controlnet-v2
  • flux-canny-controlnet-v3: ControlNet é treinado em resolução 1024x1024 e funciona para resolução 1024x1024, com uma versão melhor e mais realista

A imagem de entrada é convertida em um mapa de bordas Canny usando o nó "CannyEdgePreprocessor", otimizando-a para o FLUX-ControlNet. Parâmetros chave:

  • Low Threshold = 100 (limiar de intensidade das bordas)
  • High Threshold = 200 (limiar de histerese para bordas)
  • Size = 832 (resolução do mapa de bordas)

O mapa de bordas Canny resultante é conectado ao nó "ApplyFluxControlNet". Novamente, use o parâmetro Strength para controlar o quanto o mapa de bordas influencia a geração do FLUX-ControlNet.

3. Tanto para ComfyUI FLUX-ControlNet-Depth-V3 quanto para ComfyUI FLUX-ControlNet-Canny-V3

Em ambos os fluxos de trabalho FLUX-ControlNet, o prompt de texto codificado pelo CLIP é conectado para conduzir o conteúdo das imagens, enquanto o condicionamento do FLUX-ControlNet controla a estrutura e a geometria com base no mapa de profundidade ou de bordas.

Combinando diferentes FLUX-ControlNets, modalidades de entrada como profundidade e bordas, e ajustando sua força, você pode alcançar um controle refinado sobre o conteúdo semântico e a estrutura das imagens geradas pelo FLUX-ControlNet.

Licença: controlnet.safetensors está sob a FLUX.1 [dev] Licença Não Comercial

Licença

Veja os arquivos de licença:

flux/model_licenses/LICENSE-FLUX1-dev

flux/model_licenses/LICENSE-FLUX1-schnell

O Modelo FLUX.1 [dev] é licenciado pela Black Forest Labs. Inc. sob a Licença Não Comercial FLUX.1 [dev]. Direitos autorais Black Forest Labs. Inc.

EM NENHUMA HIPÓTESE A BLACK FOREST LABS, INC. SERÁ RESPONSÁVEL POR QUALQUER RECLAMAÇÃO, DANOS OU OUTRA RESPONSABILIDADE, SEJA EM UMA AÇÃO DE CONTRATO, DELITO OU OUTRA, DECORRENTE DE, OU EM CONEXÃO COM O USO DESTE MODELO.

More ComfyUI Tutorials

ComfyUI FLUX: Guia de Configuração, Workflows como FLUX-ControlNet, FLUX-LoRA e FLUX-IPAdapter... e Acesso Online

Want More ComfyUI Workflows?

ACE++ Consistência de Personagem

Gere imagens consistentes do seu personagem em poses, ângulos e estilos a partir de uma única foto.

ComfyUI Vid2Vid Dance Transfer

Transfere o movimento e o estilo de um vídeo fonte para uma imagem ou objeto alvo.

IPAdapter Plus (V2) Máscara de Atenção | Imagem para Vídeo

Aproveite a Máscara de Atenção do IPAdapter Plus para um controle preciso do processo de geração de imagens.

AP Workflow 12.0 | Suíte Completa de Mídia AI Pronta para Uso

Sistema tudo-em-um pré-definido para geração, aprimoramento e manipulação de imagens e vídeos. Nenhuma configuração necessária.

MimicMotion | Geração de Vídeos de Movimento Humano

Gere vídeos de movimento humano de alta qualidade com MimicMotion, usando uma imagem de referência e uma sequência de movimento.

Omost | Melhore a Criação de Imagens

Omost | Melhore a Criação de Imagens

Omost usa codificação LLM para gerar imagens precisas e de alta qualidade.

LivePortrait | Anima Retratos | Vid2Vid

Atualizado em 16/06/2025: versão do ComfyUI atualizada para v0.3.39 para melhorar a estabilidade e compatibilidade. Transfira expressões faciais e movimentos de um vídeo de condução para um vídeo fonte.

AnimateDiff + ControlNet TimeStep KeyFrame | Animação de Morphing

Defina ControlNet Timestep KeyFrames, como os primeiro e último quadros, para criar animações de morphing.

Siga-nos
  • LinkedIn
  • Facebook
  • Instagram
  • Twitter
Suporte
  • Discord
  • E-mail
  • Status do Sistema
  • afiliado
Recursos
  • ComfyUI Online Gratuito
  • Guias do ComfyUI
  • RunComfy API
  • Tutoriais do ComfyUI
  • Nós do ComfyUI
  • Saiba Mais
Legal
  • Termos de Serviço
  • Política de Privacidade
  • Política de Cookies
RunComfy
Copyright 2025 RunComfy. Todos os Direitos Reservados.

RunComfy é a principal ComfyUI plataforma, oferecendo ComfyUI online ambiente e serviços, juntamente com fluxos de trabalho do ComfyUI apresentando visuais impressionantes. RunComfy também oferece AI Playground, permitindo que artistas utilizem as mais recentes ferramentas de AI para criar arte incrível.