ComfyUI Image Bypass Workflow
Este fluxo de trabalho oferece um pipeline modular de Image Bypass para ComfyUI que combina normalização não semântica, controles de domínio FFT e simulação de pipeline de câmera. É projetado para criadores e pesquisadores que precisam de uma maneira confiável de processar imagens através de uma etapa de Image Bypass enquanto mantêm controle total sobre o roteamento de entrada, comportamento de pré-processamento e consistência de saída.
No seu núcleo, o gráfico gera ou ingere uma imagem, então a roteia através de uma Suíte de Image Bypass que pode aplicar artefatos semelhantes a sensores, modelagem de frequência, correspondência de textura e um otimizador perceptual. O resultado é um caminho limpo e configurável que se adapta a trabalho em lote, automação e iteração rápida em GPUs de consumo. A lógica do Image Bypass é alimentada pela utilidade de código aberto deste repositório: PurinNyova/Image-Detection-Bypass-Utility.
Modelos chave no fluxo de trabalho ComfyUI Image Bypass
- z_image_turbo_bf16 (checkpoint UNet). Um backbone de difusão texto-para-imagem rápido usado na ramificação T2I para prototipagem rápida e geração de imagem de base. É substituível pelo seu checkpoint preferido. Referência: Comfy-Org/z_image_turbo on Hugging Face.
- VAE (ae.safetensors). Lida com a decodificação latente de volta para pixels para que a saída da amostragem possa ser visualizada e processada ainda mais pela etapa de Image Bypass. Qualquer VAE compatível pode ser trocado caso você prefira um perfil de reconstrução diferente.
- Codificador de prompt (carregado via CLIPLoader). Codifica seus prompts positivos e negativos em vetores de condicionamento para o sampler. O gráfico é agnóstico ao arquivo específico do codificador de texto que você carrega, então você pode substituir modelos conforme necessário para seu gerador de base.
Como usar o fluxo de trabalho ComfyUI Image Bypass
Em um nível alto, o fluxo de trabalho oferece duas maneiras de produzir a imagem que entra na Suíte de Image Bypass: uma ramificação Texto-para-Imagem (T2I) e uma ramificação Imagem-para-Imagem (I2I). Ambas convergem em um único nó de processamento que aplica a lógica de Image Bypass e escreve o resultado final no disco. O gráfico também salva a linha de base pré-bypass para que você possa comparar saídas.
Grupo: T2I
Use este caminho quando quiser sintetizar uma imagem nova a partir de prompts. Seu codificador de prompt é carregado por CLIPLoader (#164) e lido por CLIP Text Encode (Positive Prompt) (#168) e CLIP Text Encode (Negative Prompt) (#163). O UNet é carregado com UNETLoader (#165), opcionalmente ajustado por ModelSamplingAuraFlow (#166) para ajustar o comportamento de amostragem do modelo, e então amostrado com KSampler (#167) começando de EmptySD3LatentImage (#162). A imagem decodificada sai de VAEDecode (#158) e é salva como linha de base via SaveImage (#159) antes de entrar na Suíte de Image Bypass. Para esta ramificação, suas entradas principais são os prompts positivos/negativos e, se desejado, a estratégia de semente em KSampler (#167).
Grupo: I2I
Escolha este caminho quando você já tiver uma imagem para processar. Carregue-a via LoadImage (#157) e roteie a saída IMAGE para a entrada da Suíte de Image Bypass em NovaNodes (#146). Isso ignora completamente o condicionamento de texto e a amostragem. É ideal para pós-processamento em lote, experimentos em conjuntos de dados existentes ou padronização de saídas de outros fluxos de trabalho. Você pode alternar livremente entre T2I e I2I dependendo se deseja gerar ou apenas transformar.
Grupo: Suíte de Image Bypass
Este é o coração do gráfico. O processador central NovaNodes (#146) recebe a imagem de entrada e dois blocos de opções: CameraOptionsNode (#145) e NSOptionsNode (#144). O nó pode operar em modo automático simplificado ou em modo manual que expõe controles para modelagem de frequência (suavização/correspondência FFT), perturbações de pixel e fase, controle de contraste local e tom, LUTs 3D opcionais e ajuste de estatísticas de textura. Duas entradas opcionais permitem que você conecte uma referência de balanço de branco automático e uma imagem de referência FFT/textura para guiar a normalização. O resultado final do Image Bypass é escrito por SaveImage (#147), dando a você tanto a linha de base quanto a saída processada para avaliação lado a lado.
Nós chave no fluxo de trabalho ComfyUI Image Bypass
NovaNodes (#146)
O processador central de Image Bypass. Ele orquestra a modelagem no domínio da frequência, perturbações espaciais, controle de tom local, aplicação de LUT e normalização de textura opcional. Se você fornecer uma awb_ref_image ou fft_ref_image, ele usará essas referências no início do pipeline para guiar a correspondência de cor e espectro. Comece no modo automático para obter uma linha de base sensata, depois mude para manual para ajustar a força do efeito e a mistura para seu conteúdo e tarefas a jusante. Para comparações consistentes, defina e reutilize uma semente; para exploração, randomize para diversificar micro-variações.
NSOptionsNode (#144)
Controla o otimizador não semântico que ajusta pixels enquanto preserva a similaridade perceptual. Ele expõe a contagem de iterações, taxa de aprendizado e pesos de regularização/perceptuais (LPIPS e L2) junto com o corte do gradiente. Use-o quando precisar de mudanças sutis na distribuição com artefatos visíveis mínimos; mantenha as mudanças conservadoras para preservar as texturas e bordas naturais. Desative-o completamente para medir quanto a pipeline de Image Bypass ajuda sem um otimizador.
CameraOptionsNode (#145)
Simula características de sensor e lente, como ciclos de desmosaico e JPEG, vinheta, aberração cromática, desfoque de movimento, banding e ruído de leitura. Trate-o como uma camada de realismo que pode adicionar artefatos de aquisição plausíveis às suas imagens. Ative apenas os componentes que correspondem às suas condições de captura alvo; empilhar muitos pode restringir demais a aparência. Para saídas reproduzíveis, mantenha as mesmas opções de câmera enquanto varia outros parâmetros.
ModelSamplingAuraFlow (#166)
Ajusta o comportamento de amostragem do modelo carregado antes de chegar a KSampler (#167). Isso é útil quando seu backbone escolhido se beneficia de uma trajetória de passo alternativa. Ajuste-o quando notar uma discrepância entre a intenção do prompt e a estrutura da amostra, e trate-o em conjunto com suas escolhas de sampler e scheduler.
KSampler (#167)
Executa a amostragem de difusão dado o modelo, condicionamento positivo e negativo, e o latente inicial. As alavancas chave são a estratégia de semente, etapas, tipo de sampler e força geral de desruído. Etapas mais baixas ajudam na velocidade, enquanto etapas mais altas podem estabilizar a estrutura se seu modelo base exigir. Mantenha o comportamento deste nó estável enquanto itera nas configurações de Image Bypass para que você possa atribuir mudanças ao pós-processamento em vez do gerador.
Extras opcionais
- Troque modelos livremente. A Suíte de Image Bypass é agnóstica ao modelo; você pode substituir
z_image_turbo_bf16e ainda assim rotear resultados através da mesma pilha de processamento. - Use referências com cuidado. Forneça
awb_ref_imageefft_ref_imageque compartilhem características de iluminação e conteúdo com seu domínio alvo; referências incompatíveis podem reduzir o realismo. - Compare de forma justa. Mantenha
SaveImage(#159) como a linha de base eSaveImage(#147) como a saída de Image Bypass para que você possa testar configurações A/B e rastrear melhorias. - Lote com cuidado. Aumente o tamanho do lote
EmptySD3LatentImage(#162) apenas conforme o VRAM permitir, e prefira sementes fixas ao medir pequenas mudanças de parâmetro. - Aprenda a utilidade. Para detalhes de recursos e atualizações contínuas dos componentes de Image Bypass, veja o projeto original: PurinNyova/Image-Detection-Bypass-Utility.
Créditos
- ComfyUI, o motor de gráficos usado por este fluxo de trabalho: comfyanonymous/ComfyUI.
- Exemplo de checkpoint base: Comfy-Org/z_image_turbo.
Agradecimentos
Este fluxo de trabalho implementa e se baseia nos seguintes trabalhos e recursos. Agradecemos imensamente a PurinNyova pelo Image-Detection-Bypass-Utility por suas contribuições e manutenção. Para detalhes autoritativos, consulte a documentação original e os repositórios vinculados abaixo.
Recursos
- PurinNyova/Image-Detection-Bypass-Utility
- GitHub: PurinNyova/Image-Detection-Bypass-Utility
- Docs / Release Notes: Repository (tree/main)
Nota: O uso dos modelos, conjuntos de dados e códigos referenciados está sujeito às respectivas licenças e termos fornecidos por seus autores e mantenedores.

