Este fluxo de trabalho oferece um pipeline modular de Image Bypass para ComfyUI que combina normalização não semântica, controles de domínio FFT e simulação de pipeline de câmera. É projetado para criadores e pesquisadores que precisam de uma maneira confiável de processar imagens através de uma etapa de Image Bypass enquanto mantêm controle total sobre o roteamento de entrada, comportamento de pré-processamento e consistência de saída.
No seu núcleo, o gráfico gera ou ingere uma imagem, então a roteia através de uma Suíte de Image Bypass que pode aplicar artefatos semelhantes a sensores, modelagem de frequência, correspondência de textura e um otimizador perceptual. O resultado é um caminho limpo e configurável que se adapta a trabalho em lote, automação e iteração rápida em GPUs de consumo. A lógica do Image Bypass é alimentada pela utilidade de código aberto deste repositório: PurinNyova/Image-Detection-Bypass-Utility.
Em um nível alto, o fluxo de trabalho oferece duas maneiras de produzir a imagem que entra na Suíte de Image Bypass: uma ramificação Texto-para-Imagem (T2I) e uma ramificação Imagem-para-Imagem (I2I). Ambas convergem em um único nó de processamento que aplica a lógica de Image Bypass e escreve o resultado final no disco. O gráfico também salva a linha de base pré-bypass para que você possa comparar saídas.
Use este caminho quando quiser sintetizar uma imagem nova a partir de prompts. Seu codificador de prompt é carregado por CLIPLoader (#164) e lido por CLIP Text Encode (Positive Prompt) (#168) e CLIP Text Encode (Negative Prompt) (#163). O UNet é carregado com UNETLoader (#165), opcionalmente ajustado por ModelSamplingAuraFlow (#166) para ajustar o comportamento de amostragem do modelo, e então amostrado com KSampler (#167) começando de EmptySD3LatentImage (#162). A imagem decodificada sai de VAEDecode (#158) e é salva como linha de base via SaveImage (#159) antes de entrar na Suíte de Image Bypass. Para esta ramificação, suas entradas principais são os prompts positivos/negativos e, se desejado, a estratégia de semente em KSampler (#167).
Escolha este caminho quando você já tiver uma imagem para processar. Carregue-a via LoadImage (#157) e roteie a saída IMAGE para a entrada da Suíte de Image Bypass em NovaNodes (#146). Isso ignora completamente o condicionamento de texto e a amostragem. É ideal para pós-processamento em lote, experimentos em conjuntos de dados existentes ou padronização de saídas de outros fluxos de trabalho. Você pode alternar livremente entre T2I e I2I dependendo se deseja gerar ou apenas transformar.
Este é o coração do gráfico. O processador central NovaNodes (#146) recebe a imagem de entrada e dois blocos de opções: CameraOptionsNode (#145) e NSOptionsNode (#144). O nó pode operar em modo automático simplificado ou em modo manual que expõe controles para modelagem de frequência (suavização/correspondência FFT), perturbações de pixel e fase, controle de contraste local e tom, LUTs 3D opcionais e ajuste de estatísticas de textura. Duas entradas opcionais permitem que você conecte uma referência de balanço de branco automático e uma imagem de referência FFT/textura para guiar a normalização. O resultado final do Image Bypass é escrito por SaveImage (#147), dando a você tanto a linha de base quanto a saída processada para avaliação lado a lado.
NovaNodes (#146)O processador central de Image Bypass. Ele orquestra a modelagem no domínio da frequência, perturbações espaciais, controle de tom local, aplicação de LUT e normalização de textura opcional. Se você fornecer uma awb_ref_image ou fft_ref_image, ele usará essas referências no início do pipeline para guiar a correspondência de cor e espectro. Comece no modo automático para obter uma linha de base sensata, depois mude para manual para ajustar a força do efeito e a mistura para seu conteúdo e tarefas a jusante. Para comparações consistentes, defina e reutilize uma semente; para exploração, randomize para diversificar micro-variações.
NSOptionsNode (#144)Controla o otimizador não semântico que ajusta pixels enquanto preserva a similaridade perceptual. Ele expõe a contagem de iterações, taxa de aprendizado e pesos de regularização/perceptuais (LPIPS e L2) junto com o corte do gradiente. Use-o quando precisar de mudanças sutis na distribuição com artefatos visíveis mínimos; mantenha as mudanças conservadoras para preservar as texturas e bordas naturais. Desative-o completamente para medir quanto a pipeline de Image Bypass ajuda sem um otimizador.
CameraOptionsNode (#145)Simula características de sensor e lente, como ciclos de desmosaico e JPEG, vinheta, aberração cromática, desfoque de movimento, banding e ruído de leitura. Trate-o como uma camada de realismo que pode adicionar artefatos de aquisição plausíveis às suas imagens. Ative apenas os componentes que correspondem às suas condições de captura alvo; empilhar muitos pode restringir demais a aparência. Para saídas reproduzíveis, mantenha as mesmas opções de câmera enquanto varia outros parâmetros.
ModelSamplingAuraFlow (#166)Ajusta o comportamento de amostragem do modelo carregado antes de chegar a KSampler (#167). Isso é útil quando seu backbone escolhido se beneficia de uma trajetória de passo alternativa. Ajuste-o quando notar uma discrepância entre a intenção do prompt e a estrutura da amostra, e trate-o em conjunto com suas escolhas de sampler e scheduler.
KSampler (#167)Executa a amostragem de difusão dado o modelo, condicionamento positivo e negativo, e o latente inicial. As alavancas chave são a estratégia de semente, etapas, tipo de sampler e força geral de desruído. Etapas mais baixas ajudam na velocidade, enquanto etapas mais altas podem estabilizar a estrutura se seu modelo base exigir. Mantenha o comportamento deste nó estável enquanto itera nas configurações de Image Bypass para que você possa atribuir mudanças ao pós-processamento em vez do gerador.
z_image_turbo_bf16 e ainda assim rotear resultados através da mesma pilha de processamento.awb_ref_image e fft_ref_image que compartilhem características de iluminação e conteúdo com seu domínio alvo; referências incompatíveis podem reduzir o realismo.SaveImage (#159) como a linha de base e SaveImage (#147) como a saída de Image Bypass para que você possa testar configurações A/B e rastrear melhorias.EmptySD3LatentImage (#162) apenas conforme o VRAM permitir, e prefira sementes fixas ao medir pequenas mudanças de parâmetro.Este fluxo de trabalho implementa e se baseia nos seguintes trabalhos e recursos. Agradecemos imensamente a PurinNyova pelo Image-Detection-Bypass-Utility por suas contribuições e manutenção. Para detalhes autoritativos, consulte a documentação original e os repositórios vinculados abaixo.
Nota: O uso dos modelos, conjuntos de dados e códigos referenciados está sujeito às respectivas licenças e termos fornecidos por seus autores e mantenedores.
RunComfy é a principal ComfyUI plataforma, oferecendo ComfyUI online ambiente e serviços, juntamente com fluxos de trabalho do ComfyUI apresentando visuais impressionantes. RunComfy também oferece AI Playground, permitindo que artistas utilizem as mais recentes ferramentas de AI para criar arte incrível.