logo
RunComfy
ComfyUIPlaygroundPricing
discord logo
ComfyUI>Fluxos de Trabalho>Image Bypass | Utilitário Inteligente de Bypass de Detecção de Imagem

Image Bypass | Utilitário Inteligente de Bypass de Detecção de Imagem

Workflow Name: RunComfy/Image-Bypass
Workflow ID: 0000...1317
Este fluxo de trabalho ajuda você a construir rotas de imagem simplificadas que evitam portas de detecção restritivas enquanto mantém controle total sobre entradas e saídas. Ele capacita criadores a personalizar pipelines de processamento de imagem com lógica eficiente, integração de nós estáveis e execução amigável para lotes. Projetado para flexibilidade e velocidade, garante resultados limpos e consistentes durante transformações de imagem. Você pode facilmente adaptá-lo para automação experimental ou projetos de alto volume. É construído para profissionais que precisam de manuseio de imagem confiável sem perda de desempenho.

ComfyUI Image Bypass Workflow

Este fluxo de trabalho oferece um pipeline modular de Image Bypass para ComfyUI que combina normalização não semântica, controles de domínio FFT e simulação de pipeline de câmera. É projetado para criadores e pesquisadores que precisam de uma maneira confiável de processar imagens através de uma etapa de Image Bypass enquanto mantêm controle total sobre o roteamento de entrada, comportamento de pré-processamento e consistência de saída.

No seu núcleo, o gráfico gera ou ingere uma imagem, então a roteia através de uma Suíte de Image Bypass que pode aplicar artefatos semelhantes a sensores, modelagem de frequência, correspondência de textura e um otimizador perceptual. O resultado é um caminho limpo e configurável que se adapta a trabalho em lote, automação e iteração rápida em GPUs de consumo. A lógica do Image Bypass é alimentada pela utilidade de código aberto deste repositório: PurinNyova/Image-Detection-Bypass-Utility.

Modelos chave no fluxo de trabalho ComfyUI Image Bypass

  • z_image_turbo_bf16 (checkpoint UNet). Um backbone de difusão texto-para-imagem rápido usado na ramificação T2I para prototipagem rápida e geração de imagem de base. É substituível pelo seu checkpoint preferido. Referência: Comfy-Org/z_image_turbo on Hugging Face.
  • VAE (ae.safetensors). Lida com a decodificação latente de volta para pixels para que a saída da amostragem possa ser visualizada e processada ainda mais pela etapa de Image Bypass. Qualquer VAE compatível pode ser trocado caso você prefira um perfil de reconstrução diferente.
  • Codificador de prompt (carregado via CLIPLoader). Codifica seus prompts positivos e negativos em vetores de condicionamento para o sampler. O gráfico é agnóstico ao arquivo específico do codificador de texto que você carrega, então você pode substituir modelos conforme necessário para seu gerador de base.

Como usar o fluxo de trabalho ComfyUI Image Bypass

Em um nível alto, o fluxo de trabalho oferece duas maneiras de produzir a imagem que entra na Suíte de Image Bypass: uma ramificação Texto-para-Imagem (T2I) e uma ramificação Imagem-para-Imagem (I2I). Ambas convergem em um único nó de processamento que aplica a lógica de Image Bypass e escreve o resultado final no disco. O gráfico também salva a linha de base pré-bypass para que você possa comparar saídas.

Grupo: T2I

Use este caminho quando quiser sintetizar uma imagem nova a partir de prompts. Seu codificador de prompt é carregado por CLIPLoader (#164) e lido por CLIP Text Encode (Positive Prompt) (#168) e CLIP Text Encode (Negative Prompt) (#163). O UNet é carregado com UNETLoader (#165), opcionalmente ajustado por ModelSamplingAuraFlow (#166) para ajustar o comportamento de amostragem do modelo, e então amostrado com KSampler (#167) começando de EmptySD3LatentImage (#162). A imagem decodificada sai de VAEDecode (#158) e é salva como linha de base via SaveImage (#159) antes de entrar na Suíte de Image Bypass. Para esta ramificação, suas entradas principais são os prompts positivos/negativos e, se desejado, a estratégia de semente em KSampler (#167).

Grupo: I2I

Escolha este caminho quando você já tiver uma imagem para processar. Carregue-a via LoadImage (#157) e roteie a saída IMAGE para a entrada da Suíte de Image Bypass em NovaNodes (#146). Isso ignora completamente o condicionamento de texto e a amostragem. É ideal para pós-processamento em lote, experimentos em conjuntos de dados existentes ou padronização de saídas de outros fluxos de trabalho. Você pode alternar livremente entre T2I e I2I dependendo se deseja gerar ou apenas transformar.

Grupo: Suíte de Image Bypass

Este é o coração do gráfico. O processador central NovaNodes (#146) recebe a imagem de entrada e dois blocos de opções: CameraOptionsNode (#145) e NSOptionsNode (#144). O nó pode operar em modo automático simplificado ou em modo manual que expõe controles para modelagem de frequência (suavização/correspondência FFT), perturbações de pixel e fase, controle de contraste local e tom, LUTs 3D opcionais e ajuste de estatísticas de textura. Duas entradas opcionais permitem que você conecte uma referência de balanço de branco automático e uma imagem de referência FFT/textura para guiar a normalização. O resultado final do Image Bypass é escrito por SaveImage (#147), dando a você tanto a linha de base quanto a saída processada para avaliação lado a lado.

Nós chave no fluxo de trabalho ComfyUI Image Bypass

NovaNodes (#146)

O processador central de Image Bypass. Ele orquestra a modelagem no domínio da frequência, perturbações espaciais, controle de tom local, aplicação de LUT e normalização de textura opcional. Se você fornecer uma awb_ref_image ou fft_ref_image, ele usará essas referências no início do pipeline para guiar a correspondência de cor e espectro. Comece no modo automático para obter uma linha de base sensata, depois mude para manual para ajustar a força do efeito e a mistura para seu conteúdo e tarefas a jusante. Para comparações consistentes, defina e reutilize uma semente; para exploração, randomize para diversificar micro-variações.

NSOptionsNode (#144)

Controla o otimizador não semântico que ajusta pixels enquanto preserva a similaridade perceptual. Ele expõe a contagem de iterações, taxa de aprendizado e pesos de regularização/perceptuais (LPIPS e L2) junto com o corte do gradiente. Use-o quando precisar de mudanças sutis na distribuição com artefatos visíveis mínimos; mantenha as mudanças conservadoras para preservar as texturas e bordas naturais. Desative-o completamente para medir quanto a pipeline de Image Bypass ajuda sem um otimizador.

CameraOptionsNode (#145)

Simula características de sensor e lente, como ciclos de desmosaico e JPEG, vinheta, aberração cromática, desfoque de movimento, banding e ruído de leitura. Trate-o como uma camada de realismo que pode adicionar artefatos de aquisição plausíveis às suas imagens. Ative apenas os componentes que correspondem às suas condições de captura alvo; empilhar muitos pode restringir demais a aparência. Para saídas reproduzíveis, mantenha as mesmas opções de câmera enquanto varia outros parâmetros.

ModelSamplingAuraFlow (#166)

Ajusta o comportamento de amostragem do modelo carregado antes de chegar a KSampler (#167). Isso é útil quando seu backbone escolhido se beneficia de uma trajetória de passo alternativa. Ajuste-o quando notar uma discrepância entre a intenção do prompt e a estrutura da amostra, e trate-o em conjunto com suas escolhas de sampler e scheduler.

KSampler (#167)

Executa a amostragem de difusão dado o modelo, condicionamento positivo e negativo, e o latente inicial. As alavancas chave são a estratégia de semente, etapas, tipo de sampler e força geral de desruído. Etapas mais baixas ajudam na velocidade, enquanto etapas mais altas podem estabilizar a estrutura se seu modelo base exigir. Mantenha o comportamento deste nó estável enquanto itera nas configurações de Image Bypass para que você possa atribuir mudanças ao pós-processamento em vez do gerador.

Extras opcionais

  • Troque modelos livremente. A Suíte de Image Bypass é agnóstica ao modelo; você pode substituir z_image_turbo_bf16 e ainda assim rotear resultados através da mesma pilha de processamento.
  • Use referências com cuidado. Forneça awb_ref_image e fft_ref_image que compartilhem características de iluminação e conteúdo com seu domínio alvo; referências incompatíveis podem reduzir o realismo.
  • Compare de forma justa. Mantenha SaveImage (#159) como a linha de base e SaveImage (#147) como a saída de Image Bypass para que você possa testar configurações A/B e rastrear melhorias.
  • Lote com cuidado. Aumente o tamanho do lote EmptySD3LatentImage (#162) apenas conforme o VRAM permitir, e prefira sementes fixas ao medir pequenas mudanças de parâmetro.
  • Aprenda a utilidade. Para detalhes de recursos e atualizações contínuas dos componentes de Image Bypass, veja o projeto original: PurinNyova/Image-Detection-Bypass-Utility.

Créditos

  • ComfyUI, o motor de gráficos usado por este fluxo de trabalho: comfyanonymous/ComfyUI.
  • Exemplo de checkpoint base: Comfy-Org/z_image_turbo.

Agradecimentos

Este fluxo de trabalho implementa e se baseia nos seguintes trabalhos e recursos. Agradecemos imensamente a PurinNyova pelo Image-Detection-Bypass-Utility por suas contribuições e manutenção. Para detalhes autoritativos, consulte a documentação original e os repositórios vinculados abaixo.

Recursos

  • PurinNyova/Image-Detection-Bypass-Utility
    • GitHub: PurinNyova/Image-Detection-Bypass-Utility
    • Docs / Release Notes: Repository (tree/main)

Nota: O uso dos modelos, conjuntos de dados e códigos referenciados está sujeito às respectivas licenças e termos fornecidos por seus autores e mantenedores.

Want More ComfyUI Workflows?

Wan 2.1 | Geração de Vídeo Revolucionária

Crie vídeos incríveis a partir de texto ou imagens com IA revolucionária rodando em CPUs comuns.

Wan 2.1 LoRA

Melhore a geração de vídeo Wan 2.1 com modelos LoRA para estilo e personalização aprimorados.

Wan 2.1 Fun | Geração de Vídeos ControlNet

Gere vídeos com passagens visuais estilo ControlNet como Profundidade, Canny e OpenPose.

Wan 2.1 Control LoRA | Profundidade e Azulejo

Avance na geração de vídeo Wan 2.1 com LoRAs de profundidade e azulejo leves para melhorar a estrutura e o detalhe.

Wan 2.1 Fun | I2V + T2V

Potencialize seus vídeos de IA com o Wan 2.1 Fun.

AnimateDiff + QR Code ControlNet | Efeitos Visuais (VFX)

Crie efeitos visuais cativantes com AnimateDiff e ControlNet (com QRCode Monster e Lineart).

PuLID Flux II | Geração Consistente de Personagens

Gere imagens com controle preciso de personagens enquanto preserva o estilo artístico.

Nvidia Cosmos | Criação de Texto e Imagem para Vídeo

Gere vídeos a partir de prompts de texto ou crie interpolação de quadros entre duas imagens com o Cosmos da Nvidia.

Siga-nos
  • LinkedIn
  • Facebook
  • Instagram
  • Twitter
Suporte
  • Discord
  • E-mail
  • Status do Sistema
  • afiliado
Recursos
  • ComfyUI Online Gratuito
  • Guias do ComfyUI
  • RunComfy API
  • Tutoriais do ComfyUI
  • Nós do ComfyUI
  • Saiba Mais
Legal
  • Termos de Serviço
  • Política de Privacidade
  • Política de Cookies
RunComfy
Copyright 2025 RunComfy. Todos os Direitos Reservados.

RunComfy é a principal ComfyUI plataforma, oferecendo ComfyUI online ambiente e serviços, juntamente com fluxos de trabalho do ComfyUI apresentando visuais impressionantes. RunComfy também oferece AI Playground, permitindo que artistas utilizem as mais recentes ferramentas de AI para criar arte incrível.