logo
RunComfy
ComfyUIPlaygroundPricing
discord logo
ComfyUI>Workflow>FLUX ControlNet Depth-V3 & Canny-V3

FLUX ControlNet Depth-V3 & Canny-V3

Workflow Name: RunComfy/FLUX-ControlNet
Workflow ID: 0000...1115
Trasforma il tuo processo creativo con i modelli FLUX-ControlNet Depth e Canny, progettati per FLUX.1 [dev] da XLabs AI. Questo workflow ComfyUI ti guida nel caricamento dei modelli, nella configurazione dei parametri e nella combinazione dei FLUX-ControlNets per un controllo senza precedenti sul contenuto e la struttura dell'immagine. Che tu stia usando mappe di profondità o rilevamento dei bordi, FLUX-ControlNet ti permette di creare arte AI straordinaria.

FLUX è un nuovo modello di generazione di immagini sviluppato da Black Forest Labs, I modelli FLUX-ControlNet-Depth e FLUX-ControlNet-Canny sono stati creati dal team XLabs AI. Anche questo workflow ComfyUI FLUX ControlNet è stato creato dal team XLabs AI. Per maggiori dettagli, visita x-flux-comfyui. Tutto il merito va al loro contributo.

Informazioni su FLUX

I modelli FLUX sono precaricati su RunComfy, denominati flux/flux-schnell e flux/flux-dev.

  • Quando si lancia una RunComfy Medium-Sized Machine: Seleziona il checkpoint flux-schnell, fp8 e clip t5_xxl_fp8 per evitare problemi di memoria.
  • Quando si lancia una RunComfy Large-Sized o Above Machine: Opta per un grande checkpoint flux-dev, default e un clip alto t5_xxl_fp16.

Per maggiori dettagli, visita: ComfyUI FLUX | A New Art Image Generation

🌟Il seguente workflow FLUX-ControlNet è specificamente progettato per il modello FLUX.1 [dev].🌟

Informazioni sul Workflow FLUX-ControlNet (FLUX-ControlNet-Depth-V3 e FLUX-ControlNet-Canny-V3)

Presentiamo due workflow FLUX-ControlNet eccezionali: FLUX-ControlNet-Depth e FLUX-ControlNet-Canny, ciascuno con capacità uniche per migliorare il tuo processo creativo.

1. Come Usare il Workflow ComfyUI FLUX-ControlNet-Depth-V3

Il modello FLUX-ControlNet Depth viene caricato per primo utilizzando il nodo "LoadFluxControlNet". Seleziona il modello "flux-depth-controlnet.safetensors" per un controllo ottimale della profondità.

  • flux-depth-controlnet
  • flux-depth-controlnet-v2
  • flux-depth-controlnet-v3: ControlNet è addestrato su una risoluzione di 1024x1024 e funziona per 1024x1024, con una versione migliore e più realistica

Collega l'output di questo nodo al nodo "ApplyFluxControlNet". Collega anche la tua immagine della mappa di profondità all'input immagine di questo nodo. La mappa di profondità dovrebbe essere un'immagine in scala di grigi dove gli oggetti più vicini sono più luminosi e quelli più lontani sono più scuri, permettendo a FLUX-ControlNet di interpretare accuratamente le informazioni sulla profondità.

Puoi generare la mappa di profondità da un'immagine di input utilizzando un modello di stima della profondità. Qui, il nodo "MiDaS-DepthMapPreprocessor" viene utilizzato per convertire l'immagine caricata in una mappa di profondità adatta a FLUX-ControlNet. Parametri chiave:

  • Threshold = 6.28 (influisce sulla sensibilità ai bordi)
  • Depth scale = 0.1 (quanto i valori della mappa di profondità sono scalati)
  • Output Size = 768 (risoluzione della mappa di profondità)

Nel nodo "ApplyFluxControlNet", il parametro Strength determina quanto l'immagine generata è influenzata dal condizionamento della profondità di FLUX-ControlNet. Una forza maggiore farà aderire l'output più strettamente alla struttura della profondità.

2. Come Usare il Workflow ComfyUI FLUX-ControlNet-Canny-V3

Il processo è molto simile al workflow FLUX-ControlNet-Depth. Per primo, il modello FLUX-ControlNet Canny viene caricato utilizzando "LoadFluxControlNet". Poi, viene collegato al nodo "ApplyFluxControlNet".

  • flux-canny-controlnet
  • flux-canny-controlnet-v2
  • flux-canny-controlnet-v3: ControlNet è addestrato su una risoluzione di 1024x1024 e funziona per 1024x1024, con una versione migliore e più realistica

L'immagine di input viene convertita in una mappa dei bordi Canny utilizzando il nodo "CannyEdgePreprocessor", ottimizzandola per FLUX-ControlNet. Parametri chiave:

  • Low Threshold = 100 (soglia di intensità dei bordi)
  • High Threshold = 200 (soglia di isteresi per i bordi)
  • Size = 832 (risoluzione della mappa dei bordi)

La mappa dei bordi Canny risultante è collegata al nodo "ApplyFluxControlNet". Ancora una volta, usa il parametro Strength per controllare quanto la mappa dei bordi influenza la generazione di FLUX-ControlNet.

3. Sia per ComfyUI FLUX-ControlNet-Depth-V3 che per ComfyUI FLUX-ControlNet-Canny-V3

In entrambi i workflow FLUX-ControlNet, il prompt di testo codificato CLIP è collegato per guidare il contenuto dell'immagine, mentre il condizionamento FLUX-ControlNet controlla la struttura e la geometria basate sulla mappa di profondità o dei bordi.

Combinando diversi FLUX-ControlNets, modalità di input come profondità e bordi, e regolando la loro forza, puoi ottenere un controllo fine sia sul contenuto semantico che sulla struttura delle immagini generate da FLUX-ControlNet.

Licenza: controlnet.safetensors rientra nella FLUX.1 [dev] Licenza Non Commerciale

Licenza

Visualizza i file di licenza:

flux/model_licenses/LICENSE-FLUX1-dev

flux/model_licenses/LICENSE-FLUX1-schnell

Il modello FLUX.1 [dev] è concesso in licenza da Black Forest Labs. Inc. sotto la Licenza Non Commerciale FLUX.1 [dev]. Copyright Black Forest Labs. Inc.

IN NESSUN CASO BLACK FOREST LABS, INC. SARÀ RESPONSABILE PER QUALSIASI RICHIESTA, DANNI O ALTRE RESPONSABILITÀ, SIA IN UN'AZIONE DI CONTRATTO, TORTO O ALTRO, DERIVANTE DA, FUORI O IN CONNESSIONE CON L'USO DI QUESTO MODELLO.

More ComfyUI Tutorials

ComfyUI FLUX: Guida all'Installazione, ai Flussi di Lavoro come FLUX-ControlNet, FLUX-LoRA e FLUX-IPAdapter... e all'Accesso Online

Want More ComfyUI Workflows?

ComfyUI Phantom | Soggetto a Video

Generazione di video basata su riferimento utilizzando Wan2.1 14B

FLUX Outpainting

FLUX Outpainting

Usa SDXL e FLUX per espandere e affinare le immagini senza interruzioni.

Face Detailer | Correggi i volti

Usa prima Face Detailer per il restauro facciale, seguito dal modello 4x UltraSharp per un upscaling superiore.

Wan Alpha | Generatore di Video Trasparenti

Magia Alpha: video con sfondo trasparente istantaneo per VFX e design.

ComfyUI + TouchDesigner | Visual Reattivi all'Audio

Rendi visual in ComfyUI e sincronizza l'audio in TouchDesigner per video dinamici reattivi all'audio.

Blender + ComfyUI | AI Rendering di Animazioni 3D

Usa Blender per configurare scene 3D e generare sequenze di immagini, quindi usa ComfyUI per il rendering AI.

Dance Video Transform | Scene Customization & Face Swap

Trasforma i video di danza con modifica delle scene, face-swapping e conservazione del movimento.

UNO | Generazione Coerente di Soggetti e Oggetti

Crea immagini stabili e coerenti a partire da riferimenti di soggetti e oggetti.

Seguici
  • LinkedIn
  • Facebook
  • Instagram
  • Twitter
Supporto
  • Discord
  • Email
  • Stato del Sistema
  • affiliato
Risorse
  • ComfyUI Online Gratuito
  • Guide di ComfyUI
  • RunComfy API
  • Tutorial ComfyUI
  • Nodi ComfyUI
  • Scopri di Più
Legale
  • Termini di Servizio
  • Informativa sulla Privacy
  • Informativa sui Cookie
RunComfy
Copyright 2025 RunComfy. Tutti i Diritti Riservati.

RunComfy è la piattaforma principale ComfyUI che offre ComfyUI online ambiente e servizi, insieme a workflow di ComfyUI con visuali mozzafiato. RunComfy offre anche AI Playground, consentire agli artisti di sfruttare gli ultimi strumenti di AI per creare arte incredibile.