Questo workflow porta la potenza di FLUX.2 Dev a ComfyUI per la generazione di immagini da testo ad alta fedeltà e la modifica di immagini multi-riferimento. È progettato per i creatori che necessitano di dettagli fotorealistici, identità coerente e forte aderenza ai prompt per scatti di prodotto, rendering di personaggi, visual pubblicitari e arte concettuale. Puoi eseguire un branch standard o un branch più leggero FP8, mantenere coerenti layout e materiali e scalare fino a output multi-megapixel.
Flux 2 Dev combina prompt precisi con controllo basato su riferimenti, così puoi mantenere continuità stilistica e di design tra le variazioni. Il grafico include slot di riferimento pronti all'uso, dimensionamento flessibile delle immagini e un percorso di campionamento personalizzato che bilancia qualità e velocità. Funziona bene per ideazione iterativa, coerenza a livello di scena e risultati di qualità di produzione su GPU consumer.
Il grafico contiene due branch paralleli. "Image_flux2" è il percorso standard; "Image_flux2_fp8" è una variante più leggera che sostituisce un codificatore di testo FP8 per risparmiare memoria. Usa un branch alla volta dal prompt al salvataggio. Entrambi i branch condividono la stessa logica complessiva: carica i modelli, crea un prompt, opzionalmente aggiungi una o più immagini di riferimento, scegli la dimensione dell'immagine, campiona e salva.
Il workflow carica automaticamente il modello di diffusione Flux 2 Dev, un codificatore di testo compatibile con Flux 2 Dev e il Flux 2 VAE. Nel branch standard questi sono gestiti da UNETLoader (#12), CLIPLoader (#38) e VAELoader (#10). Nel branch FP8 sono rispecchiati da UNETLoader (#86), CLIPLoader (#90) e VAELoader (#70). Di solito non hai bisogno di toccarli a meno che tu non voglia cambiare i pesi.
Scrivi la tua descrizione in CLIP Text Encode (Positive Prompt) (#6) o (#85). Buoni prompt nominano il soggetto, la composizione, i materiali, l'illuminazione e lo stile desiderato (per esempio, luce chiave da studio, ombre morbide, plastica lucida, ampia apertura). Flux 2 Dev risponde bene a sostantivi chiari e tag stilistici concisi e può preservare istruzioni di layout e tipografia quando dichiarati in modo inequivocabile. Mantieni il prompt semplice quando vuoi che le immagini di riferimento dominino; diventa più descrittivo quando vuoi una guida creativa più forte.
Il supporto di riferimento è integrato in modo che tu possa guidare l'identità, lo stile o la continuità del design. Inserisci le immagini nei nodi LoadImage, che sono preprocessate per dimensione, codificate in latenti e fuse nel condizionamento tramite nodi ReferenceLatent concatenati. Usa il modello mostrato per aggiungere più riferimenti nel branch FP8 (il layout scala a molti riferimenti). Per disabilitare completamente i riferimenti, bypassa tutti i nodi ReferenceLatent e ottieni un comportamento puro da testo a immagine.
Il campionamento è orchestrato da SamplerCustomAdvanced con un campionatore selezionabile (KSamplerSelect) e il programmatore Flux 2. Un nodo RandomNoise fornisce semi deterministici per la riproducibilità. Il programmatore guida la traiettoria di denoising mentre il guida condiziona il modello con il tuo prompt e latenti di riferimento. Questo percorso è ottimizzato per fornire dettagli nitidi e struttura coerente rimanendo interattivo per iterazioni rapide.
I controlli di larghezza e altezza alimentano sia il programmatore che la tela latente, così il modello denoisa alla risoluzione prevista. Flux 2 Dev mira comodamente a 1–4 megapixel; inizia più piccolo per lo sviluppo del look e scala quando ti piace l'inquadratura. Mantieni l'aspetto proporzionato al tuo soggetto e alle immagini di riferimento per preservare composizione e indizi di identità.
Dopo il campionamento, i latenti sono decodificati dal VAE e scritti da SaveImage. Esegui di nuovo con lo stesso seme per continuità tra i take, o cambia il seme per nuove variazioni mantenendo lo stesso prompt e riferimenti.
CLIP Text Encode (Positive Prompt) (#6, #85)Codifica il tuo testo in embedding usando il codificatore di testo compatibile con Flux 2 Dev. Sostantivi forti e termini chiari di materiale e illuminazione forniscono la guida più affidabile. Se i riferimenti sono molto utilizzati, mantieni i prompt concisi in modo che completino piuttosto che contrastare i riferimenti.
FluxGuidance (#26, #75)Applica la forza di condizionamento specifica di Flux che bilancia l'influenza del prompt rispetto ai priori del modello e ai riferimenti. Aumenta la guida per un'aderenza più stretta al prompt; riducila quando le immagini di riferimento dovrebbero dominare. Regola a piccoli passi e ri-esegui un paio di semi per confermare la stabilità tra gli output.
ReferenceLatent (#39, #43, #83, #84)Inietta latenti di riferimento codificati nel flusso di condizionamento per preservare indizi di identità, stile o layout. Usa più riferimenti concatenando i nodi seguendo il modello esistente. Bypassa nodi individuali per testare il contributo di ciascun riferimento o per passare tra modalità solo testo e multi-riferimento.
Flux2Scheduler (#48, #67)Crea il programma sigma su misura per Flux 2 Dev e la risoluzione scelta. Più passaggi generalmente scambiano velocità per dettaglio e stabilità. Cambia programma e campionatore con parsimonia in modo che tu possa attribuire miglioramenti a una variabile alla volta.
KSamplerSelect (#16, #81)Seleziona l'algoritmo del campionatore usato dal campionatore personalizzato. Euler è un solido predefinito per una vasta gamma di soggetti. Cambia campionatori solo quando stai cercando un look o un comportamento specifico; mantieni costanti altre impostazioni quando confronti.
SamplerCustomAdvanced (#13, #80)Esegue il ciclo di denoising con il campionatore, il programma, il guida e la tela latente. Le leve chiave che rivisiterai qui sono steps, sampler e il seed proveniente dal nodo del rumore. Quando esplori una scena, cambia solo uno di questi alla volta per capire il suo effetto.
EmptyFlux2LatentImage (#47, #79)Definisce la tela latente usata per il denoising alla tua larghezza e altezza target. Tele più grandi aumentano il dettaglio ma aumentano anche l'uso della VRAM e il tempo per immagine. Abbina il rapporto d'aspetto della tela al tuo soggetto per composizioni più naturali.
Link ai pesi ufficiali e risorse:
Questo workflow implementa e si basa sui seguenti lavori e risorse. Ringraziamo Comfy Org per FLUX.2 Day-0 Support in ComfyUI: Frontier Visual Intelligence per i loro contributi e manutenzione. Per dettagli autorevoli, si prega di fare riferimento alla documentazione originale e ai repository collegati di seguito.
Nota: L'uso dei modelli, dataset e codice di riferimento è soggetto alle rispettive licenze e termini forniti dai loro autori e manutentori.
RunComfy è la piattaforma principale ComfyUI che offre ComfyUI online ambiente e servizi, insieme a workflow di ComfyUI con visuali mozzafiato. RunComfy offre anche AI Playground, consentire agli artisti di sfruttare gli ultimi strumenti di AI per creare arte incredibile.