Questo workflow ti permette di inserire un soggetto in una nuova scena con forte identità e preservazione del contesto usando Omni Kontext. Combina patch del modello Flux Omni Kontext con un condizionamento guidato da riferimenti in modo che un personaggio o prodotto fornito si integri naturalmente in uno sfondo target rispettando il tuo prompt. Sono inclusi due percorsi paralleli: un percorso Flux standard per la massima fedeltà e un percorso Nunchaku per un campionamento più veloce e adatto alla memoria con pesi quantizzati.
I creatori che desiderano asset di marca coerenti, sostituzioni di prodotti o posizionamenti di personaggi troveranno questo particolarmente utile. Fornisci un'immagine del soggetto pulita, un'immagine di scena e un breve prompt, e il grafico gestisce l'estrazione del contesto, la guida, lo stile LoRA e la decodifica per produrre un composito coerente.
clip_l.safetensors
e t5xxl
ottimizzate per Flux. ae.safetensors
da Lumina Image 2.0 riconfezionato. Il grafico ha due corsie speculari: la corsia superiore è il percorso standard Flux Omni Kontext, e la corsia inferiore è il percorso Nunchaku. Entrambi accettano un'immagine del soggetto e un'immagine di scena, costruiscono un condizionamento consapevole del contesto e campionano con Flux per produrre il composito.
Fornisci due immagini: una foto del soggetto pulita e una scena target. Il soggetto dovrebbe essere ben illuminato, centrato e non ostruito per massimizzare il trasferimento dell'identità. La scena dovrebbe corrispondere approssimativamente al tuo angolo di ripresa e all'illuminazione previsti. Caricale nei nodi etichettati "Character or Subject" e "Scene", quindi mantienili coerenti attraverso le esecuzioni mentre iteri sui prompt.
La corsia standard carica Flux con UNETLoader
(#37) e applica la patch del modello Omni Kontext con OminiKontextModelPatch
(#194). La corsia Nunchaku carica un modello Flux quantizzato con NunchakuFluxDiTLoader
(#217) e applica NunchakuOminiKontextPatch
(#216). Entrambe le corsie condividono gli stessi encoder di testo tramite DualCLIPLoader
(#38) e lo stesso VAE tramite VAELoader
(#39 o #204). Se intendi usare stili LoRA o identità, tienili collegati in questa sezione in modo che influenzino i pesi del modello prima del campionamento.
Scrivi prompt concisi che dicano al sistema cosa fare con il soggetto. Nella corsia superiore, CLIP Text Encode (Positive Prompt)
(#6) guida l'inserimento o lo styling, e nella corsia inferiore CLIP Text Encode (Positive Prompt)
(#210) svolge lo stesso ruolo. Prompt come "aggiungi il personaggio all'immagine" o "lei indossa questa giacca" funzionano bene. Evita descrizioni troppo lunghe; mantieniti sugli elementi essenziali che vuoi cambiare o mantenere.
Ogni corsia codifica il soggetto e la scena in latenti con VAEEncode
, quindi fonde quei latenti con il tuo testo tramite ReferenceLatent
e OminiKontextConditioning
(#193 nella corsia superiore, #215 nella corsia inferiore). Questo è il passo Omni Kontext che inietta identità e segnali spaziali significativi dal riferimento nel flusso di condizionamento. Dopo di ciò, FluxGuidance
(#35 superiore, #207 inferiore) imposta quanto strettamente il modello segue il condizionamento del composito. I prompt negativi sono semplificati con ConditioningZeroOut
(#135, #202) in modo che tu possa concentrarti su ciò che vuoi piuttosto che su cosa evitare.
Se il tuo soggetto beneficia di un LoRA, collegalo prima del campionamento. La corsia standard utilizza LoraLoaderModelOnly
(#201 e compagni) e la corsia Nunchaku utilizza NunchakuFluxLoraLoader
(#219, #220, #221). Usa LoRA del soggetto per la coerenza dell'identità o dell'outfit e LoRA di stile per la direzione artistica. Mantieni la forza moderata per preservare il realismo della scena pur imponendo i tratti del soggetto.
Rivolgiti al gruppo Nunchaku quando vuoi iterazioni più veloci o hai VRAM limitata. Il NunchakuFluxDiTLoader
(#217) supporta impostazioni INT4 che riducono notevolmente la memoria mantenendo il comportamento "Flux Omni Kontext" tramite NunchakuOminiKontextPatch
(#216). Puoi comunque usare gli stessi prompt, input e LoRA, quindi campionare con KSampler
(#213) e decodificare con VAEDecode
(#208) per salvare i risultati.
OminiKontextModelPatch
(#194)Applica le modifiche del modello Omni Kontext al backbone Flux in modo che il contesto di riferimento sia rispettato durante il campionamento. Lascialo abilitato ogni volta che vuoi che l'identità del soggetto e i segnali spaziali si trasferiscano nella generazione. Abbina con una forza LoRA moderata quando usi LoRA di personaggi o prodotti in modo che la patch e LoRA non competano.
OminiKontextConditioning
(#193, #215)Unisce il tuo condizionamento di testo con i latenti di riferimento del soggetto e della scena. Se l'identità si allontana, aumenta l'enfasi sul riferimento del soggetto; se la scena viene sovrascritta, diminuiscila leggermente. Questo nodo è il cuore della composizione Omni Kontext e generalmente richiede solo piccoli aggiustamenti una volta che i tuoi input sono puliti.
FluxGuidance
(#35, #207)Controlla quanto strettamente il modello segue il condizionamento del composito. Valori più alti spingono più vicino al prompt e al riferimento a costo della spontaneità; valori più bassi consentono maggiore varietà. Se vedi texture troppo elaborate o perdita di armonia con la scena, prova una piccola riduzione qui.
NunchakuFluxDiTLoader
(#217)Carica una variante Flux DiT quantizzata per velocità e memoria inferiore. Scegli INT4 per rapide visualizzazioni e FP16 o BF16 per qualità finale. Combina con NunchakuFluxLoraLoader
quando hai bisogno di supporto LoRA nella corsia Nunchaku.
RunComfy è la piattaforma principale ComfyUI che offre ComfyUI online ambiente e servizi, insieme a workflow di ComfyUI con visuali mozzafiato. RunComfy offre anche AI Playground, consentire agli artisti di sfruttare gli ultimi strumenti di AI per creare arte incredibile.