FLUX.1 Dev LoRA Inferenza: Allinea le anteprime di addestramento dell'AI Toolkit in ComfyUI
FLUX.1 Dev LoRA Inferenza: generazione a passi minimi allineata all'addestramento in ComfyUI FLUX.1 Dev LoRA Inferenza è un workflow pronto all'uso di RunComfy per applicare FLUX.1 Dev LoRA addestrati con AI Toolkit in ComfyUI con risultati che rimangono vicini alle tue anteprime di addestramento. È costruito attorno a RC FLUX.1 Dev (RCFluxDev)—un nodo personalizzato open-source costruito da RunComfy che instrada la generazione attraverso una pipeline di inferenza specifica di FLUX.1 Dev (invece di un grafico campionatore generico) mentre inietta il tuo adattatore attraverso lora_path e lora_scale. Puoi esplorare i lavori correlati nei repository dell'organizzazione runcomfy-com GitHub.
Usa questo workflow quando i campioni dell'AI Toolkit sembrano "giusti", ma passando a un grafico ComfyUI tipico lo stesso LoRA + prompt derivano in stile, forza o composizione.
Perché FLUX.1 Dev LoRA Inferenza spesso appare diversa in ComfyUI
Le anteprime dell'AI Toolkit sono generate da una pipeline di inferenza specifica del modello. Molti grafici di ComfyUI ricostruiscono FLUX da componenti generici, quindi "abbinare i numeri" (prompt/passi/guida/seed) può comunque produrre valori predefiniti diversi e un comportamento applicativo LoRA diverso. Questo divario "anteprima di addestramento vs inferenza ComfyUI" è solitamente a livello di pipeline, non un singolo parametro errato.
Cosa fa il nodo personalizzato RCFluxDev
RCFluxDev incapsula la pipeline di inferenza FLUX.1 Dev utilizzata per il campionamento in stile AI Toolkit e applica il tuo LoRA all'interno di quella pipeline in modo che il comportamento dell'adattatore rimanga coerente per questa famiglia di modelli. Fonte della pipeline: `src/pipelines/flux_dev.py`
Come utilizzare il workflow FLUX.1 Dev LoRA Inferenza
Passo 1: Importa il tuo LoRA (2 modi)
- Opzione 1 (risultato di addestramento RunComfy): RunComfy → Trainer → LoRA Assets → trova il tuo LoRA → ⋮ → Copia il link LoRA

- Opzione 2 (AI Toolkit LoRA addestrato fuori da RunComfy):
Copia un link diretto di download .safetensors per il tuo LoRA e incolla quell'URL in lora_path.
Passo 2: Configura il nodo personalizzato RCFluxDev per FLUX.1 Dev LoRA Inferenza
- Nel workflow, seleziona RC FLUX.1 Dev (RCFluxDev) e incolla il tuo URL LoRA (o percorso del file) in
lora_path.

Importante (richiesto per la prima esecuzione): per eseguire questo nodo personalizzato devi (1) avere accesso a Hugging Face al repo FLUX.1 Dev che stai utilizzando, e (2) incollare il tuo token Hugging Face in hf_token:
- Sulla pagina del modello Hugging Face, accedi e clicca Richiedi accesso / Accetta (una volta per repo).
- Crea un Token di Accesso Utente Hugging Face con permesso Lettura su huggingface.co/settings/tokens.
- Incolla il token in
hf_tokensu RCFluxDev, quindi riesegui il workflow.
Guida passo-passo: FLUX Hugging Face Token - Setup & Troubleshooting
- Quindi configura il resto delle impostazioni per FLUX.1 Dev LoRA Inferenza (tutte nell'interfaccia utente del nodo):
Suggerimento per l'allineamento dell'addestramento: quando cerchi una corrispondenza 1:1, non "regolare a sensazione"—rifletti i valori di campionamento dall'YAML di addestramento AI Toolkit che hai utilizzato per le anteprime (specialmente width, height, sample_steps, guidance_scale, seed). Se hai addestrato su RunComfy, apri Trainer → LoRA Assets → Config e riutilizza le impostazioni di anteprima.

prompt: il tuo testo prompt (includi i token di attivazione che hai usato durante l'addestramento, se presenti)negative_prompt: opzionale; lascialo vuoto se non hai campionato con negativiwidth/height: risoluzione in output (abbina le anteprime di addestramento quando confronti)sample_steps: numero di passi di inferenzaguidance_scale: valore di guida utilizzato dalla pipeline FLUX.1 Devseed: imposta un seed fisso per riprodurre; cambialo per esplorare variazionilora_scale: forza del LoRA (inizia vicino al tuo valore di anteprima, quindi regola)hf_token: il tuo token di accesso Hugging Face (richiesto per i repo FLUX riservati)
Passo 3: Esegui FLUX.1 Dev LoRA Inferenza
- Clicca Queue/Run → SaveImage salva automaticamente i risultati nella cartella di output di ComfyUI
Risoluzione dei problemi FLUX.1 Dev LoRA Inferenza
La maggior parte dei problemi "anteprima vs ComfyUI" di FLUX.1 Dev sono causati da incongruenze di pipeline (come viene caricato il modello, come viene costruito il conditioning e dove/come viene iniettato l'adattatore), non solo un singolo parametro errato.
Per i FLUX.1 Dev LoRA addestrati con l'AI Toolkit, il modo più affidabile per recuperare un comportamento allineato all'addestramento in ComfyUI è eseguire la generazione attraverso RC FLUX.1 Dev (RCFluxDev), che mantiene l'inferenza allineata a livello di pipeline e applica il tuo adattatore in modo coerente tramite lora_path / lora_scale. Se stai risolvendo un problema persistente, inizia dal workflow di riferimento minimo e aggiungi complessità solo dopo aver confermato che la base funziona.
(1)Alto utilizzo di vram lora dopo l'aggiornamento
Perché accade
Con FLUX.1 Dev, alcune configurazioni vedono un grande aumento di VRAM quando si applicano certi LoRA (inclusi LoRA addestrati con AI Toolkit). Questo di solito si verifica quando i LoRA sono iniettati attraverso percorsi di caricamento generici o quando il grafico causa copie extra del modello / comportamento di ricarica.
Come risolvere (raccomandato)
- Esegui l'inferenza attraverso RCFluxDev e carica il tuo adattatore solo tramite
lora_pathnel nodo (evita di mescolare più nodi di caricamento LoRA per lo stesso modello). - Mantieni il confronto equo: abbina i valori di campionamento dell'anteprima di addestramento (
width,height,sample_steps,guidance_scale,seed) prima di giudicare "non sembra giusto". - Se continui a incontrare OOM: riduci prima
width/height(questo è di solito il fattore più grande per FLUX), quindi riduci batch/nodi extra e riavvia la sessione per cancellare eventuali cache obsolete. Inoltre, puoi lanciare una macchina GPU più potente su RunComfy per eseguire.
(2)VAEDecode Dato groups=1, peso di dimensioni [4, 4, 1, 1], input previsto[1, 16, 144, 112] per avere 4 canali, ma ne ha ottenuti 16 invece
Perché accade
I latenti FLUX e i latenti "classici SD" non sono intercambiabili. Questo errore è il sintomo usuale della decodifica di latenti FLUX con un non-FLUX VAE (un VAE che si aspetta latenti a 4 canali, mentre i latenti FLUX possono essere a 16 canali).
Come risolvere
- Non decodificare i latenti FLUX con un percorso VAE SD/SDXL.
- Usa il workflow RCFluxDev in modo che il percorso di decodifica FLUX corretto sia utilizzato end-to-end (caricamento del modello → campionamento → decodifica), invece di mescolare nodi VAE generici da altre pipeline.
- Se stai ricostruendo grafici manualmente, verifica di utilizzare i corretti asset di autoencoder FLUX e non un VAE SD/SDXL rimasto.
(3)Il modello flux non funziona, flux1-dev-fp8.safetensors
Perché accade
Questo di solito accade quando un UNet FLUX .safetensors è caricato usando il tipo di caricatore sbagliato (per esempio, trattandolo come un "checkpoint" che ComfyUI dovrebbe rilevare automaticamente come SD/SDXL).
Come risolvere
- Usa il workflow FLUX.1 Dev (RCFluxDev) e lascia che il workflow/nodo gestisca il caricamento del modello; passa solo il tuo LoRA tramite
lora_path. - Non caricare UNet FLUX usando caricatori di checkpoint SD/SDXL.
- Se il file è stato scaricato da un link, ricontrolla che sia un
.safetensorscompleto e valido (download parziali possono scatenare errori di rilevamento confusi).
Esegui ora FLUX.1 Dev LoRA Inferenza
Apri il workflow FLUX.1 Dev LoRA Inferenza su RunComfy, imposta lora_path, e genera con RCFluxDev per mantenere i risultati di ComfyUI allineati con le tue anteprime di addestramento AI Toolkit.

