Updated: 8/26/2024
Hej, AI-entusiaster! 👋 Välkommen till vår introduktionsguide om att använda FLUX inom ComfyUI. FLUX är en banbrytande modell utvecklad av Black Forest Labs. 🌟 I denna handledning kommer vi att dyka in i grunderna för ComfyUI FLUX och visa hur denna kraftfulla modell kan förbättra din kreativa process och hjälpa dig att tänja på gränserna för AI-genererad konst. 🚀
Vi kommer att täcka:
FLUX.1, den banbrytande AI-modellen från Black Forest Labs, revolutionerar sättet vi skapar bilder från textbeskrivningar. Med sin oöverträffade förmåga att generera otroligt detaljerade och komplexa bilder som noggrant matchar inmatningspromptarna, skiljer sig FLUX.1 från konkurrenterna. Hemligheten bakom FLUX.1:s framgång ligger i dess unika hybridarkitektur, som kombinerar olika typer av transformerblock och drivs av imponerande 12 miljarder parametrar. Detta gör att FLUX.1 kan producera visuellt fängslande bilder som exakt representerar textbeskrivningarna med enastående precision.
En av de mest spännande aspekterna av FLUX.1 är dess mångsidighet i att generera bilder i olika stilar, från fotorealistiska till konstnärliga. FLUX.1 har till och med den anmärkningsvärda förmågan att sömlöst integrera text i de genererade bilderna, en bedrift som många andra modeller kämpar med att uppnå. Dessutom är FLUX.1 känd för sin exceptionella förmåga att följa promptar, hanterar enkelt både enkla och komplexa beskrivningar. Detta har lett till att FLUX.1 ofta jämförs med andra välkända modeller som Stable Diffusion och Midjourney, där FLUX.1 ofta framstår som det föredragna valet på grund av sin användarvänlighet och toppresultat.
De imponerande möjligheterna hos FLUX.1 gör den till ett ovärderligt verktyg för en rad olika tillämpningar, från att skapa fantastiskt visuellt innehåll och inspirera innovativa designer till att underlätta vetenskaplig visualisering. FLUX.1:s förmåga att generera mycket detaljerade och exakta bilder från textbeskrivningar öppnar upp en värld av möjligheter för kreativa yrkesverksamma, forskare och entusiaster. När fältet för AI-genererad bild blir alltmer avancerat, står FLUX.1 i framkanten och sätter en ny standard för kvalitet, mångsidighet och användarvänlighet.
Black Forest Labs, det banbrytande AI-företaget bakom den revolutionerande FLUX.1, grundades av Robin Rombach, en känd figur inom AI-industrin som tidigare var en kärnmedlem i Stability AI. Om du är ivrig att lära dig mer om Black Forest Labs och deras banbrytande arbete med FLUX.1, se till att besöka deras officiella webbplats på https://blackforestlabs.ai/.
FLUX.1 finns i tre olika versioner, var och en utformad för att tillgodose specifika användarbehov:
Namn | HuggingFace repo | Licens | md5sum |
FLUX.1 [pro] | Endast tillgänglig i vår API. | ||
FLUX.1 [dev] | https://huggingface.co/black-forest-labs/FLUX.1-dev | FLUX.1-dev Non-Commercial License | a6bd8c16dfc23db6aee2f63a2eba78c0 |
FLUX.1 [schnell] | https://huggingface.co/black-forest-labs/FLUX.1-schnell | apache-2.0 | a9e1e277b9b16add186f38e3f5a34044 |
fp16
Clip-modellvarianten för maximal kvalitet.fp16
eller fp8
Clip-modeller beroende på GPU-kapacitet.fp8
-beräkningar om minnet tar slut. Den är utformad för att vara snabb och effektiv, med fokus på hastighet snarare än ultrahög kvalitet.För att effektivt använda FLUX.1 inom ComfyUI-miljön är det viktigt att se till att du har den senaste versionen av ComfyUI installerad. Denna version stöder de nödvändiga funktionerna och integrationerna som krävs för FLUX.1-modeller.
För optimal prestanda och noggrann text-till-bild-generering med FLUX.1, måste du ladda ner specifika textkodare och CLIP-modeller. Följande modeller är nödvändiga, beroende på ditt systems hårdvara:
Modellfilnamn | Storlek | Notering | Länk |
t5xxl_fp16.safetensors | 9.79 GB | För bättre resultat, om du har hög VRAM och RAM (mer än 32GB RAM). | Ladda ner |
t5xxl_fp8_e4m3fn.safetensors | 4.89 GB | För lägre minnesanvändning (8-12GB) | Ladda ner |
clip_l.safetensors | 246 MB | Ladda ner |
Steg för att ladda ner och installera:
clip_l.safetensors
-modellen.t5xxl_fp8_e4m3fn.safetensors
(för lägre VRAM) eller t5xxl_fp16.safetensors
(för högre VRAM och RAM).ComfyUI/models/clip/
. Obs: Om du tidigare har använt SD 3 Medium kan du redan ha dessa modeller.Variational Autoencoder (VAE)-modellen är avgörande för att förbättra bildgenereringskvaliteten i FLUX.1. Följande VAE-modell finns tillgänglig för nedladdning:
Filnamn | Storlek | Länk |
ae.safetensors | 335 MB | Ladda ner (öppnas i en ny flik) |
Steg för att ladda ner och installera:
ae.safetensors
-modellen.ComfyUI/models/vae
.flux_ae.safetensors
.UNET-modellen är ryggraden för bildsyntes i FLUX.1. Beroende på ditt systems specifikationer kan du välja mellan olika varianter:
Filnamn | Storlek | Länk | Notering |
flux1-dev.safetensors | 23.8GB | Ladda ner | Om du har hög VRAM och RAM. |
flux1-schnell.safetensors | 23.8GB | Ladda ner | För lägre minnesanvändning |
Steg för att ladda ner och installera:
ComfyUI/models/unet/
.Vi kommer kontinuerligt att uppdatera ComfyUI FLUX Arbetsflöde för att ge dig de senaste och mest omfattande arbetsflödena för att generera fantastiska bilder med ComfyUI FLUX.
På RunComfy Platform förladdar vår onlineversion alla nödvändiga lägen och noder för dig. Plus, vi erbjuder högpresterande GPU-maskiner, vilket säkerställer att du kan njuta av ComfyUI FLUX Txt2Img-upplevelsen utan ansträngning.
ComfyUI FLUX Txt2Img-arbetsflödet börjar med att ladda de väsentliga komponenterna, inklusive FLUX UNET (UNETLoader), FLUX CLIP (DualCLIPLoader) och FLUX VAE (VAELoader). Dessa utgör grunden för ComfyUI FLUX bildgenereringsprocess.
Textprompten, som beskriver det önskade resultatet, kodas med CLIPTextEncode. Denna nod tar textprompten som indata och ger den kodade textkonditioneringen, som vägleder ComfyUI FLUX under genereringen.
För att initiera ComfyUI FLUX-genereringsprocessen skapas en tom latent representation med hjälp av EmptyLatentImage. Detta fungerar som startpunkt för ComfyUI FLUX att bygga vidare på.
BasicGuider spelar en avgörande roll i att vägleda ComfyUI FLUX-genereringsprocessen. Den tar den kodade textkonditioneringen och den laddade FLUX UNET som indata, och säkerställer att det genererade resultatet överensstämmer med den angivna textbeskrivningen.
KSamplerSelect låter dig välja provtagningsmetod för ComfyUI FLUX-generering, medan RandomNoise genererar slumpmässigt brus som indata för ComfyUI FLUX. BasicScheduler schemalägger brusnivåerna (sigmas) för varje steg i genereringsprocessen, och kontrollerar detaljnivån och klarheten i slutresultatet.
SamplerCustomAdvanced sammanför alla komponenter i ComfyUI FLUX Txt2Img-arbetsflödet. Den tar slumpmässigt brus, vägledare, vald provtagare, schemalagda sigmas och tom latent representation som indata. Genom en avancerad provtagningsprocess genererar den en latent representation som representerar textprompten.
Slutligen avkodar VAEDecode den genererade latenta representationen till slutresultatet med hjälp av den laddade FLUX VAE. SaveImage låter dig spara det genererade resultatet till en angiven plats, och bevarar den fantastiska skapelsen som möjliggjorts av ComfyUI FLUX Txt2Img-arbetsflödet.
På RunComfy Platform förladdar vår onlineversion alla nödvändiga lägen och noder för dig. Plus, vi erbjuder högpresterande GPU-maskiner, vilket säkerställer att du kan njuta av ComfyUI FLUX Img2Img-upplevelsen utan ansträngning.
ComfyUI FLUX Img2Img-arbetsflödet bygger på kraften i ComfyUI FLUX för att generera resultat baserat på både textpromptar och inmatade representationer. Det börjar med att ladda de nödvändiga komponenterna, inklusive CLIP-modellen (DualCLIPLoader), UNET-modellen (UNETLoader) och VAE-modellen (VAELoader).
Inmatningsrepresentationen, som fungerar som startpunkt för ComfyUI FLUX Img2Img-processen, laddas med LoadImage. ImageScale skalar sedan inmatningsrepresentationen till önskad storlek, vilket säkerställer kompatibilitet med ComfyUI FLUX.
Den skalade inmatningsrepresentationen kodas med VAEEncode och omvandlas till en latent representation. Denna latenta representation fångar de väsentliga funktionerna och detaljerna i inmatningen och ger en grund för ComfyUI FLUX att arbeta med.
Textprompten, som beskriver de önskade modifieringarna eller förbättringarna av inmatningen, kodas med CLIPTextEncode. FluxGuidance tillämpar sedan vägledning till konditioneringen baserat på den angivna vägledningsskalan, vilket påverkar styrkan av textpromptens inverkan på slutresultatet.
ModelSamplingFlux ställer in provtagningsparametrarna för ComfyUI FLUX, inklusive tidsstegsresampling, fyllnadsförhållande och utgångsdimensioner. Dessa parametrar kontrollerar detaljrikedomen och upplösningen i det genererade resultatet.
KSamplerSelect låter dig välja provtagningsmetod för ComfyUI FLUX-generering, medan BasicGuider vägleder genereringsprocessen baserat på den kodade textkonditioneringen och den laddade FLUX UNET.
Slumpmässigt brus genereras med RandomNoise, och BasicScheduler schemalägger brusnivåerna (sigmas) för varje steg i genereringsprocessen. Dessa komponenter introducerar kontrollerade variationer och finjusterar detaljerna i slutresultatet.
SamplerCustomAdvanced sammanför det slumpmässiga bruset, vägledaren, den valda provtagaren, de schemalagda sigmas och den latenta representationen av inmatningen. Genom en avancerad provtagningsprocess genererar den en latent representation som inkorporerar de specifika modifieringarna av textprompten samtidigt som de väsentliga funktionerna i inmatningen bevaras.
Slutligen avkodar VAEDecode den avbrusade latenta representationen till slutresultatet med hjälp av den laddade FLUX VAE. PreviewImage visar en förhandsvisning av det genererade resultatet och visar de fantastiska resultaten som uppnåtts av ComfyUI FLUX Img2Img-arbetsflödet.
På RunComfy Platform förladdar vår onlineversion alla nödvändiga lägen och noder för dig. Plus, vi erbjuder högpresterande GPU-maskiner, vilket säkerställer att du kan njuta av ComfyUI FLUX LoRA-upplevelsen utan ansträngning.
ComfyUI FLUX LoRA-arbetsflödet utnyttjar kraften i Low-Rank Adaptation (LoRA) för att förbättra prestandan hos ComfyUI FLUX. Det börjar med att ladda de nödvändiga komponenterna, inklusive UNET-modellen (UNETLoader), CLIP-modellen (DualCLIPLoader), VAE-modellen (VAELoader) och LoRA-modellen (LoraLoaderModelOnly).
Textprompten, som beskriver det önskade resultatet, specificeras med String Literal. CLIPTextEncode kodar sedan textprompten och genererar den kodade textkonditioneringen som vägleder ComfyUI FLUX-genereringsprocessen.
FluxGuidance tillämpar vägledning till den kodade textkonditioneringen och påverkar styrkan och riktningen för ComfyUI FLUX:s följsamhet till textprompten.
En tom latent representation, som fungerar som startpunkt för generering, skapas med EmptyLatentImage. Bredden och höjden på det genererade resultatet specificeras med Int Literal och säkerställer de önskade dimensionerna på slutresultatet.
ModelSamplingFlux ställer in provtagningsparametrarna för ComfyUI FLUX, inklusive fyllnadsförhållande och tidsstegsresampling. Dessa parametrar kontrollerar upplösningen och detaljrikedomen i det genererade resultatet.
KSamplerSelect låter dig välja provtagningsmetod för ComfyUI FLUX-generering, medan BasicGuider vägleder genereringsprocessen baserat på den kodade textkonditioneringen och den laddade FLUX UNET förstärkt med FLUX LoRA.
Slumpmässigt brus genereras med RandomNoise, och BasicScheduler schemalägger brusnivåerna (sigmas) för varje steg i genereringsprocessen. Dessa komponenter introducerar kontrollerade variationer och finjusterar detaljerna i slutresultatet.
SamplerCustomAdvanced sammanför det slumpmässiga bruset, vägledaren, den valda provtagaren, de schemalagda sigmas och den tomma latenta representationen. Genom en avancerad provtagningsprocess genererar den en latent representation som representerar textprompten och utnytt ar kraften i FLUX och FLUX LoRA-förbättringen.
Slutligen avkodar VAEDecode den genererade latenta representationen till slutresultatet med hjälp av den laddade FLUX VAE. SaveImage låter dig spara det genererade resultatet till en angiven plats, och bevarar den fantastiska skapelsen som möjliggjorts av ComfyUI FLUX LoRA-arbetsflödet.
På RunComfy Platform förladdar vår onlineversion alla nödvändiga lägen och noder för dig. Plus, vi erbjuder högpresterande GPU-maskiner, vilket säkerställer att du kan njuta av ComfyUI FLUX ControlNet-upplevelsen utan ansträngning.
ComfyUI FLUX ControlNet-arbetsflödet demonstrerar integrationen av ControlNet med ComfyUI FLUX för förbättrad outputgenerering. Arbetsflödet visar två exempel: djupbaserad konditionering och Canny edge-baserad konditionering.
I det djupbaserade arbetsflödet genomgår inmatningsrepresentationen förbehandling med MiDaS-DepthMapPreprocessor, vilket genererar en djupkarta. Djupkartan passerar sedan genom ApplyFluxControlNet (Depth) tillsammans med den laddade FLUX ControlNet för djupkonditionering. Den resulterande FLUX ControlNet-konditionen fungerar som indata till XlabsSampler (Depth), tillsammans med den laddade FLUX UNET, den kodade textkonditioneringen, den negativa textkonditioneringen och den tomma latenta representationen. XlabsSampler genererar en latent representation baserat på dessa indata, som sedan avkodas till slutresultatet med VAEDecode.
På liknande sätt, i det Canny edge-baserade arbetsflödet, genomgår inmatningsrepresentationen förbehandling med CannyEdgePreprocessor för att generera Canny edges. Canny edge-representationen passerar genom ApplyFluxControlNet (Canny) tillsammans med den laddade FLUX ControlNet för Canny edge-konditionering. Den resulterande FLUX ControlNet-konditionen fungerar som indata till XlabsSampler (Canny), tillsammans med den laddade FLUX UNET, den kodade textkonditioneringen, den negativa textkonditioneringen och den tomma latenta representationen. XlabsSampler genererar en latent representation baserat på dessa indata, som sedan avkodas till slutresultatet med VAEDecode.
ComfyUI FLUX ControlNet-arbetsflödet inkorporerar noder för att ladda de nödvändiga komponenterna (DualCLIPLoader, UNETLoader, VAELoader, LoadFluxControlNet), koda textpromptar (CLIPTextEncodeFlux), skapa tomma latenta representationer (EmptyLatentImage) och förhandsgranska de genererade och förbehandlade resultaten (PreviewImage).
Genom att utnyttja kraften i FLUX ControlNet möjliggör ComfyUI FLUX ControlNet-arbetsflödet generering av resultat som överensstämmer med specifik konditionering, såsom djupkartor eller Canny edges. Denna ytterligare nivå av kontroll och vägledning förbättrar flexibiliteten och precisionen i genereringsprocessen, vilket möjliggör skapandet av fantastiska och kontextuellt relevanta resultat med ComfyUI FLUX.
På RunComfy Platform förladdar vår onlineversion alla nödvändiga lägen och noder för dig. Plus, vi erbjuder högpresterande GPU-maskiner, vilket säkerställer att du kan njuta av ComfyUI FLUX Inpainting-upplevelsen utan ansträngning.
ComfyUI FLUX Inpainting-arbetsflödet demonstrerar förmågan hos ComfyUI FLUX att utföra inpainting, vilket innebär att fylla i saknade eller maskerade regioner i ett resultat baserat på den omgivande kontexten och angivna textpromptar. Arbetsflödet börjar med att ladda de nödvändiga komponenterna, inklusive UNET-modellen (UNETLoader), VAE-modellen (VAELoader) och CLIP-modellen (DualCLIPLoader).
De positiva och negativa textpromptarna, som beskriver det önskade innehållet och stilen för den inpaintade regionen, kodas med CLIPTextEncodes. Den positiva textkonditioneringen styrs ytterligare med FluxGuidance för att påverka ComfyUI FLUX inpainting-processen.
Inmatningsrepresentationen och masken laddas och ändras i storlek med LoadAndResizeImage, vilket säkerställer kompatibilitet med ComfyUI FLUX:s krav. ImpactGaussianBlurMask tillämpar Gaussisk oskärpa på masken, vilket skapar en smidigare övergång mellan den inpaintade regionen och den ursprungliga representationen.
InpaintModelConditioning förbereder konditioneringen för FLUX inpainting genom att kombinera den styrda positiva textkonditioneringen, den kodade negativa textkonditioneringen, den laddade FLUX VAE, den laddade och ändrade inmatningsrepresentationen och den oskarpa masken. Denna konditionering fungerar som grund för ComfyUI FLUX inpainting-processen.
Slumpmässigt brus genereras med RandomNoise, och provtagningsmetoden väljs med KSamplerSelect. BasicScheduler schemalägger brusnivåerna (sigmas) för ComfyUI FLUX inpainting-processen och kontrollerar detaljnivån och klarheten i den inpaintade regionen.
BasicGuider vägleder ComfyUI FLUX inpainting-processen baserat på den förberedda konditioneringen och den laddade FLUX UNET. SamplerCustomAdvanced utför den avancerade provtagningsprocessen och tar det genererade slumpmässiga bruset, vägledaren, den valda provtagaren, de schemalagda sigmas och den latenta representationen av inmatningen som indata. Den ger den inpaintade latenta representationen.
Slutligen avkodar VAEDecode den inpaintade latenta representationen till slutresultatet och smälter sömlöst samman den inpaintade regionen med den ursprungliga representationen. PreviewImage visar slutresultatet och visar de imponerande inpainting-förmågorna hos FLUX.
Genom att utnyttja kraften i FLUX och det noggrant utformade inpainting-arbetsflödet möjliggör FLUX Inpainting skapandet av visuellt sammanhängande och kontextuellt relevanta inpaintade resultat. Oavsett om det handlar om att återställa saknade delar, ta bort oönskade objekt eller modifiera specifika regioner, erbjuder ComfyUI FLUX inpainting-arbetsflödet ett kraftfullt verktyg för redigering och manipulation.
På RunComfy Platform förladdar vår onlineversion alla nödvändiga lägen och noder för dig. Plus, vi erbjuder högpresterande GPU-maskiner, vilket säkerställer att du kan njuta av ComfyUI FLUX NF4-upplevelsen utan ansträngning.
ComfyUI FLUX NF4-arbetsflödet visar integrationen av ComfyUI FLUX med NF4 (Normalizing Flow 4)-arkitekturen för högkvalitativ outputgenerering. Arbetsflödet börjar med att ladda de nödvändiga komponenterna med CheckpointLoaderNF4, vilket inkluderar FLUX UNET, FLUX CLIP och FLUX VAE.
PrimitiveNode (height) och PrimitiveNode (width) noder specificerar den önskade höjden och bredden på det genererade resultatet. ModelSamplingFlux noden ställer in provtagningsparametrarna för ComfyUI FLUX baserat på den laddade FLUX UNET och den specificerade höjden och bredden.
EmptySD3LatentImage noden skapar en tom latent representation som startpunkt för generering. BasicScheduler noden schemalägger brusnivåerna (sigmas) för ComfyUI FLUX genereringsprocess.
RandomNoise noden genererar slumpmässigt brus för ComfyUI FLUX genereringsprocess. BasicGuider noden vägleder genereringsprocessen baserat på den konditionerade ComfyUI FLUX.
KSamplerSelect noden väljer provtagningsmetod för ComfyUI FLUX-generering. SamplerCustomAdvanced noden utför den avancerade provtagningsprocessen och tar det genererade slumpmässiga bruset, vägledaren, den valda provtagaren, de schemalagda sigmas och den tomma latenta representationen som indata. Den ger den genererade latenta representationen.
VAEDecode noden avkodar den genererade latenta representationen till slutresultatet med hjälp av den laddade FLUX VAE. SaveImage noden sparar det genererade resultatet till en angiven plats.
För uppskalning används UltimateSDUpscale noden. Den tar det genererade resultatet, den laddade FLUX, positiv och negativ konditionering för uppskalning, den laddade FLUX VAE, och den laddade FLUX uppskalningen som indata. CLIPTextEncode (Upscale Positive Prompt) noden kodar den positiva textprompten för uppskalning. UpscaleModelLoader noden laddar FLUX uppskalningen. UltimateSDUpscale noden utför uppskalningsprocessen och ger den uppskalade representationen. Slutligen sparar SaveImage (Upscaled) noden det uppskalade resultatet till en angiven plats.
Genom att utnyttja kraften i ComfyUI FLUX och NF4-arkitekturen möjliggör ComfyUI FLUX NF4-arbetsflödet generering av högkvalitativa resultat med förbättrad trohet och realism. Den sömlösa integrationen av ComfyUI FLUX med NF4-arkitekturen erbjuder ett kraftfullt verktyg för att skapa fantastiska och fängslande resultat.
På RunComfy Platform förladdar vår onlineversion alla nödvändiga lägen och noder för dig. Plus, vi erbjuder högpresterande GPU-maskiner, vilket säkerställer att du kan njuta av ComfyUI FLUX IPAdapter-upplevelsen utan ansträngning.
ComfyUI FLUX IPAdapter-arbetsflödet börjar med att ladda de nödvändiga modellerna, inklusive UNET-modellen (UNETLoader), CLIP-modellen (DualCLIPLoader) och VAE-modellen (VAELoader).
De positiva och negativa textpromptarna kodas med CLIPTextEncodeFlux. Den positiva textkonditioneringen används för att vägleda ComfyUI FLUX genereringsprocess.
Inmatningsbilden laddas med LoadImage. LoadFluxIPAdapter laddar IP-Adapter för FLUX-modellen, som sedan appliceras på den laddade UNET-modellen med ApplyFluxIPAdapter. ImageScale skalar inmatningsbilden till önskad storlek innan IP-Adapter appliceras.
EmptyLatentImage skapar en tom latent representation som startpunkt för ComfyUI FLUX generering.
XlabsSampler utför provtagningsprocessen och tar FLUX UNET med applicerad IP-Adapter, den kodade positiva och negativa textkonditioneringen och den tomma latenta representationen som indata. Den genererar en latent representation.
VAEDecode avkodar den genererade latenta representationen till slutresultatet med hjälp av den laddade FLUX VAE. PreviewImage noden visar en förhandsvisning av slutresultatet.
ComfyUI FLUX IPAdapter-arbetsflödet utnyttjar kraften i ComfyUI FLUX och IP-Adapter för att generera högkvalitativa resultat som överensstämmer med de angivna textpromptarna. Genom att applicera IP-Adapter på FLUX UNET möjliggör arbetsflödet generering av resultat som fångar de önskade egenskaperna och stilen som specificeras i textkonditioneringen.
ComfyUI FLUX LoRA Trainer-arbetsflödet består av flera steg för att träna en LoRA med hjälp av FLUX-arkitekturen i ComfyUI.
ComfyUI FLUX Urval och Konfiguration: FluxTrainModelSelect noden används för att välja komponenterna för träning, inklusive UNET, VAE, CLIP och CLIP textkodare. OptimizerConfig noden konfigurerar optimeringsinställningarna för ComfyUI FLUX-träning, såsom optimeringstyp, inlärningshastighet och viktminskning. TrainDatasetGeneralConfig och TrainDatasetAdd noderna används för att konfigurera träningsdatasetet, inklusive upplösning, augmentationsinställningar och batchstorlekar.
ComfyUI FLUX Träningsinitiering: InitFluxLoRATraining noden initierar LoRA-träningsprocessen med de valda komponenterna, datasetkonfigurationen och optimeringsinställningarna. FluxTrainValidationSettings noden konfigurerar valideringsinställningarna för träning, såsom antal valideringsprover, upplösning och batchstorlek.
ComfyUI FLUX Träningsloop: FluxTrainLoop noden utför träningsloopen för LoRA, itererar för ett specificerat antal steg. Efter varje träningsloop validerar FluxTrainValidate noden den tränade LoRA med hjälp av valideringsinställningarna och genererar valideringsresultat. PreviewImage noden visar en förhandsvisning av valideringsresultaten. FluxTrainSave noden sparar den tränade LoRA vid specificerade intervaller.
ComfyUI FLUX Förlustvisualisering: VisualizeLoss noden visualiserar träningsförlusten under träningens gång. SaveImage noden sparar förlustdiagrammet för vidare analys.
ComfyUI FLUX Valideringsutgångsbearbetning: AddLabel och SomethingToString noderna används för att lägga till etiketter till valideringsresultaten, vilket indikerar träningsstegen. ImageBatchMulti och ImageConcatFromBatch noderna kombinerar och sammanfogar valideringsresultaten till ett enda resultat för enklare visualisering.
ComfyUI FLUX Träningsslutförande: FluxTrainEnd noden avslutar LoRA-träningsprocessen och sparar den tränade LoRA. UploadToHuggingFace noden kan användas för att ladda upp den tränade LoRA till Hugging Face för delning och vidare användning med ComfyUI FLUX.
ComfyUI Flux Latent Upscale-arbetsflödet börjar med att ladda de nödvändiga komponenterna, inklusive CLIP (DualCLIPLoader), UNET (UNETLoader) och VAE (VAELoader). Textprompten kodas med CLIPTextEncode noden, och vägledning tillämpas med FluxGuidance noden.
SDXLEmptyLatentSizePicker+ noden specificerar storleken på den tomma latenta representationen, som fungerar som startpunkt för uppskalningsprocessen i FLUX. Den latenta representationen bearbetas sedan genom en serie av uppskalnings- och beskärningssteg med LatentUpscale och LatentCrop noderna.
Uppskalningsprocessen styrs av den kodade textkonditioneringen och använder SamplerCustomAdvanced noden med den valda provtagningsmetoden (KSamplerSelect) och de schemalagda brusnivåerna (BasicScheduler). ModelSamplingFlux noden ställer in provtagningsparametrarna.
Den uppskalade latenta representationen kompositeras sedan med den ursprungliga latenta representationen med LatentCompositeMasked noden och en mask genererad av SolidMask och FeatherMask noderna. Brus injiceras i den uppskalade latenta representationen med InjectLatentNoise+ noden.
Slutligen avkodas den uppskalade latenta representationen till slutresultatet med VAEDecode noden, och smart skärpning tillämpas med ImageSmartSharpen+ noden. PreviewImage noden visar en förhandsvisning av slutresultatet som genererats av ComfyUI FLUX.
ComfyUI FLUX Latent Upscaler-arbetsflödet inkluderar också olika matematiska operationer med SimpleMath+, SimpleMathFloat+, SimpleMathInt+ och SimpleMathPercent+ noderna för att beräkna dimensioner, förhållanden och andra parametrar för uppskalningsprocessen.
© Copyright 2024 RunComfy. Alla Rättigheter Förbehållna.