Updated: 8/26/2024
Witajcie, entuzjaści AI! 👋 Witamy w naszym wprowadzającym przewodniku po używaniu FLUX w ComfyUI. FLUX to nowoczesny model opracowany przez Black Forest Labs. 🌟 W tym tutorialu zagłębimy się w podstawy ComfyUI FLUX, pokazując, jak ten potężny model może ulepszyć twój proces twórczy i pomóc ci przesuwać granice sztuki generowanej przez AI. 🚀
Omówimy:
FLUX.1, nowoczesny model AI opracowany przez Black Forest Labs, rewolucjonizuje sposób tworzenia obrazów na podstawie opisów tekstowych. Dzięki niespotykanej zdolności do generowania oszałamiająco szczegółowych i skomplikowanych obrazów, które dokładnie odpowiadają wprowadzonym poleceniom, FLUX.1 wyróżnia się na tle konkurencji. Sekret sukcesu FLUX.1 tkwi w jego unikalnej hybrydowej architekturze, która łączy różne typy bloków transformatorów i jest napędzana imponującym 12 miliardami parametrów. To umożliwia FLUX.1 tworzenie wizualnie przyciągających obrazy, które z niezwykłą precyzją reprezentują opisy tekstowe.
Jednym z najbardziej ekscytujących aspektów FLUX.1 jest jego wszechstronność w generowaniu obrazów w różnych stylach, od fotorealistycznych po artystyczne. FLUX.1 ma także niezwykłą zdolność do płynnego włączania tekstu w generowane obrazy, co jest wyczynem, z którym wiele innych modeli ma trudności. Ponadto FLUX.1 jest znany z wyjątkowej zgodności z poleceniami, bezproblemowo radząc sobie zarówno z prostymi, jak i skomplikowanymi opisami. To sprawiło, że FLUX.1 jest często porównywany do innych znanych modeli, takich jak Stable Diffusion i Midjourney, a FLUX.1 często wyłania się jako preferowany wybór ze względu na swoją przyjazność dla użytkownika i najwyższej jakości wyniki.
Imponujące możliwości FLUX.1 czynią go nieocenionym narzędziem do szerokiego zakresu zastosowań, od tworzenia oszałamiających treści wizualnych i inspirowania innowacyjnych projektów po ułatwianie wizualizacji naukowej. Zdolność FLUX.1 do generowania bardzo szczegółowych i dokładnych obrazów na podstawie opisów tekstowych otwiera świat możliwości dla profesjonalistów kreatywnych, badaczy i entuzjastów. W miarę jak dziedzina obrazowania generowanego przez AI nadal się rozwija, FLUX.1 stoi na czele, ustanawiając nowy standard jakości, wszechstronności i łatwości użycia.
Black Forest Labs, pionierska firma AI stojąca za przełomowym FLUX.1, została założona przez Robina Rombacha, znaną postać w branży AI, który wcześniej był członkiem zespołu Stability AI. Jeśli chcesz dowiedzieć się więcej o Black Forest Labs i ich rewolucyjnej pracy z FLUX.1, koniecznie odwiedź ich oficjalną stronę internetową pod adresem https://blackforestlabs.ai/.
FLUX.1 występuje w trzech różnych wersjach, z których każda jest zaprojektowana, aby zaspokoić specyficzne potrzeby użytkowników:
Name | HuggingFace repo | License | md5sum |
FLUX.1 [pro] | Only available in our API. | ||
FLUX.1 [dev] | https://huggingface.co/black-forest-labs/FLUX.1-dev | FLUX.1-dev Non-Commercial License | a6bd8c16dfc23db6aee2f63a2eba78c0 |
FLUX.1 [schnell] | https://huggingface.co/black-forest-labs/FLUX.1-schnell | apache-2.0 | a9e1e277b9b16add186f38e3f5a34044 |
fp16
dla maksymalnej jakości.fp16
lub fp8
w zależności od możliwości GPU.fp8
w przypadku braku pamięci. Jest zaprojektowana z myślą o szybkości i efektywności, z naciskiem na szybkość, a nie na ultra-wysoką jakość.Aby skutecznie korzystać z FLUX.1 w środowisku ComfyUI, kluczowe jest upewnienie się, że masz zainstalowaną najnowszą wersję ComfyUI. Ta wersja obsługuje niezbędne funkcje i integracje wymagane przez modele FLUX.1.
Dla optymalnej wydajności i dokładnego generowania tekstu na obraz za pomocą FLUX.1, będziesz musiał pobrać określone enkodery tekstu i modele CLIP. Następujące modele są niezbędne, w zależności od sprzętu twojego systemu:
Model File Name | Size | Note | Link |
t5xxl_fp16.safetensors | 9.79 GB | For better results, if you have high VRAM and RAM(more than 32GB RAM). | Download |
t5xxl_fp8_e4m3fn.safetensors | 4.89 GB | For lower memory usage (8-12GB) | Download |
clip_l.safetensors | 246 MB | Download |
Steps to Download and Install:
clip_l.safetensors
.t5xxl_fp8_e4m3fn.safetensors
(dla niższ
ego zużycia pamięci) lub t5xxl_fp16.safetensors
(dla wyższego VRAM i RAM).ComfyUI/models/clip/
. Uwaga: Jeśli wcześniej używałeś SD 3 Medium, możesz już mieć te modele.Model Variational Autoencoder (VAE) jest kluczowy dla poprawy jakości generowania obrazów w FLUX.1. Dostępny jest następujący model VAE do pobrania:
File Name | Size | Link |
ae.safetensors | 335 MB | Download(opens in a new tab) |
Steps to Download and Install:
ae.safetensors
.ComfyUI/models/vae
.flux_ae.safetensors
.Model UNET jest kręgosłupem do syntezy obrazów w FLUX.1. W zależności od specyfikacji twojego systemu, możesz wybrać różne warianty:
File Name | Size | Link | Note |
flux1-dev.safetensors | 23.8GB | Download | If you have high VRAM and RAM. |
flux1-schnell.safetensors | 23.8GB | Download | For lower memory usage |
Steps to Download and Install:
ComfyUI/models/unet/
.Będziemy na bieżąco aktualizować przepływ pracy ComfyUI FLUX, aby dostarczać ci najnowsze i najbardziej kompleksowe przepływy pracy do generowania oszałamiających obrazów za pomocą ComfyUI FLUX.
Na platformie RunComfy nasza wersja online wstępnie ładuje wszystkie niezbędne tryby i węzły dla ciebie. Dodatkowo oferujemy maszyny z wysokowydajnymi GPU, co zapewnia, że możesz cieszyć się doświadczeniem ComfyUI FLUX Txt2Img bezproblemowo.
Przepływ pracy ComfyUI FLUX Txt2Img rozpoczyna się od załadowania niezbędnych komponentów, w tym FLUX UNET (UNETLoader), FLUX CLIP (DualCLIPLoader) i FLUX VAE (VAELoader). Te elementy stanowią fundament procesu generowania obrazów ComfyUI FLUX.
Polecenie tekstowe, które opisuje pożądane wyjście, jest kodowane za pomocą CLIPTextEncode. Ten węzeł przyjmuje polecenie tekstowe jako wejście i generuje zakodowane warunki tekstowe, które kierują ComfyUI FLUX podczas generowania.
Aby zainicjować proces generowania ComfyUI FLUX, tworzona jest pusta reprezentacja latentna za pomocą EmptyLatentImage. Służy ona jako punkt wyjścia dla ComfyUI FLUX do budowania.
BasicGuider odgrywa kluczową rolę w kierowaniu procesem generowania ComfyUI FLUX. Przyjmuje on zakodowane warunki tekstowe i załadowany FLUX UNET jako wejścia, zapewniając, że wygenerowane wyjście odpowiada dostarczonemu opisowi tekstowemu.
KSamplerSelect pozwala ci wybrać metodę próbkowania dla generowania ComfyUI FLUX, podczas gdy RandomNoise generuje losowy szum jako wejście dla ComfyUI FLUX. BasicScheduler planuje poziomy szumu (sigma) dla każdego kroku w procesie generowania, kontrolując poziom szczegółowości i klarowności w końcowym wyjściu.
SamplerCustomAdvanced łączy wszystkie komponenty przepływu pracy ComfyUI FLUX Txt2Img. Przyjmuje on losowy szum, przewodnik, wybrany próbnik, zaplanowane sigma i pustą reprezentację latentną jako wejścia. Poprzez zaawansowany proces próbkowania generuje reprezentację latentną, która odpowiada poleceniu tekstowemu.
Na koniec VAEDecode dekoduje wygenerowaną reprezentację latentną do końcowego wyjścia za pomocą załadowanego FLUX VAE. SaveImage pozwala ci zapisać wygenerowane wyjście w określonej lokalizacji, zachowując oszałamiające dzieło stworzone dzięki przepływowi pracy ComfyUI FLUX Txt2Img.
Na platformie RunComfy nasza wersja online wstępnie ładuje wszystkie niezbędne tryby i węzły dla ciebie. Dodatkowo oferujemy maszyny z wysokowydajnymi GPU, co zapewnia, że możesz cieszyć się doświadczeniem ComfyUI FLUX Img2Img bezproblemowo.
Przepływ pracy ComfyUI FLUX Img2Img buduje na mocy ComfyUI FLUX, aby generować wyjścia na podstawie zarówno poleceń tekstowych, jak i reprezentacji wejściowych. Zaczyna się od załadowania niezbędnych komponentów, w tym modelu CLIP (DualCLIPLoader), modelu UNET (UNETLoader) i modelu VAE (VAELoader).
Reprezentacja wejściowa, która służy jako punkt wyjścia dla procesu ComfyUI FLUX Img2Img, jest ładowana za pomocą LoadImage. ImageScale skaluje reprezentację wejściową do pożądanego rozmiaru, zapewniając kompatybilność z ComfyUI FLUX.
Przeskalowana reprezentacja wejściowa jest kodowana za pomocą VAEEncode, przekształcając ją w reprezentację latentną. Ta reprezentacja latentna uchwytuje istotne cechy i szczegóły wejścia, zapewniając fundament, na którym ComfyUI FLUX może pracować.
Polecenie tekstowe, opisujące pożądane modyfikacje lub ulepszenia wejścia, jest kodowane za pomocą CLIPTextEncode. FluxGuidance następnie stosuje przewodnictwo do warunkowania na podstawie określonej skali przewodnictwa, wpływając na siłę wpływu polecenia tekstowego na końcowe wyjście.
ModelSamplingFlux ustawia parametry próbkowania dla ComfyUI FLUX, w tym resampling kroków czasowych, stosunek wypełnienia i wymiary wyjściowe. Te parametry kontrolują szczegółowość i rozdzielczość generowanego wyjścia.
KSamplerSelect pozwala ci wybrać metodę próbkowania dla generowania ComfyUI FLUX, podczas gdy BasicGuider kieruje procesem generowania na podstawie zakodowanych warunków tekstowych i załadowanego FLUX UNET.
Losowy szum jest generowany za pomocą RandomNoise, a BasicScheduler planuje poziomy szumu (sigma) dla każdego kroku w procesie generowania. Te komponenty wprowadzają kontrolowane wariacje i dopracowują szczegóły w końcowym wyjściu.
SamplerCustomAdvanced łączy losowy szum, przewodnik, wybrany próbnik, zaplanowane sigma i reprezentację latentną wejścia. Poprzez zaawansowany proces próbkowania generuje reprezentację latentną, która włącza modyfikacje określone przez polecenie tekstowe, jednocześnie zachowując istotne cechy wejścia.
Na koniec VAEDecode dekoduje wygenerowaną reprezentację latentną do końcowego wyjścia za pomocą załadowanego FLUX VAE. PreviewImage wyświetla podgląd wygenerowanego wyjścia, pokazując oszałamiające wyniki osiągnięte dzięki przepływowi pracy ComfyUI FLUX Img2Img.
Na platformie RunComfy nasza wersja online wstępnie ładuje wszystkie niezbędne tryby i węzły dla ciebie. Dodatkowo oferujemy maszyny z wysokowydajnymi GPU, co zapewnia, że możesz cieszyć się doświadczeniem ComfyUI FLUX LoRA bezproblemowo.
Przepływ pracy ComfyUI FLUX LoRA wykorzystuje moc Low-Rank Adaptation (LoRA), aby zwiększyć wydajność ComfyUI FLUX. Zaczyna się od załadowania niezbędnych komponentów, w tym modelu UNET (UNETLoader), modelu CLIP (DualCLIPLoader), modelu VAE (VAELoader) i modelu LoRA (LoraLoaderModelOnly).
Polecenie tekstowe, które opisuje pożądane wyjście, jest określane za pomocą String Literal. CLIPTextEncode następnie koduje polecenie tekstowe, generując zakodowane warunki tekstowe, które kierują procesem generowania ComfyUI FLUX.
FluxGuidance stosuje przewodnictwo do zakodowanych warunków tekstowych, wpływając na siłę i kierunek zgodności ComfyUI FLUX z poleceniem tekstowym.
Pusta reprezentacja latentna, służąca jako punkt wyjścia do generowania, jest tworzona za pomocą EmptyLatentImage. Szerokość i wysokość wygenerowanego wyjścia są określane za pomocą Int Literal, zapewniając pożądane wymiary końcowego wyniku.
ModelSamplingFlux ustawia parametry próbkowania dla ComfyUI FLUX, w tym stosunek wypełnienia i resampling kroków czasowych. Te parametry kontrolują rozdzielczość i szczegółowość wygenerowanego wyjścia.
KSamplerSelect pozwala ci wybrać metodę próbkowania dla generowania ComfyUI FLUX, podczas gdy BasicGuider kieruje procesem generowania na podstawie zakodowanych warunków tekstowych i załadowanego FLUX UNET ulepszonego o FLUX LoRA.
Losowy szum jest generowany za pomocą RandomNoise, a BasicScheduler planuje poziomy szumu (sigma) dla każdego kroku w procesie generowania. Te komponenty wprowadzają kontrolowane wariacje i dopracowują szczegóły w końcowym wyjściu.
SamplerCustomAdvanced łączy losowy szum, przewodnik, wybrany próbnik, zaplanowane sigma i pustą reprezentację latentną. Poprzez zaawansowany proces próbkowania generuje reprezentację latentną, która odpowiada poleceniu tekstowemu, wykorzystując moc FLUX i ulepszenie FLUX LoRA.
Na koniec VAEDecode dekoduje wygenerowaną reprezentację latentną do końcowego wyjścia za pomocą załadowanego FLUX VAE. SaveImage pozwala ci zapisać wygenerowane wyjście w określonej lokalizacji, zachowując oszałamiające dzieło stworzone dzięki przepływowi pracy ComfyUI FLUX LoRA.
Na platformie RunComfy nasza wersja online wstępnie ładuje wszystkie niezbędne tryby i węzły dla ciebie. Dodatkowo oferujemy maszyny z wysokowydajnymi GPU, co zapewnia, że możesz cieszyć się doświadczeniem ComfyUI FLUX ControlNet bezproblemowo.
Przepływ pracy ComfyUI FLUX ControlNet demonstruje integrację ControlNet z ComfyUI FLUX w celu ulepszenia generowania wyjść. Przepływ pracy pokazuje dwa przykłady: kondycjonowanie na podstawie głębokości i kondycjonowanie na podstawie krawędzi Canny.
W przepływie pracy opartym na głębokości, reprezentacja wejściowa przechodzi wstępne przetwarzanie za pomocą MiDaS-DepthMapPreprocessor, generując mapę głębokości. Mapa głębokości jest następnie przekazywana przez ApplyFluxControlNet (Depth) wraz z załadowanym FLUX ControlNet do kondycjonowania na podstawie głębokości. Wynikowy warunek FLUX ControlNet służy jako wejście do XlabsSampler (Depth), wraz z załadowanym FLUX UNET, zakodowanymi warunkami tekstowymi, negatywnymi warunkami tekstowymi i pustą reprezentacją latentną. XlabsSampler generuje reprezentację latentną na podstawie tych wejść, która jest następnie dekodowana do końcowego wyjścia za pomocą VAEDecode.
Podobnie, w przepływie pracy opartym na krawędziach Canny, reprezentacja wejściowa przechodzi wstępne przetwarzanie za pomocą CannyEdgePreprocessor w celu wygenerowania krawędzi Canny. Reprezentacja krawędzi Canny jest przekazywana przez ApplyFluxControlNet (Canny) wraz z załadowanym FLUX ControlNet do kondycjonowania na podstawie krawędzi Canny. Wynikowy warunek FLUX ControlNet służy jako wejście do XlabsSampler (Canny), wraz z załadowanym FLUX UNET, zakodowanymi warunkami tekstowymi, negatywnymi warunkami tekstowymi i pustą reprezentacją latentną. XlabsSampler generuje reprezentację latentną na podstawie tych wejść, która jest następnie dekodowana do końcowego wyjścia za pomocą VAEDecode.
Przepływ pracy ComfyUI FLUX ControlNet zawiera węzły do ładowania niezbędnych komponentów (DualCLIPLoader, UNETLoader, VAELoader, LoadFluxControlNet), kodowania poleceń tekstowych (CLIPTextEncodeFlux), tworzenia pustych reprezentacji latentnych (EmptyLatentImage) oraz podglądu generowanych i wstępnie przetworzonych wyjść (PreviewImage).
Wykorzystując moc FLUX ControlNet, przepływ pracy ComfyUI FLUX ControlNet umożliwia generowanie wyjść, które odpowiadają specyficznym warunkom, takim jak mapy głębokości lub krawędzie Canny. Ten dodatkowy poziom kontroli i przewodnictwa zwiększa elastyczność i precyzję procesu generowania, umożliwiając tworzenie oszałamiających i kontekstowo odpowiednich wyjść za pomocą ComfyUI FLUX.
Na platformie RunComfy nasza wersja online wstępnie ładuje wszystkie niezbędne tryby i węzły dla ciebie. Dodatkowo oferujemy maszyny z wysokowydajnymi GPU, co zapewnia, że możesz cieszyć się doświadczeniem ComfyUI FLUX Inpainting bezproblemowo.
Przepływ pracy ComfyUI FLUX Inpainting demonstruje zdolność ComfyUI FLUX do wykonywania inpaintingu, który polega na wypełnianiu brakujących lub zamaskowanych obszarów wyjścia na podstawie otaczającego kontekstu i dostarczonych poleceń tekstowych. Przepływ pracy zaczyna się od załadowania niezbędnych komponentów, w tym modelu UNET (UNETLoader), modelu VAE (VAELoader) i modelu CLIP (DualCLIPLoader).
Pozytywne i negatywne polecenia tekstowe, które opisują pożądane treści i styl dla inpaintowanego obszaru, są kodowane za pomocą CLIPTextEncodes. Pozytywne warunki tekstowe są dodatkowo kierowane za pomocą FluxGuidance, aby wpływać na proces inpaintingu ComfyUI FLUX.
Reprezentacja wejściowa i maska są ładowane i skalowane za pomocą LoadAndResizeImage, zapewniając kompatybilność z wymaganiami ComfyUI FLUX. ImpactGaussianBlurMask stosuje rozmycie Gaussa do maski, tworząc płynniejsze przejście między inpaintowanym obszarem a oryginalną reprezentacją.
InpaintModelConditioning przygotowuje warunki do inpaintingu FLUX, łącząc kierowane pozytywne warunki tekstowe, zakodowane negatywne warunki tekstowe, załadowane FLUX VAE, załadowaną i skalowaną reprezentację wejściową oraz rozmytą maskę. Te warunki służą jako fundament dla procesu inpaintingu ComfyUI FLUX.
Losowy szum jest generowany za pomocą RandomNoise, a metoda próbkowania jest wybierana za pomocą KSamplerSelect. BasicScheduler planuje poziomy szumu (sigma) dla procesu inpaintingu ComfyUI FLUX, kontrolując poziom szczegółowości i klarowności w inpaintowanym obszarze.
BasicGuider kieruje procesem inpaintingu ComfyUI FLUX na podstawie przygotowanych warunków i załadowanego FLUX UNET. SamplerCustomAdvanced wykonuje zaawansowany proces próbkowania, przyjmując wygenerowany losowy szum, przewodnik, wybrany próbnik, zaplanowane sigma i reprezentację latentną wejścia jako wejścia. Generuje on inpaintowaną reprezentację latentną.
Na koniec VAEDecode dekoduje inpaintowaną reprezentację latentną do końcowego wyjścia, płynnie łącząc inpaintowany obszar z oryginalną reprezentacją. PreviewImage wyświetla podgląd końcowego wyjścia, pokazując imponujące możliwości inpaintingu FLUX.
Wykorzystując moc FLUX i starannie zaprojektowany przepływ pracy inpaintingu, FLUX Inpainting umożliwia tworzenie wizualnie spójnych i kontekstowo odpowiednich inpaintowanych wyjść. Niezależnie od tego, czy chodzi o przywracanie brakujących części, usuwanie niepożądanych obiektów, czy modyfikowanie określonych obszarów, przepływ pracy inpaintingu ComfyUI FLUX zapewnia potężne narzędzie do edycji i manipulacji.
Na platformie RunComfy nasza wersja online wstępnie ładuje wszystkie niezbędne tryby i węzły dla ciebie. Dodatkowo oferujemy maszyny z wysokowydajnymi GPU, co zapewnia, że możesz cieszyć się doświadczeniem ComfyUI FLUX NF4 bezproblemowo.
Przepływ pracy ComfyUI FLUX NF4 pokazuje integrację ComfyUI FLUX z architekturą NF4 (Normalizing Flow 4) w celu generowania wysokiej jakości wyjść. Przepływ pracy zaczyna się od załadowania niezbędnych komponentów za pomocą CheckpointLoaderNF4, w tym FLUX UNET, FLUX CLIP i FLUX VAE.
Węzły PrimitiveNode (height) i PrimitiveNode (width) określają pożądaną wysokość i szerokość wygenerowanego wyjścia. Węzeł ModelSamplingFlux ustawia parametry próbkowania dla ComfyUI FLUX na podstawie załadowanego FLUX UNET oraz określonej wysokości i szerokości.
Węzeł EmptySD3LatentImage tworzy pustą reprezentację latentną jako punkt wyjścia do generowania. Węzeł BasicScheduler planuje poziomy szumu (sigma) dla procesu generowania ComfyUI FLUX.
Węzeł RandomNoise generuje losowy szum do procesu generowania ComfyUI FLUX. Węzeł BasicGuider kieruje procesem generowania na podstawie warunków ComfyUI FLUX.
Węzeł KSamplerSelect wybiera metodę próbkowania dla generowania ComfyUI FLUX. Węzeł SamplerCustomAdvanced wykonuje zaawansowany proces próbkowania, przyjmując wygenerowany losowy szum, przewodnik, wybrany próbnik, zaplanowane sigma i pustą reprezentację latentną jako wejścia. Generuje on wygenerowaną reprezentację latentną.
Węzeł VAEDecode dekoduje wygenerowaną reprezentację latentną do końcowego wyjścia za pomocą załadowanego FLUX VAE. Węzeł SaveImage zapisuje wygenerowane wyjście w określonej lokalizacji.
Do skalowania używany jest węzeł UltimateSDUpscale. Przyjmuje on wygenerowane wyjście, załadowany FLUX, pozytywne i negatywne warunki do skalowania, załadowany FLUX VAE i załadowany FLUX upscaling jako wejścia. Węzeł CLIPTextEncode (Upscale Positive Prompt) koduje pozytywne polecenie tekstowe do skalowania. Węzeł UpscaleModelLoader ładuje FLUX upscaling. Węzeł UltimateSDUpscale wykonuje proces skalowania i generuje przeskalowaną reprezentację. Na koniec węzeł SaveImage (Upscaled) zapisuje przeskalowane wyjście w określonej lokalizacji.
Wykorzystując moc ComfyUI FLUX i architektury NF4, przepływ pracy ComfyUI FLUX NF4 umożliwia generowanie wysokiej jakości wyjść z ulepszoną wiernością i realizmem. Bezproblemowa integracja ComfyUI FLUX z architekturą NF4 zapewnia potężne narzędzie do tworzenia oszałamiających i przyciągających wzrok wyjść.
Na platformie RunComfy nasza wersja online wstępnie ładuje wszystkie niezbędne tryby i węzły dla ciebie. Dodatkowo oferujemy maszyny z wysokowydajnymi GPU, co zapewnia, że możesz cieszyć się doświadczeniem ComfyUI FLUX IPAdapter bezproblemowo.
Przepływ pracy Com fyUI FLUX IPAdapter zaczyna się od załadowania niezbędnych modeli, w tym modelu UNET (UNETLoader), modelu CLIP (DualCLIPLoader) i modelu VAE (VAELoader).
Pozytywne i negatywne polecenia tekstowe są kodowane za pomocą CLIPTextEncodeFlux. Pozytywne warunki tekstowe są używane do kierowania procesem generowania ComfyUI FLUX.
Obraz wejściowy jest ładowany za pomocą LoadImage. LoadFluxIPAdapter ładuje IP-Adapter dla modelu FLUX, który jest następnie stosowany do załadowanego modelu UNET za pomocą ApplyFluxIPAdapter. ImageScale skaluje obraz wejściowy do pożądanego rozmiaru przed zastosowaniem IP-Adapter.
EmptyLatentImage tworzy pustą reprezentację latentną jako punkt wyjścia dla generowania ComfyUI FLUX.
XlabsSampler wykonuje proces próbkowania, przyjmując FLUX UNET z zastosowanym IP-Adapter, zakodowane pozytywne i negatywne warunki tekstowe oraz pustą reprezentację latentną jako wejścia. Generuje on reprezentację latentną.
VAEDecode dekoduje wygenerowaną reprezentację latentną do końcowego wyjścia za pomocą załadowanego FLUX VAE. Węzeł PreviewImage wyświetla podgląd końcowego wyjścia.
Przepływ pracy ComfyUI FLUX IPAdapter wykorzystuje moc ComfyUI FLUX i IP-Adapter do generowania wysokiej jakości wyjść, które odpowiadają dostarczonym poleceniom tekstowym. Stosując IP-Adapter do FLUX UNET, przepływ pracy umożliwia generowanie wyjść, które uchwytują pożądane cechy i styl określony w warunkowaniu tekstowym.
Przepływ pracy ComfyUI FLUX LoRA Trainer składa się z wielu etapów do treningu LoRA przy użyciu architektury FLUX w ComfyUI.
Wybór i konfiguracja ComfyUI FLUX: Węzeł FluxTrainModelSelect jest używany do wyboru komponentów do treningu, w tym UNET, VAE, CLIP oraz CLIP text encoder. Węzeł OptimizerConfig konfiguruje ustawienia optymalizatora do treningu ComfyUI FLUX, takie jak typ optymalizatora, szybkość uczenia się i rozpad wagi. Węzły TrainDatasetGeneralConfig i TrainDatasetAdd są używane do konfigurowania zestawu danych treningowych, w tym rozdzielczości, ustawień augmentacji i rozmiarów partii.
Inicjalizacja treningu ComfyUI FLUX: Węzeł InitFluxLoRATraining inicjalizuje proces treningu LoRA przy użyciu wybranych komponentów, konfiguracji zestawu danych i ustawień optymalizatora. Węzeł FluxTrainValidationSettings konfiguruje ustawienia walidacji dla treningu, takie jak liczba próbek walidacyjnych, rozdzielczość i rozmiar partii.
Pętla treningowa ComfyUI FLUX: Węzeł FluxTrainLoop wykonuje pętlę treningową dla LoRA, iterując przez określoną liczbę kroków. Po każdej pętli treningowej węzeł FluxTrainValidate waliduje trenowaną LoRA przy użyciu ustawień walidacji i generuje wyniki walidacyjne. Węzeł PreviewImage wyświetla podgląd wyników walidacji. Węzeł FluxTrainSave zapisuje trenowaną LoRA w określonych odstępach.
Wizualizacja strat ComfyUI FLUX: Węzeł VisualizeLoss wizualizuje straty treningowe w trakcie treningu. Węzeł SaveImage zapisuje wykres strat do dalszej analizy.
Przetwarzanie wyników walidacji ComfyUI FLUX: Węzły AddLabel i SomethingToString są używane do dodawania etykiet do wyników walidacji, wskazując kroki treningowe. Węzły ImageBatchMulti i ImageConcatFromBatch łączą i łączą wyniki walidacji w jeden wynik, co ułatwia wizualizację.
Finalizacja treningu ComfyUI FLUX: Węzeł FluxTrainEnd finalizuje proces treningu LoRA i zapisuje trenowaną LoRA. Węzeł UploadToHuggingFace może być używany do przesyłania trenowanej LoRA do Hugging Face w celu udostępnienia i dalszego wykorzystania z ComfyUI FLUX.
Przepływ pracy ComfyUI Flux Latent Upscale zaczyna się od załadowania niezbędnych komponentów, w tym CLIP (DualCLIPLoader), UNET (UNETLoader) i VAE (VAELoader). Polecenie tekstowe jest kodowane za pomocą węzła CLIPTextEncode, a przewodnictwo jest stosowane za pomocą węzła FluxGuidance.
Węzeł SDXLEmptyLatentSizePicker+ określa rozmiar pustej reprezentacji latentnej, która służy jako punkt wyjścia do procesu skalowania w FLUX. Reprezentacja latentna jest następnie przetwarzana przez serię kroków skalowania i przycinania za pomocą węzłów LatentUpscale i LatentCrop.
Proces skalowania jest kierowany przez zakodowane warunki tekstowe i wykorzystuje węzeł SamplerCustomAdvanced z wybraną metodą próbkowania (KSamplerSelect) i zaplanowanymi poziomami szumu (BasicScheduler). Węzeł ModelSamplingFlux ustawia parametry próbkowania.
Przeskalowana reprezentacja latentna jest następnie łączona z oryginalną reprezentacją latentną za pomocą węzła LatentCompositeMasked i maski wygenerowanej przez węzły SolidMask i FeatherMask. Szum jest wstrzykiwany do przeskalowanej reprezentacji latentnej za pomocą węzła InjectLatentNoise+.
Na koniec przeskalowana reprezentacja latentna jest dekodowana do końcowego wyjścia za pomocą węzła VAEDecode, a inteligentne wyostrzanie jest stosowane za pomocą węzła ImageSmartSharpen+. Węzeł PreviewImage wyświetla podgląd końcowego wyjścia wygenerowanego przez ComfyUI FLUX.
Przepływ pracy ComfyUI FLUX Latent Upscaler obejmuje również różne operacje matematyczne za pomocą węzłów SimpleMath+, SimpleMathFloat+, SimpleMathInt+ i SimpleMathPercent+ w celu obliczania wymiarów, stosunków i innych parametrów do procesu skalowania.
© Prawa autorskie 2024 RunComfy. Wszelkie prawa zastrzeżone.