Updated: 5/28/2024
Ahoj, kolegové AI umělci! 👋 Vítejte v našem tutoriálu pro začátečníky o ComfyUI, neuvěřitelně silném a flexibilním nástroji pro vytváření ohromujících AI-generovaných děl. 🎨 V této příručce vás provedeme základy ComfyUI, prozkoumáme jeho funkce a pomůžeme vám odemknout jeho potenciál, abyste mohli posunout svůj AI umění na vyšší úroveň. 🚀
Budeme se zabývat:
ComfyUI je jako mít kouzelnou hůlku 🪄 pro snadné vytváření ohromujících, AI-generovaných děl. V jádru je ComfyUI grafické uživatelské rozhraní (GUI) založené na uzlech, postavené na vrcholu Stable Diffusion, špičkového modelu hlubokého učení, který generuje obrázky z textových popisů. 🌟 Ale co dělá ComfyUI opravdu zvláštním, je to, jak umožňuje umělcům jako vy uvolnit svou kreativitu a přivést k životu své nejdivočejší nápady.
Představte si digitální plátno, kde můžete konstruovat své vlastní jedinečné pracovní postupy pro generování obrázků propojením různých uzlů, z nichž každý představuje konkrétní funkci nebo operaci. 🧩 Je to jako stavět vizuální recept pro vaše AI-generované mistrovské dílo!
Chcete generovat obrázek od nuly pomocí textového promptu? Na to je uzel! Potřebujete aplikovat specifický sampler nebo jemně doladit úroveň šumu? Jednoduše přidejte odpovídající uzly a sledujte, jak se kouzlo děje. ✨
Ale tady je to nejlepší: ComfyUI rozkládá pracovní postup na přeskupitelné prvky, což vám dává svobodu vytvářet vlastní pracovní postupy přizpůsobené vašemu uměleckému vidění. 🖼️ Je to jako mít osobní sadu nástrojů, která se přizpůsobí vašemu kreativnímu procesu.
AUTOMATIC1111 je výchozí GUI pro Stable Diffusion. Takže, měli byste místo toho použít ComfyUI? Porovnejme si to:
✅ Výhody používání ComfyUI:
❌ Nevýhody používání ComfyUI:
Věříme, že nejlepší způsob, jak se naučit ComfyUI, je ponořit se do příkladů a zažít to na vlastní kůži. 🙌 Proto jsme vytvořili tento jedinečný tutoriál, který se liší od ostatních. V tomto tutoriálu najdete podrobný, krok za krokem průvodce, kterého můžete následovat.
Ale tady je to nejlepší: 🌟 Integrovali jsme ComfyUI přímo na tuto webovou stránku! Budete moci interagovat s příklady ComfyUI v reálném čase, jak budete postupovat tutoriálem. 🌟 Pojďme na to!
Začněme s nejjednodušším případem: generování obrázku z textu. Klikněte na Queue Prompt pro spuštění pracovního postupu. Po krátkém čekání byste měli vidět svůj první vygenerovaný obrázek! Pro kontrolu své fronty stačí kliknout na View Queue.
Zde je výchozí pracovní postup text-to-image, který si můžete vyzkoušet:
Pracovní postup ComfyUI se skládá ze dvou základních stavebních bloků: Nodes a Edges.
Nejprve vyberte model Stable Diffusion Checkpoint v uzlu Load Checkpoint. Klikněte na název modelu pro zobrazení dostupných modelů. Pokud kliknutí na název modelu nic nedělá, možná budete muset nahrát vlastní model.
Uvidíte dva uzly označené CLIP Text Encode (Prompt). Horní prompt je připojen k pozitivnímu vstupu uzlu KSampler, zatímco dolní prompt je připojen k negativnímu vstupu. Zadejte tedy svůj pozitivní prompt do horního a negativní prompt do dolního.
Uzel CLIP Text Encode převádí prompt na tokeny a kóduje je do embeddingů pomocí textového enkodéru.
💡 Tip: Použijte syntaxi (keyword:weight) pro ovládání váhy klíčového slova, např. (keyword:1.2) pro zvýšení jeho efektu nebo (keyword:0.8) pro jeho snížení.
Klikněte na Queue Prompt pro spuštění pracovního postupu. Po krátkém čekání bude vygenerován váš první obrázek!
Síla ComfyUI spočívá v jeho konfigurovatelnosti. Pochopení toho, co každý uzel dělá, vám umožní je přizpůsobit vašim potřebám. Ale než se ponoříme do detailů, podívejme se na proces Stable Diffusion, abychom lépe pochopili, jak ComfyUI funguje.
Proces Stable Diffusion lze shrnout do tří hlavních kroků:
Teď, když máme vysokou úroveň porozumění procesu Stable Diffusion, pojďme se ponořit do klíčových komponent a uzlů v ComfyUI, které tento proces umožňují.
Uzel Load Checkpoint v ComfyUI je klíčový pro výběr modelu Stable Diffusion. Model Stable Diffusion se skládá ze tří hlavních komponent: MODEL, CLIP a VAE. Pojďme prozkoumat každou komponentu a její vztah k odpovídajícím uzlům v ComfyUI.
Je důležité poznamenat, že VAE je oddělená komponenta od jazykového modelu CLIP. Zatímco CLIP se zaměřuje na zpracování textových promptů, VAE se zabývá převodem mezi pixlovým a latentním prostorem.
Uzel CLIP Text Encode v ComfyUI je zodpovědný za přijímání uživatelem poskytnutých promptů a jejich krmení do jazykového modelu CLIP. CLIP je výkonný jazykový model, který rozumí sémantickému významu slov a může je spojovat s vizuálními koncepty. Když je prompt zadán do uzlu CLIP Text Encode, prochází transformačním procesem, při kterém je každé slovo převedeno na embeddingy. Tyto embeddingy jsou vysokodimenzionální vektory, které zachycují sémantické informace slov. Převodem promptů na embeddingy umožňuje CLIP modelu generovat obrázky, které přesně odrážejí význam a úmysl daných promptů.
V procesu text-to-image generování začíná s náhodným obrázkem v latentním prostoru. Tento náhodný obrázek slouží jako výchozí stav pro model, se kterým pracuje. Velikost latentního obrázku je úměrná skutečné velikosti obrázku v pixlovém prostoru. V ComfyUI můžete upravit výšku a šířku latentního obrázku pro ovládání velikosti vygenerovaného obrázku. Navíc můžete nastavit velikost dávky pro určení počtu obrázků generovaných v každém běhu.
Optimální velikosti pro latentní obrázky závisí na konkrétním modelu Stable Diffusion, který se používá. Pro modely SD v1.5 jsou doporučené velikosti 512x512 nebo 768x768, zatímco pro modely SDXL je optimální velikost 1024x1024. ComfyUI poskytuje řadu běžných poměrů stran, jako je 1:1 (čtverec), 3:2 (na šířku), 2:3 (na výšku), 4:3 (na šířku), 3:4 (na výšku), 16:9 (širokoúhlý) a 9:16 (vertikální). Je důležité poznamenat, že šířka a výška latentního obrázku musí být dělitelná 8, aby byla zajištěna kompatibilita s architekturou modelu.
VAE (Variational AutoEncoder) je klíčovou komponentou v modelu Stable Diffusion, která se zabývá převodem obrázků mezi pixlovým a latentním prostorem. Skládá se ze dvou hlavních částí: Image Encoder a Image Decoder.
Image Encoder přijímá obrázek v pixlovém prostoru a komprimuje jej do nižší dimenzionální latentní reprezentace. Tento kompresní proces výrazně snižuje velikost dat, což umožňuje efektivnější zpracování a ukládání. Například obrázek o velikosti 512x512 pixelů může být komprimován na latentní reprezentaci o velikosti 64x64.
Na druhé straně je Image Decoder, také známý jako VAE Decoder, zodpovědný za rekonstrukci obrázku z latentní reprezentace zpět do pixlového prostoru. Přijímá komprimovanou latentní reprezentaci a rozšiřuje ji, aby vygeneroval finální obrázek.
Použití VAE nabízí několik výhod:
Nicméně, je také třeba zvážit některé nevýhody:
Navzdory těmto omezením hraje VAE zásadní roli v modelu Stable Diffusion tím, že umožňuje efektivní převod mezi pixlovým a latentním prostorem, usnadňuje rychlejší generování a přesnější kontrolu nad vygenerovanými obrázky.
Uzel KSampler v ComfyUI je srdcem procesu generování obrázků ve Stable Diffusion. Je zodpovědný za denoising náhodného obrázku v latentním prostoru tak, aby odpovídal uživatelem poskytnutému promptu. KSampler používá techniku zvanou reverzní difuze, kde iterativně zdokonaluje latentní reprezentaci odstraněním šumu a přidáváním smysluplných detailů na základě vedení z embeddingů CLIP.
Uzel KSampler nabízí několik parametrů, které umožňují uživatelům jemně doladit proces generování obrázků:
Seed: Hodnota semene ovládá počáteční šum a složení finálního obrázku. Nastavením specifického semene mohou uživatelé dosáhnout reprodukovatelných výsledků a udržet konzistenci mezi více generacemi.
Control_after_generation: Tento parametr určuje, jak se hodnota semene mění po každém generování. Lze jej nastavit na náhodné (generovat nové náhodné semeno pro každý běh), inkrement (zvýšit hodnotu semene o 1), dekrement (snížit hodnotu semene o 1) nebo pevné (udržet hodnotu semene konstantní).
Step: Počet kroků vzorkování určuje intenzitu procesu zdokonalování. Vyšší hodnoty vedou k menším artefaktům a detailnějším obrázkům, ale také zvyšují čas generování.
Sampler_name: Tento parametr umožňuje uživatelům vybrat konkrétní vzorkovací algoritmus používaný uzlem KSampler. Různé vzorkovací algoritmy mohou přinést mírně odlišné výsledky a mít různé rychlosti generování.
Scheduler: Plánovač ovládá, jak se úroveň šumu mění v každém kroku procesu denoisingu. Určuje rychlost, jakou je šum odstraňován z latentní reprezentace.
Denoise: Parametr denoising nastavuje množství počátečního šumu, které má být odstraněno procesem denoisingu. Hodnota 1 znamená, že veškerý šum bude odstraněn, což vede k čistému a detailnímu obrázku.
Úpravou těchto parametrů můžete jemně doladit proces generování obrázků, abyste dosáhli požadovaných výsledků.
V RunComfy jsme vytvořili ultimátní online zážitek s ComfyUI právě pro vás. Řekněte sbohem komplikovaným instalacím! 🎉 Vyzkoušejte ComfyUI Online nyní a uvolněte svůj umělecký potenciál jako nikdy předtím! 🎉
Pracovní postup Image-to-Image generuje obrázek na základě promptu a vstupního obrázku. Vyzkoušejte to sami!
Pro použití pracovního postupu Image-to-Image:
Pro více prémiových pracovních postupů ComfyUI navštivte naši 🌟Seznam pracovních postupů ComfyUI🌟
Díky své extrémní konfigurovatelnosti je ComfyUI jedním z prvních GUI, které podporuje model Stable Diffusion XL. Pojďme to vyzkoušet!
Pro použití pracovního postupu ComfyUI SDXL:
Pojďme se ponořit do něčeho složitějšího: inpainting! Když máte skvělý obrázek, ale chcete upravit konkrétní části, inpainting je nejlepší metoda. Vyzkoušejte to zde!
Pro použití pracovního postupu inpainting:
Outpainting je další vzrušující technika, která vám umožní rozšířit vaše obrázky mimo jejich původní hranice. 🌆 Je to jako mít nekonečné plátno, se kterým můžete pracovat!
Pro použití pracovního postupu ComfyUI Outpainting:
Pro více prémiových pracovních postupů inpainting/outpainting navštivte naši 🌟Seznam pracovních postupů ComfyUI🌟
Dále prozkoumejme ComfyUI upscale. Představíme tři základní pracovní postupy, které vám pomohou efektivně upscale.
Existují dva hlavní způsoby pro upscale:
Dva způsoby, jak toho dosáhnout:
Další metodou pro upscale je Upscale Latent, také známý jako Hi-res Latent Fix Upscale, který přímo upscale v latentním prostoru.
Pro více prémiových pracovních postupů pro obnovu/upscale navštivte naši 🌟Seznam pracovních postupů ComfyUI🌟
Připravte se posunout své AI umění na další úroveň s ControlNet, revoluční technologií, která přináší revoluci v generování obrázků!
ControlNet je jako kouzelná hůlka 🪄, která vám poskytuje bezprecedentní kontrolu nad AI-generovanými obrázky. Pracuje ruku v ruce se silnými modely jako Stable Diffusion, zlepšuje jejich schopnosti a umožňuje vám vést proces tvorby obrázků jako nikdy předtím!
Představte si, že můžete specifikovat hrany, lidské pózy, hloubku nebo dokonce segmentační mapy vašeho požadovaného obrázku. 🌠 S ControlNet můžete udělat právě to!
Pokud jste nadšeni a chcete se ponořit hlouběji do světa ControlNet a uvolnit jeho plný potenciál, máme pro vás připravený podrobný tutoriál na ovládnutí ControlNet v ComfyUI! 📚 Je plný krok za krokem průvodců a inspirativních příkladů, které vám pomohou stát se profesionálem v ControlNet. 🏆
ComfyUI Manager je vlastní uzel, který vám umožňuje instalovat a aktualizovat další vlastní uzly prostřednictvím rozhraní ComfyUI. Najdete tlačítko Manager v menu Queue Prompt.
Pokud pracovní postup vyžaduje vlastní uzly, které nemáte nainstalované, postupujte takto:
Dvakrát klikněte na jakoukoli prázdnou oblast, aby se zobrazilo menu pro vyhledávání uzlů.
Embeddings, také známé jako textual inversion, jsou silnou funkcí v ComfyUI, která vám umožňuje vkládat vlastní koncepty nebo styly do vašich AI-generovaných obrázků. 💡 Je to jako učit AI nové slovo nebo frázi a spojovat je s konkrétními vizuálními charakteristikami.
Pro použití embeddingů v ComfyUI jednoduše zadejte "embedding:" následované názvem vašeho embeddingu do pole pro pozitivní nebo negativní prompt. Například:
embedding: BadDream
Když použijete tento prompt, ComfyUI vyhledá soubor embeddingu s názvem "BadDream" ve složce ComfyUI > models > embeddings. 📂 Pokud najde shodu, použije odpovídající vizuální charakteristiky pro váš vygenerovaný obrázek.
Embeddings jsou skvělým způsobem, jak personalizovat vaše AI umění a dosáhnout specifických stylů nebo estetiky. 🎨 Můžete vytvořit své vlastní embeddingy tím, že je vytrénujete na sadě obrázků, které reprezentují požadovaný koncept nebo styl.
Paměť přesných názvů vašich embeddingů může být obtížná, zejména pokud máte velkou sbírku. 😅 Tady přichází na pomoc vlastní uzel ComfyUI-Custom-Scripts!
Pro povolení automatického dokončování názvů embeddingů:
Jakmile máte nainstalovaný uzel ComfyUI-Custom-Scripts, zažijete uživatelsky přívětivější způsob používání embeddingů. 😊 Jednoduše začněte psát "embedding:" v promptovém poli a zobrazí se seznam dostupných embeddingů. Můžete pak vybrat požadovaný embedding ze seznamu, což vám ušetří čas a úsilí!
Věděli jste, že můžete ovládat sílu svých embeddingů? 💪 Protože embeddingy jsou v podstatě klíčová slova, můžete na ně aplikovat váhy stejně jako u běžných klíčových slov ve vašich promptách.
Pro úpravu váhy embeddingu použijte následující syntaxi:
(embedding: BadDream:1.2)
V tomto příkladu je váha embeddingu "BadDream" zvýšena o 20 %. Vyšší váhy (např. 1.2) zvýší vliv embeddingu, zatímco nižší váhy (např. 0.8) sníží jeho vliv. 🎚️ To vám dá ještě větší kontrolu nad finálním výsledkem!
LoRA, zkratka pro Low-rank Adaptation, je další vzrušující funkcí v ComfyUI, která vám umožňuje upravovat a jemně ladit vaše modely checkpointů. 🎨 Je to jako přidat malý, specializovaný model na vrchol vašeho základního modelu pro dosažení specifických stylů nebo začlenění vlastních prvků.
Modely LoRA jsou kompaktní a efektivní, což je činí snadno použitelnými a sdílitelnými. Jsou běžně používány pro úkoly, jako je úprava uměleckého stylu obrázku nebo vkládání konkrétní osoby nebo objektu do vygenerovaného výsledku.
Když aplikujete model LoRA na model checkpointu, upravuje komponenty MODEL a CLIP, zatímco VAE (Variational Autoencoder) zůstává nezměněn. To znamená, že LoRA se zaměřuje na úpravu obsahu a stylu obrázku bez změny jeho celkové struktury.
Použití LoRA v ComfyUI je jednoduché. Podívejme se na nejjednodušší metodu:
ComfyUI pak zkombinuje model checkpointu a model LoRA pro vytvoření obrázku, který odráží specifikované prompty a zahrnuje úpravy zavedené modelem LoRA.
Ale co když chcete aplikovat více LoRA na jeden obrázek? Žádný problém! ComfyUI vám umožňuje používat dva nebo více LoRA ve stejném pracovním postupu text-to-image.
Proces je podobný použití jednoho LoRA, ale budete muset vybrat více modelů LoRA místo jednoho. ComfyUI aplikuje LoRA postupně, což znamená, že každý LoRA bude stavět na úpravách zavedených předchozím.
To otevírá svět možností pro kombinování různých stylů, prvků a úprav ve vašich AI-generovaných obrázcích. 🌍💡 Experimentujte s různými kombinacemi LoRA pro dosažení unikátních a kreativních výsledků!
Gratulujeme k dokončení této příručky pro začátečníky o ComfyUI! 🙌 Nyní jste připraveni ponořit se do vzrušujícího světa tvorby AI umění. Ale proč se trápit instalací, když můžete začít tvořit ihned? 🤔
V RunComfy jsme vám to usnadnili použitím ComfyUI online bez jakéhokoli nastavení. Naše služba ComfyUI Online je předem nahraná s více než 200 populárními uzly a modely spolu s více než 50 úžasnými pracovními postupy, které vás inspirují.
🌟 Ať už jste začátečník nebo zkušený AI umělec, RunComfy má vše, co potřebujete k realizaci vašich uměleckých vizí. 💡 Nečekejte déle – vyzkoušejte ComfyUI Online nyní a zažijte sílu tvorby AI umění na dosah ruky! 🚀
© Autorská práva 2024 RunComfy. Všechna práva vyhrazena.