Tento pracovní postup využívá AnimateDiff, ControlNet zaměřený na hloubku a specifickou Lora k dovedné přeměně videí do stylu keramického umění. Doporučujeme používat různé prompty k dosažení různých uměleckých stylů, čímž přeměníte své nápady ve skutečnost.
AnimateDiff je navržen k animování statických obrázků a textových promptů do dynamických videí, využívajících modely Stable Diffusion a specializovaný motion module. Automatizuje proces animace předpovědí plynulých přechodů mezi snímky, což jej činí přístupným uživatelům bez programovacích dovedností.
Začněte výběrem požadovaného motion module AnimateDiff z rozbalovací nabídky model_name:
Beta Schedule v AnimateDiff je klíčový pro nastavení procesu snižování šumu během tvorby animace.
Pro verze V3 a V2 AnimateDiff se doporučuje nastavení sqrt_linear, ačkoli experimentování s nastavením linear může přinést jedinečné efekty.
Pro AnimateDiff SDXL se doporučuje nastavení linear (AnimateDiff-SDXL).
Funkce Motion Scale v AnimateDiff umožňuje nastavení intenzity pohybu ve vašich animacích. Motion Scale pod 1 vede k jemnějšímu pohybu, zatímco škála nad 1 zvyšuje pohyb.
Uniform Context Length v AnimateDiff je nezbytný pro zajištění plynulých přechodů mezi scénami definovanými vaší Batch Size. Funguje jako odborný editor, který plynule spojuje scény pro plynulé vyprávění. Nastavení delší Uniform Context Length zajišťuje plynulejší přechody, zatímco kratší délka nabízí rychlejší, výraznější změny scén, což je přínosné pro určité efekty. Standardní Uniform Context Length je nastavena na 16.
Motion LoRAs, kompatibilní pouze s AnimateDiff v2, přinášejí další vrstvu dynamického pohybu kamery. Dosažení optimální rovnováhy s váhou LoRA, obvykle kolem 0.75, zajišťuje plynulý pohyb kamery bez zkreslení pozadí.
Navíc, řetězení různých modelů Motion LoRA umožňuje složité dynamiky kamery. To umožňuje tvůrcům experimentovat a objevit ideální kombinaci pro jejich animaci, čímž ji povyšují na filmovou úroveň.
ControlNet zlepšuje generování obrázků zavedením přesné prostorové kontroly do text-to-image modelů, což umožňuje uživatelům sofistikovaně manipulovat s obrázky nad rámec pouhých textových promptů, využívající rozsáhlé knihovny z modelů jako Stable Diffusion pro složité úkoly jako skicování, mapování a segmentace vizuálů.
Následuje nejjednodušší pracovní postup používající ControlNet.
Začněte tvorbu svého obrázku načtením "Apply ControlNet" Node v ComfyUI, čímž vytvoříte základ pro kombinaci vizuálních a textových prvků ve svém návrhu.
Použijte Positive a Negative Conditioning k tvarování svého obrázku, vyberte model ControlNet pro definování stylových vlastností a předzpracujte svůj obrázek, aby odpovídal požadavkům modelu ControlNet, což jej připraví na transformaci.
Výstupy node vedou difúzní model, nabízejí volbu mezi dalším vylepšením obrázku nebo přidáním více ControlNetů pro zvýšené detaily a přizpůsobení na základě interakce ControlNet s vašimi kreativními vstupy.
Ovládejte vliv ControlNet na svůj obrázek pomocí nastavení jako Determining Strength, Adjusting Start Percent a Setting End Percent pro jemné doladění kreativního procesu a výsledku obrázku.
Pro více podrobností si prosím prohlédněte
Tento pracovní postup je inspirován s některými úpravami. Pro více informací prosím navštivte jeho YouTube kanál.
© Autorská práva 2024 RunComfy. Všechna práva vyhrazena.