Dieser ComfyUI-Workflow führt hochwertigen Gesichtsersatz durch, indem er eine auf InsightFace basierende Ausrichtungs- und Einfügestufe mit FLUX.1 Bild-zu-Bild-Generierung kombiniert, die durch Kontext geleitet wird. Er ist für Kreative konzipiert, die schnelle, zuverlässige Swaps mit minimalem Maskieren und natürlichem Haut- und Haarübergang wünschen. Die Pipeline lädt ein vorbereitetes Kontext UNet, wendet das Put it here LoRA an und regeneriert den lokalen Bereich für ein nahtloses Ergebnis.
Der FLUX Kontext Face Swap-Workflow nimmt ein Basisbild und ein Gesichtsbild, erkennt und richtet das Gesicht automatisch aus, fügt es in das Basisbild ein, skaliert das Komposit für FLUX und verfeinert es dann mit prompt-geführtem Sampling. Ergebnisse werden in der Vorschau angezeigt und gespeichert, mit optionalen Reglern, um Beschnitte zu straffen oder den Swap subtiler oder stärker zu machen.
Dieser Graph hat zwei Hauptgruppen, die nacheinander ablaufen: Gesichtstransplantation bereitet einen sauberen Komposit-Patch vor; Ksampler und Ausgabe regeneriert und poliert ihn mit FLUX.
Diese Gruppe lädt Ihr Basisbild (LoadImage
(#108)) und Gesichtsbild (LoadImage
(#110)), findet dann Gesichtsbereiche mit AutoCropFaces
(#119, #122). Die Beschnitte und Landmarken speisen FaceAlign
(#121), das das Quellgesicht anpasst, um die Basispose und -skala zu entsprechen. Image Paste Face
(#125) fügt das ausgerichtete Gesicht in die Basis ein, während es die Beschnittmetadaten für eine enge, realistische Überlagerung verwendet. FluxKontextImageScale
(#134) skaliert dann das Komposit auf die genauen Abmessungen, die Kontext erwartet, sodass die nachgelagerte VAE-Kodierung verlustfrei und stabil ist.
Was bereitzustellen ist:
DualCLIPLoader
(#8) lädt CLIP-L und T5-XXL-Encoder, und CLIPTextEncode
(#6) konvertiert Ihren Prompt in Konditionierung. Der Prompt ist geschrieben, um sich darauf zu konzentrieren, den Gesichtsbereich wiederherzustellen und den Ausdruck zu kontrollieren; Sie können ihn bearbeiten, um Details wie Lächeln, Haare oder Make-up zu beeinflussen. ConditioningZeroOut
(#4) schaltet den Texteffekt aus, sodass Kontext den Kontext außerhalb des Swap-Bereichs bewahrt, und ReferenceLatent
(#3) verankert die Generierung an das kodierte Komposit. FluxGuidance
(#5) balanciert, wie sehr der Sampler dem Referenzbild oder Ihrem Prompt folgen soll. Der Modellpfad führt UNETLoader
(#140) mit Kontext gefolgt von LoraLoaderModelOnly
(#141) aus, das das Put it here LoRA anwendet. Das Komposit wird von VAEEncode
(#10) kodiert, von KSampler
(#9) gesampelt, von VAEDecode
(#7) dekodiert, in der Vorschau angezeigt und mit SaveImage
(#19) gespeichert.
Was zu ändern ist:
CLIPTextEncode
, um Ausdruck und lokale Details zu steuern.AutoCropFaces
(#119 und #122)Erkennt Gesichter und erzeugt Beschneidungsmetadaten für Ausrichtung und Einfügen. Wenn das Gesicht teilweise verpasst wird oder Haare enthält, die Sie nicht möchten, erhöhen Sie die Beschnittgröße leicht oder senken Sie das Erkennungsvertrauen, um mehr Kontext zu erfassen.
FaceAlign
(#121)Verwendet InsightFace-Landmarken, um das Quellgesicht an die Basisgesichtsgeometrie anzupassen, bevor es zusammengeführt wird. Wechseln Sie das Analysegerät in FaceAnalysisModels
(#120) auf GPU
, wenn verfügbar, für schnellere Ausrichtung.
Image Paste Face
(#125)Mischt das ausgerichtete Gesicht in das Basisbild unter Verwendung der Beschnittdaten. Wenn die Kanten scharf aussehen oder die Farbe nicht stimmt, versuchen Sie eine leicht größere Beschnittbox oder reduzieren Sie jede Nach-Prompt-Aggressivität, damit FLUX weniger Übermalung um den Rand herum macht.
FluxKontextImageScale
(#134)Skaliert das Komposit auf die native Form, die von Kontext erwartet wird, sodass die VAE ohne Verzerrung kodieren kann. Lassen Sie dies bestehen, um Dehnungen oder Drift im verfeinerten Ergebnis zu verhindern.
UNETLoader
(#140)Lädt das kontext-abgestimmte FLUX UNet. Verwenden Sie dies zusammen mit dem LoRA für das beabsichtigte Verhalten von FLUX Kontext Face Swap. Das Ändern des Checkpoints wird die Hauttextur und die Gesamtqualität spürbar verändern.
LoraLoaderModelOnly
(#141)Wendet Put it here LoRA an, um die Rekonstruktion zu lokalisieren. Wenn der Swap driftet oder Bearbeitungen außerhalb des Gesichtsbereichs stattfinden, erhöhen Sie den LoRA-Einfluss leicht. Wenn das Aussehen gesperrt erscheint, reduzieren Sie es für mehr kreative Freiheit.
DualCLIPLoader
(#8) und CLIPTextEncode
(#6)Bieten Textkonditionierung. Halten Sie Prompts kurz und gezielt auf den Gesichtsbereich und den Ausdruck. Vermeiden Sie globale Stilhinweise, wenn Sie den Hintergrund und die Kleidung des Basisbildes bewahren möchten.
FluxGuidance
(#5)Balanciert, wie sehr der Sampler dem Referenzkomposit vertrauen sollte. Erhöhen Sie es, um die Basiszusammensetzung enger zu bewahren, senken Sie es für stärkere prompt-gesteuerte Bearbeitungen im Gesichtsbereich.
RunComfy ist die führende ComfyUI Plattform, die ComfyUI online Umgebung und Services bietet, zusammen mit ComfyUI Workflows mit atemberaubenden Visualisierungen. RunComfy bietet auch AI-Spielplatz, Künstlern ermöglichen, die neuesten AI-Tools zu nutzen, um unglaubliche Kunst zu schaffen.