Ce flux de travail ComfyUI effectue un remplacement de visage de haute qualité en combinant une étape d'alignement et de collage basée sur InsightFace avec la génération d'image-à-image FLUX.1 guidée par Kontext. Il est conçu pour les créateurs souhaitant des échanges rapides et fiables avec un masquage minimal et un mélange naturel de la peau et des cheveux. Le pipeline charge un UNet Kontext préparé, applique le Put it here LoRA, et régénère la région locale pour un résultat sans couture.
Le flux de travail FLUX Kontext Face Swap prend une image de base et une image de visage, détecte et aligne automatiquement le visage, le colle dans la base, met à l'échelle le composite pour FLUX, puis le raffine avec un échantillonnage guidé par invite. Les résultats sont prévisualisés et enregistrés, avec des options pour resserrer les recadrages ou rendre l'échange plus subtil ou plus fort.
Ce graphique a deux principaux groupes qui s'exécutent en séquence: Transplantation de visage prépare une image composite propre; Ksampler et Output régénère et polit avec FLUX.
Ce groupe charge votre Image de Base (LoadImage
(#108)) et Image de Visage (LoadImage
(#110)), puis trouve les régions du visage avec AutoCropFaces
(#119, #122). Les recadrages et points de repère alimentent FaceAlign
(#121), qui déforme le visage source pour correspondre à la pose et à l'échelle de la base. Image Paste Face
(#125) fusionne le visage aligné dans la base tout en utilisant les métadonnées de recadrage pour une superposition réaliste et serrée. FluxKontextImageScale
(#134) redimensionne ensuite le composite aux dimensions exactes attendues par Kontext, de sorte que l'encodage VAE en aval soit sans perte et stable.
Ce qu'il faut fournir:
DualCLIPLoader
(#8) charge les encodeurs CLIP-L et T5-XXL, et CLIPTextEncode
(#6) convertit votre invite en conditionnement. L'invite est écrite pour se concentrer sur la restauration de la zone du visage et le contrôle de l'expression; vous pouvez l'éditer pour ajuster des détails comme le sourire, les cheveux ou le maquillage. ConditioningZeroOut
(#4) contrôle l'influence textuelle pour que Kontext préserve le contexte en dehors de la région de l'échange, et ReferenceLatent
(#3) ancre la génération au composite encodé. FluxGuidance
(#5) équilibre à quel point l'échantillonneur doit obéir à la référence par rapport à votre invite. Le chemin du modèle exécute UNETLoader
(#140) avec Kontext suivi de LoraLoaderModelOnly
(#141), qui applique le Put it here LoRA. Le composite est encodé par VAEEncode
(#10), échantillonné par KSampler
(#9), décodé par VAEDecode
(#7), prévisualisé et enregistré avec SaveImage
(#19).
Ce qu'il faut changer:
CLIPTextEncode
pour orienter l'expression et le détail local.AutoCropFaces
(#119 et #122)Détecte les visages et produit des métadonnées de recadrage pour l'alignement et le collage. Si le visage est partiellement manqué ou inclut des cheveux non désirés, augmentez légèrement la taille du recadrage ou baissez la confiance de détection pour capter plus de contexte.
FaceAlign
(#121)Utilise les points de repère InsightFace pour déformer le visage source sur la géométrie du visage de base avant de fusionner. Changez l'appareil d'analyse dans FaceAnalysisModels
(#120) en GPU
lorsque disponible pour un alignement plus rapide.
Image Paste Face
(#125)Mélange le visage aligné dans l'image de base en utilisant les données de recadrage. Si les bords semblent nets ou que la couleur est décalée, essayez une boîte de recadrage légèrement plus grande ou réduisez toute agressivité post-invite pour que FLUX fasse moins de surpeinture autour de la bordure.
FluxKontextImageScale
(#134)Redimensionne le composite à la forme native attendue par Kontext pour que le VAE puisse encoder sans distorsion. Laissez cela en place pour éviter l'étirement ou la dérive dans le résultat raffiné.
UNETLoader
(#140)Charge le FLUX UNet réglé par Kontext. Utilisez-le avec le LoRA pour le comportement prévu de FLUX Kontext Face Swap. Changer le point de contrôle modifiera sensiblement la texture de la peau et la fidélité globale.
LoraLoaderModelOnly
(#141)Applique Put it here LoRA pour localiser la reconstruction. Si l'échange dérive ou que les modifications débordent en dehors du visage, augmentez légèrement l'influence du LoRA. Si le look semble verrouillé, réduisez-le pour plus de liberté créative.
DualCLIPLoader
(#8) et CLIPTextEncode
(#6)Fournissent le conditionnement textuel. Gardez les invites courtes et ciblées sur la région du visage et l'expression. Évitez les indices de style global si vous voulez préserver l'arrière-plan et les vêtements de l'image de base.
FluxGuidance
(#5)Équilibre à quel point l'échantillonneur fait confiance au composite de référence. Augmentez-le pour préserver plus étroitement la composition de base, baissez-le pour des modifications plus fortes guidées par l'invite dans la zone du visage.
RunComfy est la première ComfyUI plateforme, offrant des ComfyUI en ligne environnement et services, ainsi que des workflows ComfyUI proposant des visuels époustouflants. RunComfy propose également AI Playground, permettant aux artistes d'utiliser les derniers outils d'IA pour créer des œuvres d'art incroyables.