logo
RunComfy
ComfyUIPlaygroundPricing
discord logo
ComfyUI>Workflows>IDM-VTON | Essayage Virtuel

IDM-VTON | Essayage Virtuel

Workflow Name: RunComfy/IDM-VTON
Workflow ID: 0000...1135
IDM-VTON, ou Amélioration des Modèles de Diffusion pour un Essayage Virtuel Authentique en Extérieur, est un modèle de diffusion révolutionnaire qui permet un essayage virtuel réaliste de vêtements. En préservant les détails uniques et l'identité des vêtements, IDM-VTON génère des résultats incroyablement authentiques. Le modèle utilise un adaptateur de prompt d'image (IP-Adapter) pour extraire les sémantiques de haut niveau des vêtements et un UNet parallèle (GarmentNet) pour encoder les caractéristiques de bas niveau. Dans ComfyUI, le nœud IDM-VTON alimente le processus d'essayage virtuel, nécessitant des entrées telles qu'une image humaine, une représentation de pose, un masque de vêtement et une image de vêtement.

IDM-VTON, abréviation de "Amélioration des Modèles de Diffusion pour un Essayage Virtuel Authentique en Extérieur," est un modèle de diffusion innovant qui vous permet d'essayer virtuellement des vêtements de manière réaliste en utilisant seulement quelques entrées. Ce qui distingue IDM-VTON, c'est sa capacité à préserver les détails uniques et l'identité des vêtements tout en générant des résultats d'essayage virtuel qui semblent incroyablement authentiques.

1. Comprendre IDM-VTON

Au cœur de IDM-VTON se trouve un modèle de diffusion spécialement conçu pour l'essayage virtuel. Pour l'utiliser, vous avez simplement besoin d'une représentation d'une personne et d'un vêtement que vous souhaitez essayer. IDM-VTON fait ensuite sa magie, en rendant un résultat qui semble que la personne porte réellement le vêtement. Il atteint un niveau de fidélité et d'authenticité du vêtement qui dépasse les méthodes d'essayage virtuel basées sur la diffusion précédentes.

2. Le Fonctionnement Interne de IDM-VTON

Alors, comment IDM-VTON parvient-il à un essayage virtuel aussi réaliste ? Le secret réside dans ses deux modules principaux qui travaillent ensemble pour encoder les sémantiques de l'entrée du vêtement :

  1. Le premier est un adaptateur de prompt d'image, ou IP-Adapter pour faire court. Ce composant ingénieux extrait les sémantiques de haut niveau du vêtement - essentiellement, les caractéristiques clés qui définissent son apparence. Il fusionne ensuite ces informations dans la couche d'attention croisée du modèle de diffusion principal UNet.
  2. Le second module est un UNet parallèle appelé GarmentNet. Son rôle est d'encoder les caractéristiques de bas niveau du vêtement - les détails précis qui le rendent unique. Ces caractéristiques sont ensuite fusionnées dans la couche d'auto-attention du UNet principal.

Mais ce n'est pas tout ! IDM-VTON utilise également des prompts textuels détaillés pour les entrées du vêtement et de la personne. Ces prompts fournissent un contexte supplémentaire qui améliore l'authenticité du résultat final de l'essayage virtuel.

3. Mettre IDM-VTON en Action dans ComfyUI

3.1 La Vedette : Le Nœud IDM-VTON

Dans ComfyUI, le "nœud IDM-VTON" est la centrale qui exécute le modèle de diffusion IDM-VTON et génère la sortie de l'essayage virtuel.

Pour que le nœud IDM-VTON fasse sa magie, il a besoin de quelques entrées clés :

  1. Pipeline : Il s'agit du pipeline de diffusion IDM-VTON chargé qui alimente l'ensemble du processus d'essayage virtuel.
  2. Entrée Humaine : Une image de la personne qui va essayer virtuellement le vêtement.
  3. Entrée de Pose : Une représentation DensePose prétraitée de l'entrée humaine, qui aide IDM-VTON à comprendre la pose et la forme du corps de la personne.
  4. Entrée de Masque : Un masque binaire qui indique quelles parties de l'entrée humaine sont des vêtements. Ce masque doit être converti dans un format approprié.
  5. Entrée de Vêtement : Une image du vêtement à essayer virtuellement.

3.2 Tout Préparer

Pour mettre le nœud IDM-VTON en marche, il y a quelques étapes de préparation :

  1. Chargement de l'Image Humaine : Un nœud LoadImage est utilisé pour charger l'image de la personne. IDM-VTON
  2. Génération de l'Image de Pose : L'image humaine est passée à travers un nœud DensePosePreprocessor, qui calcule la représentation DensePose dont IDM-VTON a besoin. IDM-VTON
  3. Obtention de l'Image de Masque : Il y a deux façons d'obtenir le masque de vêtement : IDM-VTON

a. Masquage Manuel (Recommandé)

  • Faites un clic droit sur l'image humaine chargée et choisissez "Ouvrir dans l'Éditeur de Masque."
  • Dans l'interface de l'éditeur de masque, masquez manuellement les régions de vêtements.

b. Masquage Automatique

  • Utilisez un nœud GroundingDinoSAMSegment pour segmenter automatiquement le vêtement.
  • Proposez au nœud une description textuelle du vêtement (comme "t-shirt").

Quelle que soit la méthode choisie, le masque obtenu doit être converti en image à l'aide d'un nœud MaskToImage, qui est ensuite connecté à l'entrée "Image de Masque" du nœud IDM-VTON.

  1. Chargement de l'Image de Vêtement : Elle est utilisée pour charger l'image du vêtement.
IDM-VTON

Pour une exploration plus approfondie du modèle IDM-VTON, ne manquez pas l'article original, "Improving Diffusion Models for Authentic Virtual Try-on in the Wild". Et si vous êtes intéressé par l'utilisation de IDM-VTON dans ComfyUI, assurez-vous de consulter les nœuds dédiés ici. Un immense merci aux chercheurs et développeurs derrière ces ressources incroyables.

Want More ComfyUI Workflows?

Hunyuan Vidéo | Vidéo à Vidéo

Combinez une invite texte et une vidéo source pour générer une nouvelle vidéo.

CogVideoX-5B | Modèle Avancé de Texte en Vidéo

CogVideoX-5B : Modèle avancé de texte en vidéo pour la génération de vidéos de haute qualité.

ByteDance USO | Générateur de style et de sujet unifié

ByteDance USO rend la fusion de sujet et de style simple et puissante.

ReActor | Échange rapide de visages

Avec ComfyUI ReActor, vous pouvez facilement échanger les visages d'un ou plusieurs personnages dans des images ou des vidéos.

Dilation de Masque Audioreactif | Animations Impressionnantes

Transformez vos sujets et donnez-leur des auras pulsantes, entraînées par la musique, qui dansent au rythme.

Transformation de Vidéo de Danse | Personnalisation de Scène & Échange de Visage

Transformez des vidéos de danse avec l'édition de scènes, l'échange de visage et la préservation du mouvement.

Transfert de Style Cohérent avec Unsampling

Le contrôle du bruit latent avec l'Unsampling aide à augmenter de manière spectaculaire la cohérence dans le transfert de style vidéo.

Flux Kontext 360 Degree LoRA

Générez des images immersives de style 360 avec profondeur et contrôle spatial.

Suivez-nous
  • LinkedIn
  • Facebook
  • Instagram
  • Twitter
Support
  • Discord
  • Email
  • État du système
  • affilié
Ressources
  • ComfyUI en ligne gratuit
  • Guides ComfyUI
  • RunComfy API
  • Tutoriels ComfyUI
  • Nœuds ComfyUI
  • En savoir plus
Légal
  • Conditions d'utilisation
  • Politique de confidentialité
  • Politique relative aux cookies
RunComfy
Droits d'auteur 2025 RunComfy. Tous droits réservés.

RunComfy est la première ComfyUI plateforme, offrant des ComfyUI en ligne environnement et services, ainsi que des workflows ComfyUI proposant des visuels époustouflants. RunComfy propose également AI Playground, permettant aux artistes d'utiliser les derniers outils d'IA pour créer des œuvres d'art incroyables.