logo
RunComfy
ComfyUIPlaygroundPricing
discord logo
ComfyUI>Workflows>IDM-VTON | Essayage Virtuel

IDM-VTON | Essayage Virtuel

Workflow Name: RunComfy/IDM-VTON
Workflow ID: 0000...1135
IDM-VTON, ou Amélioration des Modèles de Diffusion pour un Essayage Virtuel Authentique en Extérieur, est un modèle de diffusion révolutionnaire qui permet un essayage virtuel réaliste de vêtements. En préservant les détails uniques et l'identité des vêtements, IDM-VTON génère des résultats incroyablement authentiques. Le modèle utilise un adaptateur de prompt d'image (IP-Adapter) pour extraire les sémantiques de haut niveau des vêtements et un UNet parallèle (GarmentNet) pour encoder les caractéristiques de bas niveau. Dans ComfyUI, le nœud IDM-VTON alimente le processus d'essayage virtuel, nécessitant des entrées telles qu'une image humaine, une représentation de pose, un masque de vêtement et une image de vêtement.

IDM-VTON, abréviation de "Amélioration des Modèles de Diffusion pour un Essayage Virtuel Authentique en Extérieur," est un modèle de diffusion innovant qui vous permet d'essayer virtuellement des vêtements de manière réaliste en utilisant seulement quelques entrées. Ce qui distingue IDM-VTON, c'est sa capacité à préserver les détails uniques et l'identité des vêtements tout en générant des résultats d'essayage virtuel qui semblent incroyablement authentiques.

1. Comprendre IDM-VTON

Au cœur de IDM-VTON se trouve un modèle de diffusion spécialement conçu pour l'essayage virtuel. Pour l'utiliser, vous avez simplement besoin d'une représentation d'une personne et d'un vêtement que vous souhaitez essayer. IDM-VTON fait ensuite sa magie, en rendant un résultat qui semble que la personne porte réellement le vêtement. Il atteint un niveau de fidélité et d'authenticité du vêtement qui dépasse les méthodes d'essayage virtuel basées sur la diffusion précédentes.

2. Le Fonctionnement Interne de IDM-VTON

Alors, comment IDM-VTON parvient-il à un essayage virtuel aussi réaliste ? Le secret réside dans ses deux modules principaux qui travaillent ensemble pour encoder les sémantiques de l'entrée du vêtement :

  1. Le premier est un adaptateur de prompt d'image, ou IP-Adapter pour faire court. Ce composant ingénieux extrait les sémantiques de haut niveau du vêtement - essentiellement, les caractéristiques clés qui définissent son apparence. Il fusionne ensuite ces informations dans la couche d'attention croisée du modèle de diffusion principal UNet.
  2. Le second module est un UNet parallèle appelé GarmentNet. Son rôle est d'encoder les caractéristiques de bas niveau du vêtement - les détails précis qui le rendent unique. Ces caractéristiques sont ensuite fusionnées dans la couche d'auto-attention du UNet principal.

Mais ce n'est pas tout ! IDM-VTON utilise également des prompts textuels détaillés pour les entrées du vêtement et de la personne. Ces prompts fournissent un contexte supplémentaire qui améliore l'authenticité du résultat final de l'essayage virtuel.

3. Mettre IDM-VTON en Action dans ComfyUI

3.1 La Vedette : Le Nœud IDM-VTON

Dans ComfyUI, le "nœud IDM-VTON" est la centrale qui exécute le modèle de diffusion IDM-VTON et génère la sortie de l'essayage virtuel.

Pour que le nœud IDM-VTON fasse sa magie, il a besoin de quelques entrées clés :

  1. Pipeline : Il s'agit du pipeline de diffusion IDM-VTON chargé qui alimente l'ensemble du processus d'essayage virtuel.
  2. Entrée Humaine : Une image de la personne qui va essayer virtuellement le vêtement.
  3. Entrée de Pose : Une représentation DensePose prétraitée de l'entrée humaine, qui aide IDM-VTON à comprendre la pose et la forme du corps de la personne.
  4. Entrée de Masque : Un masque binaire qui indique quelles parties de l'entrée humaine sont des vêtements. Ce masque doit être converti dans un format approprié.
  5. Entrée de Vêtement : Une image du vêtement à essayer virtuellement.

3.2 Tout Préparer

Pour mettre le nœud IDM-VTON en marche, il y a quelques étapes de préparation :

  1. Chargement de l'Image Humaine : Un nœud LoadImage est utilisé pour charger l'image de la personne. IDM-VTON
  2. Génération de l'Image de Pose : L'image humaine est passée à travers un nœud DensePosePreprocessor, qui calcule la représentation DensePose dont IDM-VTON a besoin. IDM-VTON
  3. Obtention de l'Image de Masque : Il y a deux façons d'obtenir le masque de vêtement : IDM-VTON

a. Masquage Manuel (Recommandé)

  • Faites un clic droit sur l'image humaine chargée et choisissez "Ouvrir dans l'Éditeur de Masque."
  • Dans l'interface de l'éditeur de masque, masquez manuellement les régions de vêtements.

b. Masquage Automatique

  • Utilisez un nœud GroundingDinoSAMSegment pour segmenter automatiquement le vêtement.
  • Proposez au nœud une description textuelle du vêtement (comme "t-shirt").

Quelle que soit la méthode choisie, le masque obtenu doit être converti en image à l'aide d'un nœud MaskToImage, qui est ensuite connecté à l'entrée "Image de Masque" du nœud IDM-VTON.

  1. Chargement de l'Image de Vêtement : Elle est utilisée pour charger l'image du vêtement.
IDM-VTON

Pour une exploration plus approfondie du modèle IDM-VTON, ne manquez pas l'article original, "Improving Diffusion Models for Authentic Virtual Try-on in the Wild". Et si vous êtes intéressé par l'utilisation de IDM-VTON dans ComfyUI, assurez-vous de consulter les nœuds dédiés ici. Un immense merci aux chercheurs et développeurs derrière ces ressources incroyables.

Want More ComfyUI Workflows?

Flux TTP Upscale | Restauration de Visages 4K

Réparez les visages déformés et augmentez la résolution des images à 4K.

Animatediff V2 & V3 | Texte à Vidéo

Explorez AnimateDiff V3, AnimateDiff SDXL et AnimateDiff V2, et utilisez Upscale pour des résultats haute résolution.

ComfyUI Grounding | Workflow de Suivi d'Objets

Suivez n'importe quel sujet avec une précision au pixel près pour des résultats VFX époustouflants.

Linear Mask Dilation | Animations Éblouissantes

Transformez vos sujets et faites-les voyager à travers différentes scènes sans accroc.

IPAdapter Plus (V2) | Transfert de style avec une seule image

IPAdapter Plus (V2) | Transfert de style avec une seule image

Utilisez IPAdapter Plus et ControlNet pour un transfert de style précis avec une seule image de référence.

Stable Fast 3D | ComfyUI 3D Pack

Créez un contenu 3D époustouflant avec Stable Fast 3D et ComfyUI 3D Pack.

IPAdapter Plus (V2) | Style et Composition

IPAdapter Plus (V2) | Style et Composition

IPAdapter Plus permet un transfert efficace de style et de composition, fonctionnant comme un LoRA à 1 image.

Portrait Fantastique | Animation de Photo Expressive

Photo → animation de visage cinématographique expressive, rapide et précise en termes d'identité.

Suivez-nous
  • LinkedIn
  • Facebook
  • Instagram
  • Twitter
Support
  • Discord
  • Email
  • État du système
  • affilié
Ressources
  • ComfyUI en ligne gratuit
  • Guides ComfyUI
  • RunComfy API
  • Tutoriels ComfyUI
  • Nœuds ComfyUI
  • En savoir plus
Légal
  • Conditions d'utilisation
  • Politique de confidentialité
  • Politique relative aux cookies
RunComfy
Droits d'auteur 2025 RunComfy. Tous droits réservés.

RunComfy est la première ComfyUI plateforme, offrant des ComfyUI en ligne environnement et services, ainsi que des workflows ComfyUI proposant des visuels époustouflants. RunComfy propose également AI Playground, permettant aux artistes d'utiliser les derniers outils d'IA pour créer des œuvres d'art incroyables.