logo
RunComfy
ComfyUIPlaygroundPricing
discord logo
ComfyUI>Workflows>AnimateLCM | Accélérer le texte en vidéo

AnimateLCM | Accélérer le texte en vidéo

Workflow Name: RunComfy/AnimateLCM
Workflow ID: 0000...1044
Ce flux de travail s'appuie sur le flux de travail AnimateDiff-Evolved en incorporant AnimateLCM via les nodes "Load AnimateLCM LoRA" et "Apply AnimateLCM Motion Model in AnimateDiff". Il rend la création d'effets d'animation personnalisés à la fois plus rapide et plus efficace.

1. Flux de travail ComfyUI AnimateLCM

Le flux de travail ComfyUI AnimateLCM est conçu pour améliorer les vitesses d'animation IA. S'appuyant sur les bases de ComfyUI-AnimateDiff-Evolved, ce flux de travail intègre AnimateLCM pour accélérer spécifiquement la création d'animations texte-vidéo (t2v). Vous pouvez expérimenter avec différentes invites et étapes pour obtenir les résultats souhaités.

2. Aperçu d'AnimateLCM

L'avènement de technologies comme SDXL, LCM et SDXL Turbo a considérablement accéléré le rythme de la génération d'images. AnimateLCM propulse encore plus le progrès de l'animation IA. Il prend en charge la génération rapide d'images en vidéo et vise à améliorer la vitesse et l'efficacité de la production de vidéos animées à partir d'images statiques ou de descriptions textuelles, ce qui le rend particulièrement utile pour créer rapidement des effets d'animation personnalisés.

2.1. Présentation d'AnimateLCM

AnimateLCM est conçu pour accélérer l'animation de modèles de diffusion et d'adaptateurs personnalisés grâce à l'apprentissage découplé de la cohérence. Il s'inspire du Consistency Model (CM), qui distille les modèles de diffusion d'images pré-entraînés pour accélérer le processus d'échantillonnage, et de son extension, le Latent Consistency Model (LCM), qui se concentre sur la génération d'images conditionnelles. AnimateLCM s'appuie sur ces fondements pour permettre la création de vidéos de haute fidélité en quelques étapes, en s'appuyant sur le succès des techniques de diffusion et de génération d'images pour étendre leurs capacités au domaine de la vidéo.

2.2. Comment utiliser AnimateLCM dans votre flux de travail ComfyUI

Ce flux de travail s'appuie sur le flux de travail ComfyUI-AnimateDiff-Evolved. Voici les paramètres de configuration du nœud "Use Evolved Sampling".

Flux de travail ComfyUI AnimateLCM

Models : Définissez le modèle de point de contrôle et le modèle LoRA.

  • Checkpoint : Il s'agit des entrées de modèle StableDiffusion (SD) utilisées pour la création d'animations. Selon les modèles de mouvement choisis, la compatibilité peut varier entre les versions SD, comme SD1.5 ou SDXL.
  • LoRA : Intégrez le modèle AnimateLCM LoRA pour intégrer de manière transparente les adaptateurs existants pour une variété de fonctions, améliorant l'efficacité et la qualité de sortie avec un accent sur l'apprentissage de la cohérence sans sacrifier la vitesse d'échantillonnage.

Motion Models (M Models) : Ce sont les sorties du processus Apply AnimateDiff Model, permettant l'utilisation du modèle de mouvement AnimateLCM.

Context Options : Ces paramètres ajustent le fonctionnement d'AnimateDiff pendant la production d'animations, permettant des animations de n'importe quelle longueur via des fenêtres contextuelles glissantes sur l'ensemble de l'Unet ou spécifiquement dans le module de mouvement. Ils permettent également des ajustements de synchronisation pour les séquences d'animation complexes. Consultez ce guide complet sur AnimateDiff pour plus d'informations.

Beta Schedule dans les paramètres d'échantillonnage : Optez pour LCM. Dans les paramètres d'échantillonnage d'AnimateDiff dans ComfyUI, la sélection "beta schedule", qui comprend des options comme "lcm", "lineart", etc., ajuste les valeurs bêta qui régulent les niveaux de bruit tout au long du processus de diffusion. Cette personnalisation affecte le style visuel et la fluidité de l'animation. Chaque paramètre répond à des besoins spécifiques d'animation ou de modèle de mouvement.

  • LCM (Latent Consistency Module) : Le paramètre "lcm" est adapté aux LoRA LCM, améliorant l'uniformité de l'animation et réduisant le temps de création. Il permet une convergence plus rapide avec moins d'étapes, nécessitant une réduction des étapes (à un minimum d'environ 4 étapes) et d'autres ajustements de paramètres pour une rétention optimale des détails.
  • Linear (AnimateDiff-SDXL) : Recommandé pour AnimateDiff avec les modules de mouvement SDXL, cette option offre un équilibre entre la préservation des détails et la fluidité du mouvement, indiquant une compatibilité avec des versions spécifiques de modèles de mouvement.
  • Sqrt_lineart (AnimateDiff) : Similaire à "lineart", cette variante est conçue pour les processus AnimateDiff, en particulier avec les modules de mouvement V2, modifiant les niveaux de bruit pour compléter la sortie du modèle de mouvement pour des transitions ou des mouvements plus fluides.

Want More ComfyUI Workflows?

AnimateDiff + IPAdapter V1 | Image vers Vidéo

Avec IPAdapter, vous pouvez efficacement contrôler la génération d'animations en utilisant des images de référence.

AnimateDiff + Batch Prompt Schedule | Texte à Vidéo

Utilisez Prompts Travel avec Animatediff pour un contrôle précis des images spécifiques dans l'animation.

Animatediff V2 & V3 | Texte à Vidéo

Explorez AnimateDiff V3, AnimateDiff SDXL et AnimateDiff V2, et utilisez Upscale pour des résultats haute résolution.

AnimateDiff + ControlNet TimeStep KeyFrame | Animation de morphing

Définissez des images clés ControlNet Timestep, telles que les premières et dernières images, pour créer des animations de morphing.

AnimateDiff + Planification par lots de prompts | Texte vers vidéo

La planification par lots de prompts avec AnimateDiff offre un contrôle précis sur la narration et les visuels dans la création d'animations.

IPAdapter Plus (V2) + AnimateLCM | Morph d'ipiv

Utilisez IPAdapter Plus, ControlNet QRCode et AnimateLCM pour créer des vidéos de morphing rapidement.

Wan 2.1 Fun | Contrôle du mouvement par trajectoire

Concevez des chemins de mouvement pour animer des photos fixes en vidéos.

Mochi Edit Suréchantillonnage | Vidéo-à-Vidéo

Mochi Edit : Modifiez des vidéos en utilisant des invites textuelles et le suréchantillonnage.

Suivez-nous
  • LinkedIn
  • Facebook
  • Instagram
  • Twitter
Support
  • Discord
  • Email
  • État du système
  • affilié
Ressources
  • ComfyUI en ligne gratuit
  • Guides ComfyUI
  • RunComfy API
  • Tutoriels ComfyUI
  • Nœuds ComfyUI
  • En savoir plus
Légal
  • Conditions d'utilisation
  • Politique de confidentialité
  • Politique relative aux cookies
RunComfy
Droits d'auteur 2025 RunComfy. Tous droits réservés.

RunComfy est la première ComfyUI plateforme, offrant des ComfyUI en ligne environnement et services, ainsi que des workflows ComfyUI proposant des visuels époustouflants. RunComfy propose également AI Playground, permettant aux artistes d'utiliser les derniers outils d'IA pour créer des œuvres d'art incroyables.