logo
RunComfy
ComfyUIPlaygroundPricing
discord logo
ComfyUI>Workflows>Character AI Ovi | Générateur d'Avatar Parlant

Character AI Ovi | Générateur d'Avatar Parlant

Workflow Name: RunComfy/Character-AI-Ovi
Workflow ID: 0000...1298
Avec ce workflow audiovisuel intelligent, vous pouvez transformer n'importe quel portrait en un avatar parlant captivant. Conçu pour les créateurs numériques et les conteurs, il ne nécessite qu'une seule image pour produire une animation expressive avec une voix en temps réel et des lèvres qui correspondent parfaitement. Le système combine la conversion photo-vidéo et la synthèse vocale en une seule étape, vous offrant un réalisme de niveau cinématographique. Son intégration facilite la création rapide de clips axés sur les personnages pour le contenu, le marketing ou les projets créatifs, sans configuration technique. Vous pouvez obtenir des mouvements détaillés et une personnalité engageante avec chaque scène générée.

Character AI Ovi : image en vidéo avec discours synchronisé dans ComfyUI

Character AI Ovi est un workflow de génération audiovisuelle qui transforme une seule image en un personnage parlant et mouvant avec un son coordonné. Basé sur la famille de modèles Wan et intégré via le WanVideoWrapper, il génère vidéo et audio en une seule passe, offrant une animation expressive, une synchronisation labiale intelligible et une ambiance contextuelle. Si vous créez des histoires courtes, des hôtes virtuels ou des clips sociaux cinématographiques, Character AI Ovi vous permet de passer de l'art statique à une performance complète en quelques minutes.

Ce workflow ComfyUI accepte une image plus une invite textuelle contenant un balisage léger pour le discours et la conception sonore. Il compose les images et les formes d'onde ensemble pour que la bouche, le rythme et l'audio de la scène semblent naturellement alignés. Character AI Ovi est conçu pour les créateurs qui souhaitent des résultats soignés sans assembler des outils TTS et vidéo séparés.

Modèles clés dans le workflow Comfyui Character AI Ovi

  • Ovi : Twin Backbone Cross-Modal Fusion for Audio-Video Generation. Le modèle central qui produit conjointement vidéo et audio à partir d'invites texte ou texte+image. character-ai/Ovi
  • Wan 2.2 vidéo backbone et VAE. Le workflow utilise le VAE vidéo haute compression de Wan pour une génération efficace en 720p, 24 fps tout en préservant les détails et la cohérence temporelle. Wan-AI/Wan2.2-TI2V-5B-Diffusers • Wan-Video/Wan2.2
  • Google UMT5-XXL encodeur de texte. Encode l'invite, y compris les balises de discours, en riches embeddings multilingues qui animent les deux branches. google/umt5-xxl
  • MMAudio VAE avec BigVGAN vocoder. Décode les latents audio du modèle en discours et effets de haute qualité avec un timbre naturel. hkchengrex/MMAudio • nvidia/bigvgan_v2_44khz_128band_512x
  • Poids Ovi prêts pour ComfyUI par Kijai. Points de contrôle sélectionnés pour la branche vidéo, la branche audio et le VAE en variantes scalées bf16 et fp8. Kijai/WanVideo_comfy/Ovi • Kijai/WanVideo_comfy_fp8_scaled/TI2V/Ovi
  • Nœuds WanVideoWrapper pour ComfyUI. Wrapper qui expose les fonctionnalités Wan et Ovi en tant que nœuds composables. kijai/ComfyUI-WanVideoWrapper

Comment utiliser le workflow Comfyui Character AI Ovi

Ce workflow suit un chemin simple : encodez votre invite et votre image, chargez les points de contrôle Ovi, échantillonnez les latents audio+vidéo conjoints, puis décodez et multiplexez en MP4. Les sous-sections ci-dessous correspondent aux clusters de nœuds visibles pour que vous sachiez où interagir et quels changements affectent les résultats.

Rédaction d'invites pour le discours et le son

Écrivez une invite positive pour la scène et la ligne de discours. Utilisez les balises Ovi exactement comme montré : entourez les mots à prononcer avec <S> et <E>, et décrivez éventuellement l'audio non-verbal avec <AUDCAP> et <ENDAUDCAP>. La même invite positive conditionne à la fois les branches vidéo et audio pour que le mouvement des lèvres et le timing soient alignés. Vous pouvez utiliser différentes invites négatives pour la vidéo et l'audio pour supprimer les artefacts indépendamment. Character AI Ovi répond bien à des instructions scéniques concises plus une seule ligne de dialogue claire.

Ingérer et conditionner l'image

Chargez un seul portrait ou une image de personnage, puis le workflow redimensionne et encode en latents. Cela établit l'identité, la pose et le cadrage initial pour l'échantillonneur. La largeur et la hauteur de l'étape de redimensionnement définissent le format vidéo ; choisissez carré pour les avatars ou vertical pour les courts métrages. Les latents encodés et les embeddings dérivés de l'image guident l'échantillonneur pour que le mouvement semble ancré au visage d'origine.

Chargement de modèles et aides à la performance

Character AI Ovi charge trois éléments essentiels : le modèle vidéo Ovi, le VAE Wan 2.2 pour les images, et le VAE MMAudio plus BigVGAN pour l'audio. La compilation Torch et un cache léger sont inclus pour accélérer les démarrages à chaud. Un assistant d'échange de blocs est intégré pour réduire l'utilisation de la VRAM en déchargeant les blocs de transformateurs si nécessaire. Si vous êtes limité en VRAM, augmentez le déchargement de blocs dans le nœud d'échange de blocs et gardez le cache activé pour les exécutions répétées.

Échantillonnage conjoint avec guidage

L'échantillonneur exécute les doubles backbones d'Ovi ensemble pour que la bande-son et les images co-évoluent. Un assistant de guidage de couche de saut améliore la stabilité et le détail sans sacrifier le mouvement. Le workflow route également vos embeddings textuels originaux via un mélangeur CFG spécifique à Ovi pour que vous puissiez incliner l'équilibre entre l'adhérence stricte à l'invite et l'animation plus libre. Character AI Ovi a tendance à produire le meilleur mouvement des lèvres lorsque la ligne prononcée est courte, littérale et uniquement encadrée par les balises <S> et <E>.

Décodage, aperçu et exportation

Après l'échantillonnage, les latents vidéo sont décodés via le VAE Wan tandis que les latents audio sont décodés via MMAudio avec BigVGAN. Un combinateur vidéo multiplexe les images et l'audio en un MP4 à 24 fps, prêt à être partagé. Vous pouvez également prévisualiser l'audio directement pour vérifier l'intelligibilité du discours avant de sauvegarder. Le chemin par défaut de Character AI Ovi vise 5 secondes ; étendez prudemment pour garder les lèvres et le rythme synchronisés.

Nœuds clés dans le workflow Comfyui Character AI Ovi

  • WanVideoTextEncodeCached (#85)
    Encode l'invite positive principale et l'invite négative vidéo en embeddings utilisés par les deux branches. Gardez le dialogue à l'intérieur de <S>…<E> et placez la conception sonore à l'intérieur de <AUDCAP>…<ENDAUDCAP>. Pour un meilleur alignement, évitez plusieurs phrases dans une balise de discours et gardez la ligne concise.

  • WanVideoTextEncodeCached (#96)
    Fournit un embedding de texte négatif dédié pour l'audio. Utilisez-le pour supprimer les artefacts tels que le ton robotique ou une réverbération lourde sans affecter les visuels. Commencez par des descripteurs courts et développez seulement si vous entendez toujours le problème.

  • WanVideoOviCFG (#94)
    Mélange les embeddings textuels originaux avec les négatifs spécifiques à l'audio via un guidage sans classeur conscient d'Ovi. Augmentez-le lorsque le contenu du discours dérive de la ligne écrite ou que les mouvements des lèvres semblent décalés. Abaissez-le légèrement si le mouvement devient rigide ou trop contraint.

  • WanVideoSampler (#80)
    Le cœur de Character AI Ovi. Il consomme les embeddings d'image, les embeddings textuels conjoints et le guidage optionnel pour échantillonner un latent unique contenant à la fois vidéo et audio. Plus d'étapes augmentent la fidélité mais aussi le temps d'exécution. Si vous constatez une pression mémoire ou des blocages, associez un échange de blocs plus élevé avec le cache activé, et envisagez de désactiver la compilation torch pour un dépannage rapide.

  • WanVideoEmptyMMAudioLatents (#125)
    Initialise la chronologie des latents audio. La longueur par défaut est réglée pour un clip de 121 images à 24 fps. Ajuster cela pour changer la durée est expérimental ; changez-le uniquement si vous comprenez comment il doit suivre le nombre d'images.

  • VHS_VideoCombine (#88)
    Multiplexe les images décodées et l'audio en MP4. Réglez le taux de trame pour correspondre à votre cible d'échantillonnage et activez la découpe-à-l'audio si vous voulez que la coupe finale suive la forme d'onde générée. Utilisez le contrôle CRF pour équilibrer la taille du fichier et la qualité.

Extras optionnels

  • Utilisez bf16 pour la vidéo Ovi et le VAE Wan 2.2. Si vous rencontrez des images noires, passez à la précision de base bf16 pour les chargeurs de modèles et l'encodeur de texte.
  • Gardez les discours courts. Character AI Ovi synchronise les lèvres de manière plus fiable avec un dialogue court et d'une seule phrase à l'intérieur de <S> et <E>.
  • Séparez les négatifs. Mettez les artefacts visuels dans l'invite négative vidéo et les artefacts tonaux dans l'invite négative audio pour éviter les compromis involontaires.
  • Prévisualisez d'abord. Utilisez la prévisualisation audio pour confirmer la clarté et le rythme avant d'exporter le MP4 final.
  • Obtenez les poids exacts utilisés. Le workflow s'attend aux points de contrôle vidéo et audio Ovi plus le VAE Wan 2.2 à partir des miroirs de modèles de Kijai. WanVideo_comfy/Ovi • WanVideo_comfy_fp8_scaled/TI2V/Ovi

Avec ces éléments en place, Character AI Ovi devient un pipeline compact et convivial pour les créateurs, pour des avatars parlants expressifs et des scènes narratives qui sonnent aussi bien qu'elles ne paraissent.

Remerciements

Ce workflow implémente et s'appuie sur les travaux et ressources suivants. Nous remercions chaleureusement kijai et Character AI pour Ovi pour leurs contributions et leur maintenance. Pour des détails autoritaires, veuillez vous référer à la documentation et aux dépôts d'origine liés ci-dessous.

Ressources

  • Source Character AI Ovi
    • Workflow: wanvideo_2_2_5B_ovi_testing @kijai
    • Github: character-ai/Ovi

Note : L'utilisation des modèles, ensembles de données et codes référencés est soumise aux licences et conditions respectives fournies par leurs auteurs et mainteneurs.

Want More ComfyUI Workflows?

Hallo2 | Animation de portrait synchronisée sur les lèvres

Synchronisation labiale pilotée par audio pour l'animation de portrait en 4K.

EchoMimic | Animations de Portraits Dirigées par l'Audio

Générez des têtes parlantes réalistes et des gestes corporels synchronisés avec l'audio fourni.

LivePortrait | Animer des Portraits | Img2Vid

Animez des portraits avec des expressions faciales et des mouvements en utilisant une seule image et une vidéo de référence.

Qwen-Image | Générateur d'Affiches Multi-Texte HD

Qwen-Image | Générateur d'Affiches Multi-Texte HD

Nouvelle ère de génération de texte dans les images !

Wan 2.1 Fun | I2V + T2V

Renforcez vos vidéos IA avec Wan 2.1 Fun.

ComfyUI Vid2Vid Dance Transfer

Transfère le mouvement et le style d'une vidéo source vers une image ou un objet cible.

Segment Anything V2 (SAM2) | Segmentation Vidéo

Segmentation d'objets dans les vidéos avec une précision inégalée.

Créateur de Personnages Consistants 3.0 | Cohérence Facile, Tous les Angles

Faites en sorte que les personnages restent les mêmes, sous tous les angles, forts et parfaits.

Suivez-nous
  • LinkedIn
  • Facebook
  • Instagram
  • Twitter
Support
  • Discord
  • Email
  • État du système
  • affilié
Ressources
  • ComfyUI en ligne gratuit
  • Guides ComfyUI
  • RunComfy API
  • Tutoriels ComfyUI
  • Nœuds ComfyUI
  • En savoir plus
Légal
  • Conditions d'utilisation
  • Politique de confidentialité
  • Politique relative aux cookies
RunComfy
Droits d'auteur 2025 RunComfy. Tous droits réservés.

RunComfy est la première ComfyUI plateforme, offrant des ComfyUI en ligne environnement et services, ainsi que des workflows ComfyUI proposant des visuels époustouflants. RunComfy propose également AI Playground, permettant aux artistes d'utiliser les derniers outils d'IA pour créer des œuvres d'art incroyables.