veo-3-1/reference-to-video
Transformez vos images en vidéos cinématiques fluides avec réalisme




Transformez vos images en vidéos cinématiques fluides avec réalisme
Créez des vidéos réalistes à partir de texte grâce à Luma Ray 2.
Personnalisez vos vidéos avec styles IA et effets LoRA modulables
Transformez vos images en vidéos fluides et réalistes avec Hailuo 02.
Transformez vos vidéos avec Hunyuan Video pour un rendu fluide et créatif.
Créez des vidéos fluides à partir de textes ou d’images avec IA
Hunyuan Video est un modèle open-source de génération vidéo par intelligence artificielle développé par Tencent, comportant 13 milliards de paramètres. Il transforme des descriptions textuelles détaillées en vidéos de haute qualité, offrant des transitions fluides, des coupes réalistes et des mouvements cohérents. Grâce à ces capacités, Hunyuan Video est parfait pour créer des récits visuels captivants.
Hunyuan Video s'utilise généralement via ComfyUI (ou des interfaces similaires) pour générer des vidéos à partir de texte (T2V) ou d’images (I2V). RunComfy propose plusieurs workflows comme le workflow Text-to-Video Hunyuan, le workflow Image-to-Video Hunyuan, le workflow Video-to-Video Hunyuan et les workflows Hunyuan LoRA.
Si vous ne souhaitez pas utiliser ComfyUI, vous pouvez directement accéder à Hunyuan Video via le RunComfy AI Playground, une interface simple sans aucune installation requise.
Vous pouvez essayer Hunyuan Video gratuitement sur le RunComfy AI Playground, où des crédits gratuits vous sont offerts pour découvrir les outils de Hunyuan Video ainsi que d'autres workflows et modèles d’intelligence artificielle.
La durée d'une vidéo Hunyuan dépend des paramètres « num_frames » et « frame rate », la formule étant : num_frames divisé par le frame rate. Par exemple, avec 85 images à 16 fps, la vidéo dure environ 5 secondes.
Pour obtenir une vidéo plus longue, augmentez la valeur de num_frames tout en gardant le frame rate constant, ou ajustez les deux pour un bon équilibre entre durée et fluidité. Gardez à l'esprit que les vidéos longues exigent plus de ressources et de VRAM.
Explorez les workflows dédiés à Hunyuan Video sur RunComfy, y compris Text-to-Video, Image-to-Video, Video-to-Video et les workflows LoRA.
La longueur maximale d'une vidéo générée avec Hunyuan Video est de 129 images. À 24 images par seconde, cela donne environ 5 secondes. En abaissant le frame rate à 16 fps, la durée maximale approche les 8 secondes.
1. Installation locale de Hunyuan Video :
2. Utilisation en ligne sur RunComfy AI Playground : Accédez à Hunyuan Video directement depuis le RunComfy AI Playground, sans installation.
3. Utilisation via ComfyUI sur RunComfy : Explorez les workflows prêts à l’emploi comme le Text-to-Video, Image-to-Video ou LoRA.
La quantité de VRAM nécessaire pour Hunyuan Video dépend des paramètres du modèle, de la résolution de sortie et de la durée de la vidéo. Un minimum de 10 à 12 Go de VRAM est requis pour les workflows basiques. Pour des performances fluides et une qualité optimale, notamment pour des vidéos plus longues, 16 Go ou plus sont recommandés.
Les fichiers Hunyuan LoRA doivent être placés dans le dossier dédié aux LoRA de votre installation. Avec ComfyUI ou Stable Diffusion, ce dossier est souvent situé dans “models/lora”. Grâce à cela, Hunyuan Video reconnaîtra automatiquement les fichiers lors de leur chargement.
Pour générer des vidéos de qualité avec Hunyuan Video, un bon prompt doit comporter :
Un prompt détaillé permet à Hunyuan AI de générer des vidéos qui correspondent parfaitement à votre intention créative.
SkyReels Hunyuan est une version spécialisée du modèle Hunyuan Video, optimisée pour des vidéos cinématographiques et stylisées. Entraînée à partir de plus de 10 millions de clips de films et séries, SkyReels produit des mouvements humains réalistes et des expressions faciales convaincantes. Découvrez SkyReels AI et testez ses capacités en ligne.
Hunyuan Video, orienté texte-vers-vidéo (T2V), a été enrichi par Tencent avec une extension image-vers-vidéo (I2V) : HunyuanVideo-I2V. Cette extension utilise une technique de remplacement de tokens permettant de reconstruire fidèlement les informations de l'image de référence durant la génération vidéo. Hunyuan Video peut ainsi animer efficacement des images fixes.
Consultez ce tutoriel détaillé pour utiliser Hunyuan I2V dans ComfyUI, et découvrez comment transformer vos images en séquences vidéo dynamiques grâce à Hunyuan Video.
Hunyuan-DiT est une variante de Hunyuan Video basée sur un transformeur diffusion (diffusion transformer), spécialisée dans la génération d’images à partir de texte. Il partage une base technologique commune avec Hunyuan Video et permet une fusion fluide des entrées textuelles ou visuelles dans des sorties vidéo cohérentes.
Oui, Hunyuan Video prend en charge la création de contenus 3D grâce aux outils basés sur Hunyuan3D-2.0. Ces modèles open-source de Tencent transforment textes et images en visuels 3D de haute qualité. Utilisez le workflow Hunyuan3D-2 via ComfyUI pour générer facilement des contenus 3D à partir d’images.
Vous pouvez installer Hunyuan3D-2 localement en téléchargeant les fichiers du modèle et le workflow JSON depuis les sources officielles de Tencent, puis en les plaçant dans les répertoires adéquats. Vérifiez que ComfyUI est à jour, installez les nodes personnalisés nécessaires via ComfyUI Manager, puis redémarrez ComfyUI.
Autrement, testez directement Hunyuan3D-2 sur RunComfy, une solution en ligne tout-en-un, idéale pour créer du contenu 3D sans installation.
Pour utiliser Hunyuan Video en local, téléchargez les poids officiels du modèle depuis le GitHub de Tencent et intégrez-les à votre environnement ComfyUI. Si vous êtes sur MacBook, assurez-vous que votre matériel et vos logiciels sont compatibles avec les exigences du modèle.
Sinon, lancez Hunyuan Video sans installation via le RunComfy AI Playground, qui vous donne accès aux outils Hunyuan et à d'autres modèles puissants.
Le wrapper Hunyuan Video est un node ComfyUI développé par kijai, permettant l’intégration transparente du modèle Hunyuan Video dans ComfyUI. Pour créer des vidéos avec ce wrapper, explorez les workflows disponibles : Text-to-Video, Image-to-Video, Video-to-Video et LoRA.
Pour explorer Hunyuan Video dans ComfyUI, choisissez l’un des workflows préconfigurés qui inclut des guides détaillés. Voici quelques workflows à découvrir :