Hunyuan Video
Video Model
Text to Video
Image to Video
Hunyuan Video 소개 및 기능 개요
Hunyuan Video는 텐센트가 2024년 12월에 공개한 오픈소스 AI 모델로, 텍스트 프롬프트를 기반으로 고화질 영상을 생성하는 기술입니다. 공간-시간 압축 기술과 AI 기반 장면 전환 기능을 통해 다채롭고 일관된 영상 콘텐츠를 만들어냅니다. Hunyuan Video는 창작자, 마케터, 콘텐츠 제작자를 위해 설계된 텍스트-투-비디오 AI 도구입니다. 정교한 문장을 입력하면 시네마틱한 영상으로 자동 변환되며, 부드러운 장면 전환과 자연스러운 카메라 무빙을 통해 몰입감 있는 시각적 스토리텔링을 구현합니다.
Hunyuan Video의 주요 기능과 활용 사례



Frequently Asked Questions
Hunyuan Video가 무엇인가요? 이 모델로 무엇을 할 수 있나요?
Hunyuan Video는 텐센트에서 개발한 오픈소스 AI 비디오 생성 모델로, 약 130억 개의 파라미터를 통해 정교한 텍스트 프롬프트를 고품질 비디오로 변환합니다. 장면 전환이 자연스럽고 모션의 일관성도 뛰어나며, 사실적인 컷 편집까지 표현할 수 있어 매력적인 시각적인 스토리텔링에 최적화되어 있습니다.
Hunyuan Video는 어떻게 사용할 수 있나요?
Hunyuan Video는 일반적으로 ComfyUI 같은 인터페이스를 통해 텍스트 기반(T2V) 또는 이미지 기반(I2V) 비디오를 생성하는 데 사용됩니다. RunComfy에서는 Hunyuan Text-to-Video 워크플로우, Hunyuan Image-to-Video 워크플로우, Hunyuan Video-to-Video 워크플로우, Hunyuan LoRA 워크플로우 등을 제공해 쉽게 비디오를 제작할 수 있습니다. ComfyUI를 사용하지 않는 경우에도 RunComfy AI Playground를 통해 별도 설치 없이 간단하게 Hunyuan Video를 체험할 수 있습니다.
Hunyuan Video를 무료로 사용해볼 수 있는 곳이 있나요?
RunComfy AI Playground에서는 별도의 설치 없이 Hunyuan Video를 무료로 체험할 수 있으며, 무료 크레딧도 제공되므로 다양한 워크플로우와 모델을 자유롭게 실험해 볼 수 있습니다.
ComfyUI에서 Hunyuan Video의 비디오 길이를 늘리려면 어떻게 해야 하나요?
Hunyuan Video에서 비디오 길이는 'num_frames(프레임 수)'와 'frame rate(프레임 속도)'로 결정되며, 예를 들어 num_frames가 85이고 frame rate가 16fps라면 약 5초 분량의 영상이 생성됩니다. 더 긴 비디오를 만들고 싶다면 num_frames 값을 늘리고, 필요에 따라 frame rate를 조정해 부드러움과 길이의 균형을 맞출 수 있습니다. 단, 프레임 수가 많아질수록 높은 VRAM 등 시스템 자원이 더 필요합니다. RunComfy에서는 다양한 Hunyuan Video 워크플로우를 제공하니, 원하는 설정에 맞게 조절해 보세요.
Hunyuan Video로 만들 수 있는 최대 영상 길이는 어느 정도인가요?
Hunyuan Video는 최대 129프레임까지 생성 가능하며, 프레임 속도가 24fps일 경우 약 5초, 속도를 16fps로 낮추면 최대 약 8초까지 확장할 수 있습니다. 비디오의 용도에 따라 프레임 속도와 프레임 수를 조절해 최적의 결과물을 생성할 수 있습니다.
Hunyuan Video는 어떻게 설치하나요?
1. 로컬 설치 방법 ① 최신 버전의 ComfyUI를 설치하거나 업데이트하세요. ② Tencent GitHub 또는 Hugging Face에서 필요한 모델 파일(디퓨전 모델, 텍스트 인코더, VAE)을 다운로드합니다. ③ 다운로드한 파일을 설치 가이드에 따라 정확한 경로에 배치합니다. ④ Hunyuan Video용 워크플로우 JSON 파일을 받아 ComfyUI에 불러오기 합니다. ⑤ 필요한 경우, 누락된 커스텀 노드를 ComfyUI Manager로 설치하세요. ⑥ ComfyUI를 재시작하고 테스트 비디오를 생성하여 설정을 확인합니다.
2. 온라인에서 사용하는 방법 (RunComfy Playground) RunComfy AI Playground에서 별도 설치 없이 즉시 Hunyuan Video를 사용할 수 있습니다.
3. ComfyUI 워크플로우를 통한 사용 다양한 Hunyuan Video 워크플로우들이 준비되어 있으며, 다음 링크에서 선택하여 사용해 보세요:
Hunyuan Video 모델을 원활히 돌리려면 VRAM이 얼마나 필요할까요?
Hunyuan Video는 설정에 따라 요구하는 VRAM 용량이 달라집니다. 기본적인 비디오 생성 작업에는 최소 10~12GB의 VRAM이 필요하며, 부드럽고 고화질의 더 긴 영상을 생성하려면 16GB 이상의 VRAM을 권장합니다. 프레임 수나 품질 설정에 따라 실제 요구 용량은 달라질 수 있으니 참고하세요.
Hunyuan LoRA는 어디에 설치해야 하나요?
Hunyuan Video에서 사용하는 LoRA 파일은 보통 설치한 시스템의 모델 디렉터리 내 'lora' 폴더에 넣어야 됩니다 (예: models/lora). 이를 정확한 위치에 배치해두면 ComfyUI나 Stable Diffusion에서 자동으로 인식되어 쉽게 사용할 수 있습니다.
Hunyuan AI를 위한 프롬프트는 어떻게 작성해야 하나요?
Hunyuan Video로 고품질 비디오를 생성하려면 프롬프트 구성이 매우 중요합니다. 다음 요소들을 포함해서 프롬프트를 작성해보세요:
- 주제: 영상의 메인 대상을 명확히 설정 (예: 붉은 머리카락이 흩날리는 젊은 여성)
- 장면: 배경 설정 (예: 네온이 반짝이는 사이버펑크 도시 배경)
- 동작: 대상의 움직임 설명 (예: 낙엽 속을 우아하게 춤추는 모습)
- 카메라 움직임: 카메라 연출 방식 (예: 도시 전경을 드러내는 느린 상향 틸트)
- 분위기: 감정적인 연출 (예: 신비롭고 몽환적인 분위기)
- 조명: 시각적 매력의 핵심 (예: 나뭇잎 사이로 퍼지는 부드러운 햇살)
- 구도: 장면 구성 방식 (예: 표정을 강조하는 클로즈업 또는 광활한 배경을 보여주는 와이드샷) 이러한 요소들을 종합하여 구체적인 프롬프트를 작성하면, Hunyuan Video가 훨씬 더 풍부하고 컨셉에 맞는 결과를 생성할 수 있습니다.
SkyReels Hunyuan은 무엇인가요?
SkyReels Hunyuan은 Hunyuan Video 모델을 기반으로 한 특화 버전으로, 영화 및 스타일이 강조된 영상 생성에 최적화되어 있습니다. 약 1,000만 개 이상의 영화 및 드라마 클립으로 정교하게 학습되었으며, 실제 인물의 동작과 표정을 생생하게 구현하는 데 강점을 가지고 있습니다. SkyReels의 성능은 여기에서 직접 체험해 볼 수 있습니다.
Hunyuan Video는 이미지 기반 비디오 생성도 가능한가요?
Hunyuan Video는 본래 텍스트 기반(Text-to-Video) 모델이지만, 이미지 기반(Image-to-Video) 기능도 함께 제공합니다. 이는 HunyuanVideo-I2V 익스텐션을 통해 구현되며, 정적인 이미지를 다이내믹한 모션 비디오로 바꾸는 역할을 합니다. 이 기술은 '토큰 대체' 기법을 활용해 이미지 정보를 효과적으로 영상에 반영합니다.
ComfyUI에서 Hunyuan I2V를 사용하려면 어떻게 해야 하나요?
Hunyuan I2V 워크플로우 안내서를 통해 ComfyUI에서 I2V 기능을 손쉽게 사용할 수 있습니다.
Hunyuan-DiT는 무엇인가요?
Hunyuan-DiT는 텍스트 기반 이미지 생성에 특화된 디퓨전 트랜스포머 버전입니다. Hunyuan Video와 핵심 기술을 공유하며, 다양한 입력 형태(텍스트, 이미지)를 융합해 통합된 비디오 생성 환경을 제공합니다.
Hunyuan Video는 3D 콘텐츠 생성도 지원하나요?
네, Hunyuan Video는 3D 콘텐츠 생성도 지원됩니다. 텐센트는 텍스트와 이미지를 3D 비주얼로 변환하는 Hunyuan3D-2.0 기술 기반의 도구를 출시했으며, 빠르고 고품질의 3D 결과물을 생성할 수 있습니다. Hunyuan3D-2 워크플로우를 통해 직관적으로 3D 모델을 제작할 수 있습니다.
ComfyUI에서 Hunyuan3D-2는 어떻게 설치하나요?
ComfyUI에 Hunyuan3D-2를 설치하려면: ① ComfyUI의 최신 버전을 준비하고, ② Tencent 공식 소스에서 모델 파일과 워크플로우 JSON을 다운로드한 후, ③ 해당 폴더 구조에 맞게 배치합니다. 필요한 커스텀 노드는 ComfyUI Manager로 설치하며, 이후 ComfyUI를 재시작하면 설정이 완료됩니다. 또는 RunComfy에서 제공하는 Hunyuan3D-2 워크플로우를 활용해 별도 설치 없이 온라인에서도 사용할 수 있습니다.
Hunyuan Video를 로컬 또는 맥북에서 실행하려면 어떻게 해야 하나요?
텐센트 공식 GitHub 저장소에서 모델 가중치를 다운로드한 후, ComfyUI 로컬 환경에 세팅하는 방식으로 Hunyuan Video를 사용할 수 있습니다. MacBook을 사용하는 경우, 하드웨어와 소프트웨어가 모델 구동 요건을 충족하는지 반드시 확인해야 합니다. 별도 설치가 부담스럽다면 RunComfy AI Playground를 통해 온라인으로 간편하게 실행해 볼 수 있습니다.
Hunyuan Video의 '래퍼(wrapper)' 기능이란 무엇이며 어떻게 사용하나요?
Hunyuan Video 래퍼는 kijai가 개발한 ComfyUI 노드로, Hunyuan Video 모델을 ComfyUI 내에 매끄럽게 통합해줍니다. 이 래퍼를 사용하면 텍스트 기반, 이미지 기반, LoRA 확장 등 다양한 방식의 비디오 생성이 가능해집니다. 아래 링크에서 다양한 워크플로우를 이용해 래퍼 기능을 직접 사용해보세요:
ComfyUI에서 Hunyuan Video를 제대로 활용하려면 어떻게 해야 하나요?
Hunyuan Video 워크플로우 모음을 통해 사용 목적에 맞는 프리셋 워크플로우를 선택해 시작하는 것이 가장 간편합니다. 각각의 워크플로우에는 시작 가이드도 포함되어 있어, 초보자라도 손쉽게 Hunyuan Video의 기능을 경험할 수 있습니다.