Hunyuan Video

Video Model

Text to Video

Image to Video

View examplesView examples
Pro mode makes higher-quality videos but takes longer.

了解 Hunyuan Video 的生成原理

Hunyuan Video 是由腾讯于 2024 年 12 月开源推出的 AI 视频生成模型。它能够根据详细的文本提示,自动生成高质量视频,具备自然剪辑、画面连贯和动作一致等特点,为内容创作者打开了全新的视觉表达方式。 Hunyuan Video 面向希望将创意高效转化为动态影像的用户,无论是内容制作者、营销人员还是创意设计师,都可以通过它生成结构清晰、画质细腻的专业级视频。该工具支持自然的镜头运动与场景切换,帮助你将具体的想法变成连贯、生动的视觉故事。借助 Hunyuan Video,创作视频不再受限技术门槛,而变得更加直观与高效。

探索 Hunyuan Video 的核心亮点

Video thumbnail

高清电影级影像体验

Hunyuan Video 通过空间-时间压缩潜空间与 Causal 3D VAE 技术,实现了专业电影般的视觉输出,兼顾镜头连贯性与场景美学。在保留稳定画质的同时,精准控制光影、构图与镜头运动,使视频画面在每一帧间保持风格统一。这对于追求高质量短片或品牌内容的创作者而言,Hunyuan Video 不仅节省了后期调色与剪辑成本,还显著提升画面一致性与专业感,尤其适合高端视频生成与影视级 AI 剧场搭建。

Video thumbnail

自然连贯的场景切换

Hunyuan Video 搭载语义分镜识别功能,能根据视觉结构和动作信息智能分段,实现无缝场景衔接。基于 Transformer 架构与时空建模,系统能自动生成符合剧情逻辑的镜头剪辑,避免生硬跳转。你无需手动设定镜头轨迹,即可获得节奏流畅、叙事清晰的视频素材。Hunyuan Video 提供预设镜头运动控制,提升叙事连贯性,对需要快速制作分镜视频或 AI 视频脚本原型的用户极具价值。

Video thumbnail

动作连贯稳定无抖动

Hunyuan Video 通过动态图像联合训练和 Flow Matching 技术,有效保持多帧之间的动作连续与结构一致。无论是人物行走、物体移动还是复杂场景中的互动,系统都能准确预测运动轨迹,减少重影与闪烁问题。你可以轻松生成节奏稳定的动画片段或长视频,无需担心运动失真。Hunyuan Video 让复杂动作以更自然且真实的方式呈现,特别适合动画创作者和希望提升动态稳定性的视频项目。

Video thumbnail

创意融合与复杂场景搭建

Hunyuan Video 具备出色的概念泛化能力,借由多模态大语言模型编码器,能理解和整合多种视觉设定,使画面在保留语义逻辑的同时融合多样创意要素。你可以输入包含不同环境、物体或视觉风格的文本提示,系统即可输出统一风格、布局协调的复杂视频场景。Hunyuan Video 尤其适用于创意脚本开发、幻想类世界构建及艺术叙事视频生成,是多元素融合视效制作的理想工具。

相关模型广场

Frequently Asked Questions

Hunyuan Video 是什么?它能做些什么?

Hunyuan Video 是腾讯开发的一款开源 AI 视频生成模型,拥有 130 亿参数。它能够将详细的文字提示转化为高质量视频,实现流畅的场景切换、自然的剪辑以及动作的一致性,非常适合用于创作富有吸引力的视觉叙事作品。

我该如何使用 Hunyuan Video?

Hunyuan Video 通常通过 ComfyUI(或类似界面)实现文本生成视频(T2V)或图像生成视频(I2V)。你可以使用 RunComfy 的现成工作流来操作,例如 Hunyuan 文本生成视频工作流Hunyuan 图像生成视频工作流Hunyuan 视频转视频工作流 以及 Hunyuan LoRA 工作流。如果你不想安装 ComfyUI,也可以直接在 RunComfy AI Playground 在线使用 Hunyuan Video,无需任何安装配置。

在哪里可以免费使用 Hunyuan Video?

你可以在 RunComfy AI Playground 免费体验 Hunyuan Video。平台会赠送一定数量的免费积分供你探索 Hunyuan Video 以及其他 AI 模型与工作流。

在 ComfyUI 中如何生成更长的视频?

Hunyuan Video 的视频时长是由“num_frames”和“帧率(frame rate)”两个参数决定的,时长=帧数/帧率。例如,如果设置为 85 帧,帧率为 16fps,那么视频时长约为 5 秒。要生成更长的视频,可以增加“num_frames”数量,或结合调整两者以平衡时长与流畅度。但需要注意,更长的视频意味着更高的显存需求。在 RunComfy 上,你可以探索多种 Hunyuan Video 工作流,包括 Hunyuan 文本生成视频图像生成视频视频转视频LoRA 特效工作流

Hunyuan Video 最长能生成多长的视频?

Hunyuan Video 最大支持 129 帧的视频生成。如果设定帧率为 24fps,大约可以生成 5 秒视频;若帧率降低到 16fps,最长可以达到约 8 秒。

如何安装 Hunyuan Video?

1. 本地安装 Hunyuan Video:步骤如下:首先更新至最新版 ComfyUI,然后从腾讯 GitHub 或 Hugging Face 下载所需的模型文件(扩散模型、文本编码器和 VAE),按安装说明放入对应文件夹。接着导入 Hunyuan Video 工作流 JSON 文件到 ComfyUI,并使用 ComfyUI Manager 安装缺失的自定义节点。最后重启 ComfyUI,并测试视频生成是否正常。2. 在线使用 RunComfy AI Playground:无需任何安装,直接在 RunComfy 在线访问 Hunyuan Video。3. 在线使用 RunComfy ComfyUI 工作流:也可以选择以下预设工作流体验 Hunyuan Video:文本生成视频图像生成视频视频转视频 以及 LoRA 工作流

Hunyuan Video 对显存的需求是多少?

Hunyuan Video 对显存的需求会根据模型配置、输出长度和质量的不同而有所变化。基础工作流至少需要 10–12GB 显存,而如果追求更高质量、生成更长视频,建议使用 16GB 或以上的显卡。具体需求会因设定参数和模型版本而有所不同。

我该把 Hunyuan LoRA 文件放在哪?

Hunyuan LoRA 文件应放置在你安装路径下的 LoRA 专用文件夹中。对于使用 ComfyUI 或 Stable Diffusion 的本地部署,一般路径为“models/lora”。这样系统才能在加载时自动识别并使用 LoRA 文件。

我该如何为 Hunyuan Video 制作有效提示词?

想要用 Hunyuan Video 生成高质量视频,关键在于设计清晰、完整的提示词。有效提示词通常包括以下元素:1. 主体:明确视频的焦点,例如“一个拥有红发的年轻女性”或“一辆炫酷的电动跑车”;2. 场景:描述视频的背景,如“霓虹灯闪烁的赛博朋克城市”或“黎明时分的雪林”;3. 动作:描述主体的动态,例如“在落叶中优雅起舞”或“沿海公路飞驰而过”;4. 镜头运镜:说明摄影机的动作,例如“向上缓慢仰拍揭示城市景观”或“平滑跟拍主角移动”;5. 氛围:营造情绪基调,如“神秘而空灵的气氛”或“充满活力的节奏”;6. 灯光:明确照明效果,例如“柔和暖阳透过树叶”或“路灯投射的锐利阴影”;7. 构图方式:说明画面的构图,如“情绪特写”或“大远景展示广阔感”。将这些细节融合后,就能为 Hunyuan Video 提供清晰的指导,从而生成更精美的视频。

什么是 SkyReels Hunyuan?

SkyReels Hunyuan 是 Hunyuan Video 的电影级特化版本,专门用于生成更具电影感和表现力的视频。它是在 Hunyuan 基础模型上,结合超过 1000 万段影视片段进行微调,擅长还原逼真的人物动作和表情。你可以通过 Skyreels AI 亲自体验它的强大能力。

Hunyuan Video 怎么处理图像生成视频任务?

Hunyuan Video 原本是以文本生成视频(T2V)为主,为扩展功能,腾讯推出了 HunyuanVideo-I2V 图像转视频扩展。该功能通过令牌替换技术,有效利用图像信息来生成动态变化的视频画面,从而实现从静态图像变为生动视频的过程。

在 ComfyUI 中如何使用 Hunyuan I2V?

你可以参考这份详细教程,学习如何在 ComfyUI 中使用 Hunyuan I2V:点击查看教程

Hunyuan-DiT 是什么?

Hunyuan-DiT 是一款专注于文本生成图像的扩散 Transformer 模型,技术底层与 Hunyuan Video 相似,均采用 Transformer 架构,可统一处理文本、图像与视频输入,实现跨模态内容生成。

Hunyuan Video 支持 3D 内容制作吗?

支持,Hunyuan Video 的能力已拓展到 3D 内容生成领域。腾讯推出的 Hunyuan3D-2.0 系列工具能将文本和图像快速转化为高质量的 3D 画面。通过 RunComfy 提供的 Hunyuan3D-2 工作流,可在 ComfyUI 完成从图像到 3D 的无缝操作,非常适合进行创意扩展。

如何在 ComfyUI 安装 Tencent Hunyuan3D-2?

你可以本地安装 Hunyuan3D-2,确保 ComfyUI 为最新版后,从腾讯的官方平台下载模型权重与工作流 JSON 文件,按说明放入正确文件夹,并使用 ComfyUI Manager 安装缺失节点,重启后即可测试使用。若不想配置环境,也能通过 RunComfy 的在线 Hunyuan3D-2 工作流 体验,直接在线生成图像3D资产,无需本地部署。

如何在本地或 MacBook 上运行 Hunyuan Video?

你可以通过 腾讯 GitHub 仓库 下载 Hunyuan Video 的官方模型文件,在本地 ComfyUI 环境中部署运行。如果使用 MacBook,请确认系统的硬件和软件配置能满足模型运行要求。若不方便本地部署,也可以直接使用 RunComfy AI Playground 在线体验 Hunyuan Video,无需安装,操作简便。

什么是 Hunyuan Video wrapper?它的作用是什么?

Hunyuan Video wrapper 是由 kijai 开发的 ComfyUI 节点插件,可将 Hunyuan Video 模型无缝集成到 ComfyUI 系统中。使用该插件,你可以调用多个工作流,例如:文本生成视频图像生成视频视频转视频LoRA 应用工作流

我该如何在 ComfyUI 中使用 Hunyuan Video?

你可以通过这些现成的工作流直接在 ComfyUI 中使用 Hunyuan Video。每个工作流都经过预设并附有详细说明,选择适合你的一个即可快速开始:Hunyuan 文本生成视频图像生成视频视频转视频Hunyuan LoRA 工作流