logo
RunComfy
  • ComfyUI
  • TrainerNew
  • Models
  • API
  • Pricing
discord logo
ComfyUI>工作流>Blender 至 ComfyUI AI 渲染器 2.0 | 运动视频制作器

Blender 至 ComfyUI AI 渲染器 2.0 | 运动视频制作器

Workflow Name: RunComfy/Blender-to-ComfyUI-AI-Renderer-2.0
Workflow ID: 0000...1367
通过此工作流程将您的 Blender 动画转换为电影级 AI 输出。它读取深度、轮廓和辅助通道以生成运动一致的视频序列。专为动画师和视觉特效艺术家设计,加速创作过程同时保留结构和运动。享受精准的提示控制、视觉保真度和无缝的运动传输。非常适合创建抛光的 AI 渲染动画,具有详细的场景和自然的流动。

Blender 至 ComfyUI AI 渲染器 2.0

Blender 至 ComfyUI AI 渲染器 2.0 将 Blender 输出转换为电影级、提示引导的 AI 视频,同时保留运动和场景布局。它从深度、轮廓或姿势通道读取结构,并利用这些驱动 Wan VACE 视频生成,使您的最终画面与原始动画意图保持一致。工作流程还包括一个快速静态图像路径用于外观开发和关键帧检查,非常适合动画师、视觉特效艺术家、预演团队和内容创作者。

在其核心,Blender 至 ComfyUI AI 渲染器 2.0 构建或摄取控制视频,将其与起始或参考帧合并,并渲染出具有强时序稳定性的连贯序列。通过提示和参考图像获得创意控制,而深度和边缘保持构图和运动的完整。

Comfyui Blender 至 ComfyUI AI 渲染器 2.0 工作流程中的关键模型

  • Wan 2.1 VACE 14B (SkyReels V3 R2V 合并)。用于结构感知生成和运动对齐的基础视频扩散。检查点作为 VACE 和 SkyReels R2V 的合并托管,适合起始到结束帧控制和参考引导一致性。Model
  • uMT5‑XXL 文本编码器用于 Wan 2.1。提供高容量文本条件编码打包给 ComfyUI。Files
  • Wan 2.1 VAE。用于在 Wan 管道中干净地编码和解码视频潜变量。Files
  • Depth Anything 3 DA3‑BASE。用于从录像中推导高质量、时间一致的深度控制的单目深度估计器。Model
  • Z‑Image Turbo。用于单帧探索的快速图像扩散骨干,具有多重控制条件。Model
  • Z‑Image‑Fun ControlNet Union 2.1。用于使用 Z‑Image Turbo 路径时的 canny、深度、姿势等多重控制权重。Model
  • OpenPose (algorithm)。经典的 2D 关键点检测器,用于推导姿势线作为可选控制信号。Paper • GitHub

如何使用 Comfyui Blender 至 ComfyUI AI 渲染器 2.0 工作流程

该工作流程有两个轨道,您可以单独或一起运行。首先,预处理轨道从您的录像中构建控制视频(深度、边缘或姿势)。其次,AI 渲染器 2.0 将起始或参考图像与该控制视频融合以合成最终序列。一个独立的 Z‑IMAGE TURBO CN 1.0 路径让您可以快速迭代与您的控制策略相匹配的静止图像。

  • 视频输入与尺寸选择(预处理)
    • 该组导入视频并规范控制通道构建器的尺寸和帧预算。VHS_LoadVideo (#32) 节点读取您的剪辑并向下游节点暴露 fps 和帧数等信息。一个紧凑的设置块连线宽度、高度和帧上限,以便每个下游预处理器在相同分辨率下操作。首先使用此方法在选择控制类型之前对齐所有预处理输出。
  • 深度(预处理)
    • 该组使用 DepthAnything_V3 (#37) 将输入帧转换为深度图序列。目标是保留场景几何,因此后续的视频生成尊重比例、遮挡和视差。一个内部调整节点将地图适应工作尺寸,并且保存块可以预览控制剪辑。当您希望强大的布局和相机运动保真度时,选择此选项。
  • CANNY(预处理)
    • 该组通过 CannyEdgePreprocessor (#39) 提取干净的边缘线条,以提供没有阴影的结构。边缘调整为匹配项目设置,并可以保存为预览。当您希望清晰的轮廓、建筑线条或卡通般的控制保持构图但允许风格灵活性时,使用此选项。
  • 姿势(预处理)
    • 该组通过 OpenposePreprocessor (#42) 计算人体骨架,生成用于运动转移的轻量级线条图。它在角色运动是优先事项时非常有用,并且您希望生成细节与表演和时间保持一致。与其他控制类型一样,输出会调整大小,并可以预览为短视频。
  • Z‑IMAGE TURBO CN 1.0
    • 此路径用于从单个帧或加载的图像进行快速静止图像探索。QwenImageDiffsynthControlnet (#3) 应用 Z‑Image Turbo 和多重控制补丁,由 CLIPTextEncode (#23) 的提示引导。使用 USE VIDEO? 开关 (#20) 从视频中获取帧或从磁盘中获取图像;然后采样并保存快速帧以验证您的提示、艺术方向或控制强度,然后再运行完整序列。
  • 起始图像(AI 渲染器 2.0)
    • 该组接受一个起始图像和最多三个附加参考图像。工作流程自动调整它们的大小,选择性地混合它们,并构建一个参考堆栈,为更好的身份和风格一致性播种视频。如果存在多个参考,小逻辑块禁用 VACE 起始到结束构建器中的起始帧输入,因此参考优先。
  • 视频输入与尺寸选择(AI 渲染器 2.0)
    • 第二个尺寸组驱动最终渲染。它设置宽度、高度、fps 和帧长度,由下游 Wan 节点读取。VHS_LoadVideo (#93 和 #105) 还可以导入辅助剪辑,其属性用于在最终输出编写器中镜像 fps。保持此组与您的 Blender 导出同步,以避免意外的重采样。
  • FP8 模型加载器
    • 在这里加载主要的 Wan 2.1 VACE UNet、uMT5‑XXL 文本编码器和 Wan VAE,以及可选的 LoRA 权重。这些加载器确保 AI 渲染器 2.0 路径以一致的精度、标记器和潜在编解码器运行。在不触及其余图形的情况下更换模型以更改风格系列或检查点。
  • 采样器
    • Blender 至 ComfyUI AI 渲染器 2.0 的核心。WanVideoVACEStartToEndFrame (#3261) 从起始和参考图像以及选择的控制通道形成控制视频,然后 WanVacePhantomSimpleV2 (#3255) 将 Wan 模型、条件、参考和生成的控制连接在一起。一个 KSampler (#3253) 渲染连贯的帧,然后 VAEDecode 和 VHS_VideoCombine (#109) 以目标 fps 保存 MP4。输入您的正负提示一次;同样的文本驱动整个序列。

Comfyui Blender 至 ComfyUI AI 渲染器 2.0 工作流程中的关键节点

  • WanVacePhantomSimpleV2 (#3255)
    • 通过路由模型、VAE、提示、控制视频和参考帧协调 Wan 2.1 VACE 生成。仅调整必要的:工作宽度和高度以匹配您的控制,以及序列长度以匹配目标镜头。如果您使用多个强参考,保持提示描述而不是过于具体,以避免与参考指导冲突。
  • WanVideoVACEStartToEndFrame (#3261)
    • 构建 VACE 遵循的控制视频。提供一个起始图像、可选的结束或参考堆栈和预处理的控制视频。使用 Wan 规则 4n+1 设置帧数,以便在采样器中修剪保持一致;这避免了尾部的偏差。
  • PreprocessSwitch (#3239)
    • 选择哪个控制源到达采样器。根据您从 Blender 导出或在预处理中构建的内容在原始帧、深度、canny 或姿势之间切换。当您需要空间保真度时使用深度,当您需要干净的构图控制时使用 canny,当您关注角色运动时使用姿势。
  • VHS_LoadVideo (#93)
    • 处理视频导入并暴露在整个图形中使用的帧属性。它是从 Blender 到渲染保持 fps 和尺寸一致的可靠方法。如果需要修剪或跳过头尾,请在此处进行,以便所有下游路径保持一致。
  • KSampler (#3253)
    • 给定 Wan 模型和条件生成最终的潜在序列。如果您更改指导强度或采样器方法,请重新检查前 10 帧和最后 10 帧的稳定性,然后渲染完整镜头。

可选附加项

  • 您可以用 Blender 自己的渲染通道替换生成的控制通道。将您的深度、轮廓或姿势通道插入 WanVideoVACEStartToEndFrame (#3261) 使用的控制输入,以直接从 Blender 输出驱动 VACE。
  • 保持 Blender 和工作流程之间的纵横比和 fps 相同。输出编写器镜像输入设置的 fps,以便编辑时间保持锁定。
  • 为了身份或风格的保留,在起始图像中提供多个干净的参考图像。工作流程将优先考虑参考集,并自动处理起始帧切换。

这个 Blender 至 ComfyUI AI 渲染器 2.0 工作流程让您在使用提示和参考提升制作价值的同时保持对布局和运动的忠实。使用预处理决定您要保留多少结构,快速验证方向与 Z‑IMAGE TURBO CN 1.0,然后用 AI 渲染器 2.0 渲染出自信、连贯的序列。

致谢

此工作流程实现并构建在以下作品和资源之上。我们感谢 @Mickmumpitz “Blender to ComfyUI AI Renderer 2.0 Source”的创建者提供的工作流程和指导。有关权威详细信息,请参阅下文链接的原始文档和存储库。

资源

  • Blender to ComfyUI AI Renderer 2.0 Source
    • 文档 / 发布说明: YouTube @ Mickmumpitz

注意: 使用参考模型、数据集和代码时需遵循其作者和维护者提供的各自许可证和条款。

Want More ComfyUI Workflows?

Wan 2.1 | 革命性的视频生成

利用突破性的 AI 在普通 CPU 上从文本或图像创建令人难以置信的视频。

Wan 2.1 控制 LoRA | 深度和瓦片

使用轻量级深度和瓦片 LoRAs 改进结构和细节,推进 Wan 2.1 视频生成。

Reallusion AI 渲染 | 3D 到 ComfyUI 工作流程集合

ComfyUI + Reallusion = 快速、易用且方便的 3D 视觉效果

Blender + ComfyUI | AI 渲染 3D 动画

使用 Blender 设置 3D 场景并生成图像序列,然后使用 ComfyUI 进行 AI 渲染。

Qwen Edit 2509 光线恢复 | 照片重光工具

快速修复糟糕的光线效果,确保每次拍摄的照片都完美、干净、平衡。

ICEdit | 使用 Nunchaku 快速 AI 图像编辑

ICEdit+Nunchaku:超快、精确的 AI 图像编辑解决方案。

Stable Diffusion 3.5

Stable Diffusion 3.5

Stable Diffusion 3.5 (SD3.5) 用于高质量、多样化的图像生成。

FireRed 图像编辑 | 智能照片增强器

锐利的照片修复,忠实的色调和完美的细节控制。

关注我们
  • 领英
  • Facebook
  • Instagram
  • Twitter
支持
  • Discord
  • 电子邮件
  • 系统状态
  • 附属
资源
  • 免费 ComfyUI 在线版
  • ComfyUI 指南
  • RunComfy API
  • ComfyUI 教程
  • ComfyUI 节点
  • 了解更多
法律
  • 服务条款
  • 隐私政策
  • Cookie 政策
RunComfy
版权 2026 RunComfy. 保留所有权利。

RunComfy 是首选的 ComfyUI 平台,提供 ComfyUI 在线 环境和服务,以及 ComfyUI 工作流 具有惊艳的视觉效果。 RunComfy还提供 AI Models, 帮助艺术家利用最新的AI工具创作出令人惊叹的艺术作品。