logo
RunComfy
  • ComfyUI
  • TrainerNew
  • Models
  • API
  • Pricing
discord logo
ComfyUI>工作流>ComfyUI Vid2Vid 舞蹈传输

ComfyUI Vid2Vid 舞蹈传输

Workflow Name: RunComfy/Restyle-Vid2Vid-Dance
Workflow ID: 0000...1124
使用这个 ComfyUI Vid2Vid 舞蹈传输工作流程,您可以轻松将真实视频风格化并转化为引人入胜的动画。此工作流程将源视频中的动作和风格传输到目标图像或对象上,创造惊艳的效果。教程涵盖了视频和遮罩准备、目标图像配置、使用 AnimateDiff 进行动作传输、ControlNet 指导和输出帧生成等关键方面。

ComfyUI Vid2Vid 舞蹈传输是一个强大的 ComfyUI Vid2Vid 工作流程,允许用户将真实视频风格化并转化为各种对象或元素。通过这个工作流程,您可以通过将源视频的动作和风格传输到目标图像或对象上,创造惊艳的视频动画。本教程将指导您完成所需的关键组件和设置,以实现最佳效果。

致谢

感谢 MDMZ 和 DP 在创建此工作流程中做出的杰出贡献!MDMZ 通过他的 YouTube 教程 Transform Videos with AI: Dancing Noodles Step-by-Step Tutorial 分享了他的 ComfyUI Vid2Vid 舞蹈传输工作流程,该教程基于 DP 的原始 DP's - Vid2Vid AniamteDiff LCM dance transfer 工作流程。

1. ComfyUI Vid2Vid 舞蹈传输工作流程的功能是什么?#

ComfyUI Vid2Vid 舞蹈传输工作流程可以将真实视频转化为风格化动画。它将源视频中的动作和舞蹈动作传输到您选择的目标图像或对象上。

2. ComfyUI Vid2Vid 工作流程的关键组件#

2.1 上传视频和创建遮罩#

  • ComfyUI Vid2Vid 工作流程从 VHS_LoadVideo 组件开始,您可以在此上传包含您希望传输的舞蹈动作的源视频。
  • LayerMask: RemBgUltra 组件用于从视频帧中移除背景并创建主体的黑白遮罩。此遮罩对于正确识别和传输动作至关重要。
  • ImageToMask 和 MaskToImage 组件在 ComfyUI Vid2Vid 工作流程中根据需要在图像和遮罩格式之间转换。
  • 🌟 重要提示:RunComfy 平台已预加载 "RemBgultra model" 以供 "Layer Style" 节点使用。如果您自行安装了 "Layer Style" 节点,请从您的私人文件浏览器中删除 "Layer Style" 文件以避免冲突。一旦删除了您的 "Layer Style" 文件,工作流程将使用 RunComfy 预加载并顺利运行。
    ComfyUI Vid2Vid Workflow

2.2 使用 IPAdapter 配置目标图像#

  • IPAdapterAdvanced 组件用于加载和配置将接收 ComfyUI Vid2Vid 舞蹈传输的目标图像或对象。您可以使用 LoadImage 节点上传目标图像,并使用 LoadBgImage 节点上传目标背景图像。
  • IPAdapterUnifiedLoader 用于加载 IPAdapter,确定目标图像对输出的影响强度。
    ComfyUI Vid2Vid Workflow

2.3 使用 AnimateDiff 进行动作传输#

  • ComfyUI Vid2Vid 舞蹈传输的核心由 AnimateDiff Latent Condition Model (LCM) 驱动。它通过 ADE_LoadAnimateDiffModel 组件在 ComfyUI Vid2Vid 中加载。
  • 其他组件如 ADE_AnimateDiffSamplingSettings、ADE_LoopedUniformContextOptions 和 ADE_ApplyAnimateDiffModelSimple 分别用于在 ComfyUI Vid2Vid 中配置采样设置、上下文选项并应用 AnimateDiff 模型。
  • ADE_UseEvolvedSampling 组件用于选择 AnimateDiff 模型在 ComfyUI Vid2Vid 中的适当采样方法。
    ComfyUI Vid2Vid Workflow

2.4 使用 ControlNet 指导输出#

  • ControlNet 用于在输出动画中指导和定义主体的形状和轮廓。
  • ControlNetLoaderAdvanced 组件用于加载 ControlNet 模型。此工作流程使用了两个 ControlNet 模型:QR Code Monster 和 Lineart。
  • ControlNet Stacker 组件用于在 ComfyUI Vid2Vid 传输中以可调整的强度堆叠和组合 ControlNet 输出。
    ComfyUI Vid2Vid Workflow

2.5 使用 KSampler 生成输出帧#

  • ComfyUI Vid2Vid 中的 KSampler (Efficient) 组件负责根据所有提供的配置和输入生成输出帧。
  • 主要的 KSampler 组件处理视频帧以创建动画预览。它将 AnimateDiff 模型、IPAdapter 输出、ControlNet 堆栈和其他设置作为输入。
  • 第二个 KSampler 组件用于对 ComfyUI Vid2Vid 输出帧进行放大和去噪。
    ComfyUI Vid2Vid Workflow

2.6 如有需要进行放大#

  • ImageScaleBy 组件用于放大输出帧的分辨率。ImageUpscaleWithModel 组件用于使用选定的放大模型进一步放大帧。工作流程默认禁用放大组件。如果需要,可以启用这些组件以获得更好的结果。
    ComfyUI Vid2Vid Workflow

Want More ComfyUI Workflows?

MatAnyone 视频抠图 | 单帧掩码去除

使用一个掩码帧去除视频背景,实现完美的主体分离。

MimicMotion | 人体运动视频生成

使用 MimicMotion,通过参考图像和运动序列生成高质量的人体运动视频。

IPAdapter Plus (V2) | 更换服装

IPAdapter Plus (V2) | 更换服装

使用 IPAdapter Plus 进行时尚模特创作,轻松更换服装和风格

FLUX Kontext Face Swap | 无缝面部替换

具有提示引导控制和自然融合的逼真面部替换

Wan 2.2 VACE | 姿势控制的视频生成器

利用基于姿势的控制将静止图像转化为惊艳的动态效果。

Wan 2.2 + Lightx2v V2 | 超快速 I2V & T2V

双 Light LoRA 设置,速度提高 4 倍。

FLUX IP-Adapter | 具有风格适应的图像生成

FLUX IP-Adapter | 具有风格适应的图像生成

将预训练模型适应特定的图像风格,生成惊艳的 512x512 和 1024x1024 视觉效果。

Stable Diffusion 3 (SD3) | 文本到图像

Stable Diffusion 3 (SD3) | 文本到图像

将 Stable Diffusion 3 媒介集成到您的工作流程中,生成卓越的 AI 艺术作品。

关注我们
  • 领英
  • Facebook
  • Instagram
  • Twitter
支持
  • Discord
  • 电子邮件
  • 系统状态
  • 附属
资源
  • 免费 ComfyUI 在线版
  • ComfyUI 指南
  • RunComfy API
  • RunComfy MCP
  • ComfyUI 教程
  • ComfyUI 节点
  • 了解更多
法律
  • 服务条款
  • 隐私政策
  • Cookie 政策
RunComfy
版权 2026 RunComfy. 保留所有权利。

RunComfy 是首选的 ComfyUI 平台,提供 ComfyUI 在线 环境和服务,以及 ComfyUI 工作流 具有惊艳的视觉效果。 RunComfy还提供 AI Models, 帮助艺术家利用最新的AI工具创作出令人惊叹的艺术作品。