Wan 2.1 Fun | 控制网络视频生成
Wan 2.1 Fun 是基于 Wan 2.1 模型家族构建的灵活 ControlNet 风格 AI 视频生成工作流程。它通过从输入视频中提取深度、Canny 或 OpenPose 通道并将其应用于 Wan 2.1 Fun 控制模型,实现可控的视频创作。Wan 2.1 Fun 提供 1.3B 和 14B 参数变体,为创意探索和精确引导动画提供可扩展的高质量输出。ComfyUI Wan 2.1 Fun 工作流程
ComfyUI Wan 2.1 Fun 示例
ComfyUI Wan 2.1 Fun 描述
Wan 2.1 Fun | 控制网络视频生成
Wan 2.1 Fun 引入了一种直观而强大的方法,利用 Wan 2.1 Fun 模型进行受控 AI 内容创作。 在一个 ControlNet 启发的框架下构建,Wan 2.1 Fun 确保与标准 ControlNet 预处理模块的兼容性。通过从输入素材中提取 Depth、Canny 或 OpenPose 通道,此 ControlNet-based ComfyUI 工作流程允许用户精确地影响输出的结构、运动和风格,而不仅仅依赖于文本提示。
Wan 2.1 Fun 将结构化的视觉数据引入流程——保持运动准确性,增强风格化,促进更有意图的转换。无论是构建动态动画、姿势驱动的表演,还是实验抽象运动艺术,Wan 2.1 Fun 都将艺术控制直接置于您的手中,同时利用 Wan 2.1 Fun 模型和 ControlNet 原则的表现力。
为什么使用 Wan 2.1 Fun?
Wan 2.1 Fun 工作流程提供了一种灵活的方法,以 ControlNet-style 视觉条件指导 AI 运动和结构:
- 使用 Depth、Canny 或 OpenPose 进行结构化控制
- 基于 ControlNet 启发的系统,启用引导转换
- 兼容多个 ControlNet 预处理器,包括第三方扩展
- 通过 ControlNet 原则实现更清晰的空间一致性、形式和动态流动
- 无需复杂的提示工程或训练
- 轻量且响应迅速,具有高视觉保真度
- 非常适合动作设计、风格化编舞或以表演为驱动的运动合成
如何使用 Wan 2.1 Fun ControlNet 工作流程
Wan 2.1 Fun 概览
Load WanFun Model
(紫色): 模型加载器Enter Prompts
(绿色): 正面和负面提示Upload Your Video and Resize
(青蓝色): 用户输入——参考素材和调整大小Choose Control Video Preprocessor
(橙色): ControlNet 节点用于深度、Canny 或 OpenPoseWan Fun Sampler + Save Video
(粉色): 采样与输出
快速开始步骤:
- 选择您的 Wan 2.1 Fun 模型 (
Wan2.1-Fun-Control (1.3B / 14B)
) - 输入您的正面和负面提示
- 上传参考素材
- 通过
Queue Prompt
运行工作流程 - 从最后一个节点或
Outputs
文件夹中检索结果
1 - 加载 WanFun 模型
选择合适的 Wan2.1-Fun-Control
变体进行 ControlNet-style 调节:
- 使用
model_cpu_offload
以更流畅地运行 1.3B - 使用
sequential_cpu_offload
以降低 14B 的 GPU 负载
2 - 输入提示
- 正面提示:
- 描述运动风格、氛围或视觉纹理
- 生动和描述性的提示增强创意控制
- 负面提示:
- 为提高输出稳定性,尝试使用 "模糊、变异、变形、扭曲、黑暗和坚固、漫画。" 等词
- 为了更动感的运动,添加 "安静、坚固" 等词
3 - 上传您的视频并调整大小
上传您的源素材。为获得与 Wan 2.1 Fun 的最佳效果,请适当地调整大小以符合所需的帧尺寸。
4 - 选择控制视频预处理器
此部分激活 Wan 2.1 Fun 的基于 ControlNet 的预处理系统:
Depth
: 捕获空间布局作为深度图Canny
: 提取强边缘轮廓和结构OpenPose
: 识别关节、肢体和姿势以进行运动驱动的工作
这些指南使 Wan 2.1 Fun 工作流程能够遵循视觉线索,而不仅仅依赖于提示。
所有模块与 ControlNet 预处理标准一致,允许通过自定义节点扩展功能。
5 - Wan Fun 采样器 + 保存输出
Wan 2.1 Fun 采样器 调整为清晰和创意一致性。
如有需要,请自定义配置。输出将自动保存到指定文件夹。
致谢
Wan 2.1 Fun 工作流程由 和 开发,他们在 AI 驱动的运动控制和风格化方面的贡献使得高级 ControlNet 集成成为可能。此项目将 Wan 2.1 Fun 模型的表现深度与深度、Canny 和 OpenPose 输入结合应用,以实现 AI 辅助视觉制作中的构图和动态精度。
我们感谢他们为创意社区提供这些工具。