Wan 2.1 Fun 图像到视频和文本到视频 提供了一个高度多样化的AI视频生成工作流程,将静态视觉和纯粹的想象力变为现实。由Wan 2.1 Fun模型系列驱动,此工作流程允许用户将单个图像动画化为完整视频或直接从文本提示生成整个运动序列,无需初始素材。
无论您是从几句话中创作超现实的梦境,还是将概念艺术作品转化为生动的瞬间,此Wan 2.1 Fun设置使生产连贯、风格化的视频输出变得简单。支持平滑过渡、灵活的时长设置和多语言提示,Wan 2.1 Fun非常适合故事讲述者、数字艺术家和希望以最小开销推动视觉边界的创作者。
Wan 2.1 Fun 图像到视频和文本到视频 工作流程提供了一种简单而富有表现力的方式,从图像或简单的文本提示生成高质量视频:
无论您是从零开始可视化场景,还是为静止图像制作动画,此Wan 2.1 Fun工作流程使用Wan 2.1 Fun模型提供快速、便捷且视觉上令人印象深刻的结果。
Load WanFun Model
: 加载合适的Wan 2.1 Fun模型变体(1.3B或14B)Enter Prompts or Upload Image
: 支持使用各自的组输入文本提示和图像Set Inference Settings
: 调整帧数、时长、分辨率和运动选项Wan Fun Sampler
: 使用WanFun进行开始/结束预测和时间一致性Save Video
: 采样后自动渲染并保存输出视频Wan 2.1 Fun
模型Wan Fun Sampler
节点中调整设置(帧数、分辨率、运动选项)Queue Prompt
按钮运行工作流程Outputs
文件夹中查看并下载您的最终Wan 2.1 Fun视频为您的任务选择合适的模型变体:
Wan2.1-Fun-Control (1.3B / 14B)
: 用于具有深度、Canny、OpenPose和轨迹控制的指导视频生成Wan2.1-Fun-InP (1.3B / 14B)
: 用于具有开始和结束帧预测的文本到视频Wan 2.1 Fun的内存提示:
model_cpu_offload
以更快地生成1.3B Wan 2.1 Funsequential_cpu_offload
减少14B Wan 2.1 Fun的GPU内存使用在您选择的合适组中,图像到视频组或文本到视频组,输入您的正面和负面提示。
驱动视频的运动、细节和深度
使用描述性和艺术性语言可以增强您最终的Wan 2.1 Fun输出
上传您的起始图像以启动Wan 2.1 Fun生成。您可以在Wan Fun Sampler节点中调整分辨率和时长。
[可选] 取消静音结束图像节点;此图像将作为最终图像,之间的图像通过Wan 2.1 sampler渲染。
您的最终Wan 2.1 Fun视频位于视频保存节点的Outputs
文件夹中。
输入您的提示以启动生成。您可以在Wan Fun Sampler节点中调整分辨率和时长。
您的最终Wan 2.1 Fun视频位于视频保存节点的Outputs
文件夹中。
Wan 2.1 Fun 图像到视频和文本到视频 工作流程由和开发,他们在Wan 2.1 Fun模型系列上的工作使基于提示的视频生成更加可访问和灵活。他们的贡献使用户能够使用Wan 2.1 Fun将静态图像和纯文本转化为动态、风格化的视频,设置最小而创造自由最大。我们深深感谢他们在AI视频生成领域的创新和持续影响。
RunComfy 是首选的 ComfyUI 平台,提供 ComfyUI 在线 环境和服务,以及 ComfyUI 工作流 具有惊艳的视觉效果。 RunComfy还提供 AI Playground, 帮助艺术家利用最新的AI工具创作出令人惊叹的艺术作品。