将 FLUX-1 模型与 FLUX-RealismLoRA 混合,生成逼真的 AI 图像
使用您的图像创建一致的角色,确保它们看起来统一。
简化AI角色创建并确保外观一致。
CatVTON,简单且准确的虚拟试穿。
Flux Upscaler – 实现 4k、8k、16k 和终极 32k 分辨率!
通过使用 ControlNet 引导 FLUX.1-dev 来增强现实感。
使用SDXL和FLUX无缝扩展和完善图像。
融合视觉和提示,获得惊人的增强效果。
通过捕捉服装细节和风格,虚拟试穿创造逼真效果。
探索 XLabs FLUX IPAdapter V2 模型,与 V1 进行比较以实现您的创作目标。
在一个ComfyUI工作流程中比较Stable Diffusion 3.5和FLUX.1。
Stable Diffusion 3.5 (SD3.5) 用于高质量、多样化的图像生成。
将面部表情和动作从驱动视频转移到源视频
指导您使用自定义数据集进行FLUX LoRA模型训练的整个过程。
使用 Genmo Mochi 1 模型的文本到视频演示
包括文字转视频和图像转视频模式。
通过精确控制面部特征、姿势和构图,创建一致且逼真的角色。
使用 Unsampling 方法将您的视频转换为粘土风格。
将源视频中的动作和风格传输到目标图像或对象上。
使用可定制的参数控制每一个特征,从眼睛眨动到头部移动,获得自然的效果。
使用 MimicMotion,通过参考图像和运动序列生成高质量的人体运动视频。
使用 Unsampling 方法将您的视频转换为羊皮纸风格的动画。
轻松地重新设计视频的风格,将真实的角色转换为动漫风格,同时保持原始背景不变。
使用FLUX-ControlNet-Depth & FLUX-ControlNet-Canny为FLUX.1 [dev]实现更好的控制。
轻松填充、移除和优化图像,完美融合新内容。
将预训练模型适应特定的图像风格,生成惊艳的 512x512 和 1024x1024 视觉效果。
由 Black Forest Labs 开发的新图像生成模型
使用单张图像和参考视频为肖像添加面部表情和运动。
使用 ComfyUI ReActor,您可以轻松地在图像或视频中交换一个或多个角色的面孔。
通过Unsampling控制潜在噪声有助于显著提高视频风格迁移的一致性。
变换你的主体,让他们无缝地穿越不同场景。
变换您的主题,赋予他们脉动的、由音乐驱动的光环,随节奏起舞。
CogVideoX-5B:用于高质量视频生成的先进文本到视频模型。
轻松提升您的产品摄影,是 Magnific.AI Relight 的顶级替代方案。
使用光照图和提示词重新打光您的视频
轻松编辑背景、增强光照并重新生成新场景。
使用 SUPIR 和 4 倍 Foolhardy Remacri 模型将图像放大到 8K。
使用 AnimateDiff LCM、IPAdapter、QRCode ControlNet 和 Custom Mask 模块进行变形动画。
使用 IPAdapter Plus 和 ControlNet 通过单个参考图像实现精准的风格迁移。
使用IPAdapter Plus、ControlNet QRCode和AnimateLCM快速创建变形视频。
从预先存在的视频输入开始实现动态图形动画效果。
仅使用 2D 图像,通过 Z-Depth Maps 创建令人惊叹的 Houdini 式动画。
ToonCrafter可以在两张卡通图像之间生成卡通插值。
具有无与伦比准确性的视频对象分割。
输入一个视频和光掩码以生成重光视频
使用 Blender 设置 3D 场景并生成图像序列,然后使用 ComfyUI 进行 AI 渲染。
在 ComfyUI 中渲染视觉效果,并在 TouchDesigner 中同步音频,以创建动态的音频互动视频。
利用 IPAdapter Plus 注意力蒙版来精确控制图像生成过程。
使用 ComfyUI IPAdapter Plus 和 ControlNet QRCode 将图像转换为动画。
经测试可用于生成循环视频和帧插值。在某些场景下优于闭源视频生成工具
使用 ComfyUI AnimateLCM 工作流程加速您的文本到视频动画制作。
使用 IPAdapter,您可以使用参考图像高效地控制动画的生成。
AnimateDiff 的批量提示计划为动画创作中的叙事和视觉提供了精确控制。
探索 AnimateDiff V3、AnimateDiff SDXL 和 AnimateDiff V2,并使用 Upscale 获得高分辨率结果。
利用 IPAdapters 进行静态图像生成,并使用 Stable Video Diffusion 进行动态视频生成。
将 FreeU 与 SVD 结合使用,以在不增加额外成本的情况下提高图像到视频转换的质量。
集成稳定扩散和稳定视频扩散,将文本直接转换为视频。
设置 ControlNet Timestep KeyFrames,例如第一帧和最后一帧,以创建变形动画。
使用动态提示(通配符)、Animatediff 和 IP-Adapter 生成动态动画或 GIF。
将Prompts Travel与Animatediff结合使用,以精确控制动画中的特定帧。
通过专注于原始视频的构图和遮罩,增强 Vid2Vid 的创意。
ComfyUI Vid2Vid 提供了两种不同的工作流程来创建高质量、专业的动画:Vid2Vid 第 1 部分,通过专注于原始视频的组合和遮罩来增强您的创意;Vid2Vid 第 2 部分,利用 SDXL Style Transfer 将视频的风格转变为您想要的美学风格。本页面专门介绍 Vid2Vid 第 1 部分。
通过将视频转换为独特的陶瓷艺术风格,为其注入创意,提升视频品质。
将您的视频转化为永恒的大理石雕塑,捕捉经典艺术的精髓。
只需使用几张图片定义偏好的风格,即可将原始视频转换为理想的动画。
通过将视频转换为生动的卡通,为您的视频增添趣味。
将您的视频转换为迷人的日本动漫。
轻松地为您的视频赋予独特的动漫风格,捕捉充满活力的扁平风格
将视频革命性地转变为冒险游戏风格,让游戏的刺激体验栩栩如生!
使用 AnimateDiff 和 ControlNet(包括 QRCode Monster 和 Lineart)创建引人入胜的视觉效果。
利用 AnimateDiff、AutoMask 和 ControlNet 增强 VFX,实现精确、可控的效果。
探索使用IPAdapter创新创作令人惊叹的动态艺术。
更快的图像生成和更好的资源管理。
从文本提示中创建逼真的个性化照片,同时保留身份
利用 LoRA 模型、ControlNet 和 InstantID 进行高级面部多样化转换
结合 IPAdapter 和 ControlNet 实现高效的纹理应用和增强的视觉效果。
将 Stable Diffusion 3 媒介集成到您的工作流程中,生成卓越的 AI 艺术作品。
MistoLine适应各种线稿输入,轻松地从素描生成高质量图像。
Omost使用LLM编码生成精确的高质量图像。
使用 PuLID 和 IPAdapter Plus 无缝集成面部特征并控制风格。
使用 IPAdapter Plus 进行时尚模特创作,轻松更换服装和风格
IPAdapter Plus 能够有效地进行风格和构图迁移,其功能类似于单图像 LoRA。
在 IPAdapter Plus 中使用各种合并方法,精确高效地控制图像混合。
使用LayerDiffuse生成透明图像或将背景和前景相互融合。
利用 Instant ID 和 IPAdapter 创建可定制的精美面部贴纸。
InstantID 以准确、时尚和美观的方式增强和转换肖像。
Stable Cascade,一种在提示对齐和美学方面表现出色的文本转图像模型。
利用 IPAdapter FaceID Plus V2 模型创建一致的角色。
使用 Portrait Master 更好地控制肖像创作,无需依赖复杂的提示。
体验SDXL Turbo快速的文本到图像合成。
通过比较BRIA AI的RMBG 1.4和Segment Anything,高效地移除背景。
使用外绘节点和ControlNet内绘模型轻松扩展图像。
SUPIR 支持照片级真实感图像修复,可与 SDXL 模型配合使用,并支持文本提示增强。
CCSR 模型通过更加关注内容一致性来增强图像和视频放大效果。
APISR 模型可以增强和修复动漫图像和视频,使您的视觉效果更加生动和清晰。
将褪色的照片恢复为充满活力的回忆,保留每一个细节,珍藏美好的回忆。
首先使用Face Detailer进行面部修复,然后使用4x UltraSharp模型进行优质放大。
Mesh Graphormer ControlNet可以修正图像中畸形的手,同时保留其余部分。
使用ControlNet Tile、4xUltraSharp和帧插值来获得高分辨率结果。
使用 LayerDiffuse 创建透明图像,并使用 TripoSR 快速创建3D对象
© 版权 2024 RunComfy. 保留所有权利。