如何运行 ComfyUI API
1. 在 ComfyUI 云中构建/测试
在云中创建您自己的 ComfyUI 工作流程,导出工作流程的 API JSON,并选择您希望在运行时调整的参数。
然后,使用云保存将您的节点、模型、依赖项和运行时打包成一个可重现的容器,准备部署为生产级 ComfyUI API。

2. 将工作流程部署为 API
选择一个已保存的工作流程,选择您需要的硬件,并设置简单的自动扩展规则。部署后,您的 ComfyUI API 将获得一个唯一的 deployment_id,您的应用程序可以使用它来发送请求。
监控性能,根据需要扩展或缩减,并无缝管理多个 API 版本。

3. 按需扩展
您的 ComfyUI API 在请求到来时自动扩展,在空闲时缩减到零,无需额外工作。
部署后,您可以使用 API 端点发送请求、检查进度、获取结果或取消作业。
cURL
curl --request POST \
--url https://api.runcomfy.net/prod/v1/deployments/{DEPLOYMENT_ID}/inference \
--header "Authorization: Bearer YOUR_API_KEY" \
--header "Content-Type: application/json" \
--data '{'
"overrides": {
"6": {
"inputs": {
"text": "futuristic cityscape"
}
}
"189": {
"inputs": {
"image": "https://example.com/new-image.jpg"
}
}
}
}
使用 ComfyUI API 的最简单方式
无忧部署
一键从云保存启动您的 ComfyUI API。无需 Docker、无需 CUDA 设置、无需 Kubernetes。一切都使用您保存的确切节点、模型和库运行,因此结果始终一致。
高性能 GPU
选择您需要的 GPU 性能,从 16GB(T4/A4000)到 80GB(A100/H100)以及高达 141GB(H200),让您能够顺畅可靠地运行重型模型。
按需扩展
您的 API 在流量突发时自动扩展,空闲时缩减到零。控制队列大小和保持温暖设置,以保持低延迟并控制成本。
工作流程版本控制
放心更新。管理工作流程版本,使用滚动更新添加功能或回滚,而不会中断正在运行的作业。
实时监控
通过实时仪表板掌握性能状况。查看请求计数、队列时间、冷启动、执行速度和使用模式,以优化您的设置。
200+ 即用型部署模板
使用 200 多个现成的社区工作流程快速开始。探索并自定义它们以满足您的需求,将您的版本保存到云端,并在几分钟内将其部署为您自己的 ComfyUI API。
常见问题
什么是 RunComfy,它与本地 ComfyUI 在 ComfyUI API 方面有何不同?
RunComfy无服务器API将您的ComfyUI工作流程转换为生产级ComfyUI API,具有自动扩展功能且无需运维。这让您可以专注于构建生成式AI,无需担心基础设施问题。与需要硬件管理、CUDA设置和持续监控的本地ComfyUI设置不同,RunComfy无服务器API在云端处理部署、扩展和一致性。您的ComfyUI API在高性能GPU上可靠运行,轻松从原型到生产。更多详情,请阅读RunComfy无服务器API文档。
如何将 ComfyUI 工作流程部署为 ComfyUI API 服务?
要在RunComfy上将ComfyUI工作流程部署为ComfyUI API服务,首先在ComfyUI云中构建它并与您的节点、模型和依赖项一起保存。然后,选择GPU硬件,设置自动扩展规则,并通过几次点击进行部署。这将创建一个无服务器ComfyUI API,可自动扩展、异步处理请求并提供推理端点。您将拥有一个即用型ComfyUI API,无需处理Docker、Kubernetes或手动配置,一切都是可重现和一致的。
如何开始将 ComfyUI 工作流程部署为 ComfyUI API?
要在RunComfy上将您的ComfyUI工作流程部署为ComfyUI API,请从ComfyUI云开始,您可以轻松创建或编辑您的工作流程。准备就绪后,将其导出为简单的API JSON文件,并选择您希望在运行期间调整的部分,如提示词或种子——这保持了灵活性。然后,只需点击云保存。RunComfy负责其余工作,将您的工作流程、节点、模型和完整设置打包到即用型容器中,让您跳过所有技术麻烦。最后,通过选择您首选的GPU和基本扩展选项来部署它。您将立即获得一个唯一的部署ID,用于将您的ComfyUI API连接到您的应用程序或项目。整个过程设计得快速无忧,让您专注于创意想法,同时获得可扩展的ComfyUI API,无需任何DevOps工作。更多详情,请查看RunComfy无服务器API - 快速入门文档。
如何以 ComfyUI API 格式导出 ComfyUI 工作流程?
对于最新版本的ComfyUI,打开ComfyUI界面,在左上角找到工作流程菜单,从选项中选择"导出(API)"。这将生成一个包含所有节点、输入、默认值和连接的JSON文件。对于较旧版本,您需要在设置中启用开发者模式(点击队列大小旁边的齿轮图标或菜单框,然后勾选"启用开发者模式选项"框),这将使"保存(API格式)"按钮出现在菜单中。
ComfyUI API 有哪些可用的 GPU,如何为我的工作流程选择合适的 GPU?
RunComfy为您的ComfyUI API部署提供一系列高性能GPU,VRAM从基础工作流程的16GB到密集型模型的141GB。要为您的ComfyUI API工作流程选择合适的GPU,请考虑您模型的大小和内存需求,对于大多数典型任务,建议从约48GB(如X-Large或X-Large Plus)开始以确保流畅性能,然后根据测试结果进行扩展或缩减。在仪表板中监控使用情况以进行优化。完整详情请访问RunComfy定价页面。
我可以在已部署的 ComfyUI API 中使用自定义节点、模型或依赖项吗?
是的,您可以轻松在已部署的ComfyUI API中包含自定义节点、模型或依赖项。只需在ComfyUI云中保存工作流程时添加它们,如自定义节点、模型或特定库,它们将被打包到容器中。RunComfy自动重新创建您的确切环境,每次都能获得一致、可靠的结果。部署后无需额外设置,因此您可以构建符合特定需求的高级ComfyUI API。
我可以使用 RunComfy 模板部署 ComfyUI API 吗,可以自定义它们吗?
是的,RunComfy的200+模板让您快速部署ComfyUI API,提供对应最新模型的工作流程。浏览社区工作流程,分叉一个,调整节点或参数,并将其保存为您自己的。然后将其部署为定制的ComfyUI API。您的所有更改都保持私有。
部署 ComfyUI API 后有哪些 API 端点,如何使用它们?
部署ComfyUI API后,您可以使用关键操作的端点:POST用于排队推理,GET用于检查作业状态或进度,GET用于检索图像或视频等结果,POST用于取消作业。在HTTP/REST请求中使用您的deployment_id,并使用API密钥确保安全。这种异步设计保持您的ComfyUI API高效,因此您可以轻松跟踪作业。完整详情请访问RunComfy无服务器API - 异步队列端点文档。
我可以将 ComfyUI API 与我现有的技术栈集成吗?
是的,您可以轻松将ComfyUI API与现有技术栈集成。它使用简单的HTTP/REST调用和JSON数据,因此可以与curl、Python或JavaScript等常用工具配合使用。查看快速入门获取即用型代码片段以快速开始。
ComfyUI API 的自动扩展如何工作,我可以控制它来管理成本吗?
您的ComfyUI API的自动扩展在繁忙时期增加实例,在空闲时扩展到零,保持高效。您可以设置最小/最大实例、队列大小和保温时间来微调延迟和成本。您只需为活跃的GPU时间付费,停机时间无费用。这种灵活的控制帮助您运行符合流量模式的成本效益ComfyUI API。
如何监控和优化我的 ComfyUI API 性能?
您可以使用实时仪表板监控您的ComfyUI API,显示请求计数、队列时间、冷启动、执行速度和使用模式。您还可以在仪表板中查看计费数据,以根据GPU时间跟踪和优化成本。使用这些见解来调整GPU、扩展规则。这有助于您保持ComfyUI API平稳运行,快速修复问题,并有效管理费用。
如果我需要在不停机的情况下更新我的 ComfyUI 工作流程会怎样?
要在不停机的情况下更新您的ComfyUI工作流程,请将更改保存为相同名称下的新版本,这将更新打包到新容器中,同时保持您的实时ComfyUI API在当前版本上运行。准备就绪后,编辑部署以切换到新版本,这会逐步推出:现有作业在旧版本上完成,新请求使用更新。通过选择以前的版本可以随时回滚。这确保您的ComfyUI API保持稳定和可用。更多详情,请参考RunComfy无服务器API - 工作流程版本和RunComfy无服务器API - 编辑部署。
我的数据在 RunComfy 上如何保持安全?
您的工作流程运行在专用的隔离GPU上,这保证了完全的资源分离,因此任何进程或内存都不会与其他用户共享。这确保您的计算环境保持私有和独立,提供稳定性和安全性。每个ComfyUI执行环境,包括操作系统、Python运行时、ComfyUI核心、工作流程定义、模型和自定义节点,都封装在自己的安全云容器中。这些容器是持久的,允许您的整个设置在会话之间可靠地重现,同时对您保持完全私有。对这些环境的访问受到严格控制:只有您可以管理或公开您的容器化设置,包括RunComfy在内的任何第三方都无法访问,除非您明确选择共享。
ComfyUI 工作流程复杂性或 ComfyUI API 使用是否有任何限制?
大多数ComfyUI工作流程在ComfyUI API上运行顺畅。但是,非常大的模型可能需要具有更高VRAM的GPU以避免内存相关问题。您可以运行的并发作业数量取决于您的扩展配置,队列限制可以调整以适应您的工作负载。对于大容量或专门需求,企业支持可用,请通过hi@runcomfy.com联系我们。
ComfyUI API 的计费如何工作?
ComfyUI API的计费遵循按使用付费模式。您只需为GPU实际运行的确切秒数付费,为您提供完全的成本效率和灵活性。更多详情,请参阅RunComfy无服务器API - 计费文档。
如果我在使用 ComfyUI API 时遇到问题,有什么样的支持?
如果您在使用ComfyUI API时遇到问题,我们建议首先查看官方文档RunComfy无服务器API – 错误处理,其中涵盖了常见的错误代码和故障排除步骤。如果问题仍然存在或您需要额外帮助,您可以随时通过hi@runcomfy.com联系我们。
您是否为企业或团队提供服务?
是的,我们为企业和团队提供量身定制的解决方案。更多详情和定制支持,请直接通过hi@runcomfy.com联系我们。
RunComfy
版权 2025 RunComfy. 保留所有权利。RunComfy 是首选的 ComfyUI 平台,提供 ComfyUI 在线 环境和服务,以及 ComfyUI 工作流 具有惊艳的视觉效果。 RunComfy还提供 AI Playground, 帮助艺术家利用最新的AI工具创作出令人惊叹的艺术作品。