如何運行 ComfyUI API
1. 在 ComfyUI 雲中構建/測試
在雲中創建您自己的 ComfyUI 工作流程,導出工作流程的 API JSON,並選擇您希望在運行時調整的參數。
然後,使用雲保存將您的節點、模型、依賴項和運行時打包成一個可重現的容器,準備部署為生產級 ComfyUI API。

2. 將工作流程部署為 API
選擇一個已保存的工作流程,選擇您需要的硬體,並設置簡單的自動擴展規則。部署後,您的 ComfyUI API 將獲得一個唯一的 deployment_id,您的應用程式可以使用它來發送請求。
監控性能,根據需要擴展或縮減,並無縫管理多個 API 版本。

3. 按需擴展
您的 ComfyUI API 在請求到來時自動擴展,在空閒時縮減到零,無需額外工作。
部署後,您可以使用 API 端點發送請求、檢查進度、獲取結果或取消作業。
cURL
curl --request POST \
--url https://api.runcomfy.net/prod/v1/deployments/{DEPLOYMENT_ID}/inference \
--header "Authorization: Bearer YOUR_API_KEY" \
--header "Content-Type: application/json" \
--data '{'
"overrides": {
"6": {
"inputs": {
"text": "futuristic cityscape"
}
}
"189": {
"inputs": {
"image": "https://example.com/new-image.jpg"
}
}
}
}
使用 ComfyUI API 的最簡單方式
無憂部署
一鍵從雲保存啟動您的 ComfyUI API。無需 Docker、無需 CUDA 設置、無需 Kubernetes。一切都使用您保存的確切節點、模型和庫運行,因此結果始終一致。
高性能 GPU
選擇您需要的 GPU 性能,從 16GB(T4/A4000)到 80GB(A100/H100)以及高達 141GB(H200),讓您能夠順暢可靠地運行重型模型。
按需擴展
您的 API 在流量突發時自動擴展,空閒時縮減到零。控制隊列大小和保持溫暖設置,以保持低延遲並控制成本。
工作流程版本控制
放心更新。管理工作流程版本,使用滾動更新添加功能或回滾,而不會中斷正在運行的作業。
即時監控
透過即時儀表板掌握性能狀況。查看請求計數、隊列時間、冷啟動、執行速度和使用模式,以優化您的設置。
200+ 即用型部署模板
使用 200 多個現成的社群工作流程快速開始。探索並自訂它們以滿足您的需求,將您的版本保存到雲端,並在幾分鐘內將其部署為您自己的 ComfyUI API。
常見問題
什麼是 RunComfy,它與本地 ComfyUI 在 ComfyUI API 方面有何不同?
RunComfy無伺服器API將您的ComfyUI工作流程轉換為生產級ComfyUI API,具有自動擴展功能且無需運維。這讓您可以專注於構建生成式AI,無需擔心基礎設施問題。與需要硬體管理、CUDA設置和持續監控的本地ComfyUI設置不同,RunComfy無伺服器API在雲端處理部署、擴展和一致性。您的ComfyUI API在高性能GPU上可靠運行,輕鬆從原型到生產。更多詳情,請閱讀RunComfy無伺服器API文檔。
如何將 ComfyUI 工作流程部署為 ComfyUI API 服務?
要在RunComfy上將ComfyUI工作流程部署為ComfyUI API服務,首先在ComfyUI雲中構建它並與您的節點、模型和依賴項一起保存。然後,選擇GPU硬體,設置自動擴展規則,並通過幾次點擊進行部署。這將創建一個無伺服器ComfyUI API,可自動擴展、異步處理請求並提供推理端點。您將擁有一個即用型ComfyUI API,無需處理Docker、Kubernetes或手動配置,一切都是可重現和一致的。
如何開始將ComfyUI工作流程部署為ComfyUI API?
要在RunComfy上將您的ComfyUI工作流程部署為ComfyUI API,請從ComfyUI雲開始,您可以輕鬆創建或編輯您的工作流程。準備就緒後,將其導出為簡單的API JSON檔案,並選擇您希望在運行期間調整的部分,如提示詞或種子——這保持了靈活性。然後,只需點擊雲保存。RunComfy負責其餘工作,將您的工作流程、節點、模型和完整設置打包到即用型容器中,讓您跳過所有技術麻煩。最後,透過選擇您首選的GPU和基本擴展選項來部署它。您將立即獲得一個唯一的部署ID,用於將您的ComfyUI API連接到您的應用程式或專案。整個過程設計得快速無憂,讓您專注於創意想法,同時獲得可擴展的ComfyUI API,無需任何DevOps工作。更多詳情,請查看RunComfy無伺服器API - 快速入門文檔。
如何以ComfyUI API格式導出ComfyUI工作流程?
對於最新版本的ComfyUI,打開ComfyUI介面,在左上角找到工作流程選單,從選項中選擇"導出(API)"。這將生成一個包含所有節點、輸入、預設值和連接的JSON檔案。對於較舊版本,您需要在設置中啟用開發者模式(點擊隊列大小旁邊的齒輪圖標或選單框,然後勾選"啟用開發者模式選項"框),這將使"保存(API格式)"按鈕出現在選單中。
ComfyUI API可以使用哪些GPU,我該如何為我的工作流程選擇合適的GPU?
RunComfy為您的ComfyUI API部署提供一系列高性能GPU,VRAM從基礎工作流程的16GB到密集型模型的141GB。要為您的ComfyUI API工作流程選擇合適的GPU,請考慮您模型的大小和記憶體需求,對於大多數典型任務,建議從約48GB(如X-Large或X-Large Plus)開始以確保流暢性能,然後根據測試結果進行擴展或縮減。在儀表板中監控使用情況以進行優化。完整詳情請訪問RunComfy定價頁面。
我可以在已部署的ComfyUI API中使用自定義節點、模型或依賴項嗎?
是的,您可以輕鬆在已部署的ComfyUI API中包含自定義節點、模型或依賴項。只需在ComfyUI雲中保存工作流程時添加它們,如自定義節點、模型或特定庫,它們將被打包到容器中。RunComfy自動重新創建您的確切環境,每次都能獲得一致、可靠的結果。部署後無需額外設置,因此您可以構建符合特定需求的高級ComfyUI API。
我可以使用RunComfy模板部署ComfyUI API嗎,我可以自定義它們嗎?
是的,RunComfy的200+模板讓您快速部署ComfyUI API,提供對應最新模型的工作流程。瀏覽社群工作流程,分叉一個,調整節點或參數,並將其保存為您自己的。然後將其部署為定制的ComfyUI API。您的所有更改都保持私有。
部署ComfyUI API後,API端點是什麼,如何使用它們?
部署ComfyUI API後,您可以使用關鍵操作的端點:POST用於排隊推理,GET用於檢查作業狀態或進度,GET用於檢索圖像或視頻等結果,POST用於取消作業。在HTTP/REST請求中使用您的deployment_id,並使用API密鑰確保安全。這種異步設計保持您的ComfyUI API高效,因此您可以輕鬆跟踪作業。完整詳情請訪問RunComfy無伺服器API - 異步隊列端點文檔。
我可以將ComfyUI API與我現有的技術棧整合嗎?
是的,您可以輕鬆將ComfyUI API與現有技術棧整合。它使用簡單的HTTP/REST調用和JSON數據,因此可以與curl、Python或JavaScript等常用工具配合使用。查看快速入門獲取即用型代碼片段以快速開始。
ComfyUI API的自動擴展如何工作,我可以控制它來管理成本嗎?
您的ComfyUI API的自動擴展在繁忙時期增加實例,在空閒時擴展到零,保持高效。您可以設置最小/最大實例、隊列大小和保溫時間來微調延遲和成本。您只需為活躍的GPU時間付費,停機時間無費用。這種靈活的控制幫助您運行符合流量模式的成本效益ComfyUI API。
我如何監控和優化ComfyUI API的性能?
您可以使用實時儀表板監控您的ComfyUI API,顯示請求計數、隊列時間、冷啟動、執行速度和使用模式。您還可以在儀表板中查看計費數據,以根據GPU時間跟踪和優化成本。使用這些見解來調整GPU、擴展規則。這有助於您保持ComfyUI API平穩運行,快速修復問題,並有效管理費用。
如果我需要在不停機的情況下更新ComfyUI工作流程會怎樣?
要在不停機的情況下更新您的ComfyUI工作流程,請將更改保存為相同名稱下的新版本,這將更新打包到新容器中,同時保持您的實時ComfyUI API在當前版本上運行。準備就緒後,編輯部署以切換到新版本,這會逐步推出:現有作業在舊版本上完成,新請求使用更新。通過選擇以前的版本可以隨時回滾。這確保您的ComfyUI API保持穩定和可用。更多詳情,請參考RunComfy無伺服器API - 工作流程版本和RunComfy無伺服器API - 編輯部署。
我的數據在RunComfy上如何保持安全?
您的工作流程運行在專用的隔離GPU上,這保證了完全的資源分離,因此任何進程或內存都不會與其他用戶共享。這確保您的計算環境保持私有和獨立,提供穩定性和安全性。每個ComfyUI執行環境,包括操作系統、Python運行時、ComfyUI核心、工作流程定義、模型和自定義節點,都封裝在自己的安全雲容器中。這些容器是持久的,允許您的整個設置在會話之間可靠地重現,同時對您保持完全私有。對這些環境的訪問受到嚴格控制:只有您可以管理或公開您的容器化設置,包括RunComfy在內的任何第三方都無法訪問,除非您明確選擇共享。
ComfyUI工作流程複雜性或ComfyUI API使用是否有任何限制?
大多數ComfyUI工作流程在ComfyUI API上運行順暢。但是,非常大的模型可能需要具有更高VRAM的GPU以避免內存相關問題。您可以運行的並發作業數量取決於您的擴展配置,隊列限制可以調整以適應您的工作負載。對於大容量或專門需求,企業支持可用,請通過hi@runcomfy.com聯繫我們。
ComfyUI API的計費如何工作?
ComfyUI API的計費遵循按使用付費模式。您只需為GPU實際運行的確切秒數付費,為您提供完全的成本效率和靈活性。更多詳情,請參閱RunComfy無伺服器API - 計費文檔。
如果我在使用ComfyUI API時遇到問題,有什麼樣的支持?
如果您在使用ComfyUI API時遇到問題,我們建議首先查看官方文檔RunComfy無伺服器API – 錯誤處理,其中涵蓋了常見的錯誤代碼和故障排除步驟。如果問題仍然存在或您需要額外幫助,您可以隨時通過hi@runcomfy.com聯繫我們。
您是否為企業或團隊提供服務?
是的,我們為企業和團隊提供量身定制的解決方案。更多詳情和定制支持,請直接通過hi@runcomfy.com聯繫我們。
RunComfy
版權 2025 RunComfy. 保留所有權利。RunComfy 是首選的 ComfyUI 平台,提供 ComfyUI 在線 環境和服務,以及 ComfyUI 工作流程 具有驚豔的視覺效果。 RunComfy還提供 AI Playground, 幫助藝術家利用最新的AI工具創作出令人驚艷的藝術作品。