ComfyUI APIの実行方法
1. ComfyUI Cloudで構築/テスト
クラウドで独自のComfyUIワークフローを作成し、ワークフローのAPI JSONをエクスポートして、実行時に調整したいパラメータを選択します。
次に、Cloud Saveを使用してノード、モデル、依存関係、ランタイムを1つの再現可能なコンテナにバンドルし、プロダクショングレードのComfyUI APIとしてデプロイする準備を整えます。

2. ワークフローをAPIとしてデプロイ
保存されたワークフローを選択し、必要なハードウェアを選択し、シンプルな自動スケーリングルールを設定します。デプロイされると、ComfyUI APIは、アプリがリクエストを送信するために使用できる一意のdeployment_idを取得します。
パフォーマンスを監視し、必要に応じてスケールアップまたはダウンし、複数のAPIバージョンをシームレスに管理します。

3. オンデマンドスケール
ComfyUI APIは、リクエストが来ると自動的にスケールアップし、静かになるとゼロまでスケールダウンします。追加の作業は必要ありません。
デプロイ後、APIエンドポイントを使用してリクエストの送信、進行状況の確認、結果の取得、またはジョブのキャンセルができます。
cURL
curl --request POST \
--url https://api.runcomfy.net/prod/v1/deployments/{DEPLOYMENT_ID}/inference \
--header "Authorization: Bearer YOUR_API_KEY" \
--header "Content-Type: application/json" \
--data '{'
"overrides": {
"6": {
"inputs": {
"text": "futuristic cityscape"
}
}
"189": {
"inputs": {
"image": "https://example.com/new-image.jpg"
}
}
}
}
ComfyUI APIを使用する最も簡単な方法
手間のかからないデプロイ
Cloud SaveからワンクリックでComfyUI APIを起動します。Docker、CUDA設定、Kubernetesは不要です。保存した正確なノード、モデル、ライブラリですべてが実行されるため、結果は常に一貫しています。
高性能GPU
必要なGPU性能を選択してください。16GB(T4/A4000)から80GB(A100/H100)、最大141GB(H200)まで、重いモデルをスムーズかつ確実に実行できます。
オンデマンドスケール
APIは、トラフィックバーストに対して自動的にスケールアップし、アイドル時にはゼロまでスケールダウンします。キューサイズとキープウォーム設定を制御して、レイテンシを低く保ち、コストを抑制します。
ワークフローバージョニング
安心してアップデートしてください。ワークフローバージョンを管理し、ローリングアップデートを使用して、実行中のジョブを中断することなく機能を追加またはロールバックします。
リアルタイム監視
ライブダッシュボードでパフォーマンスを把握し続けます。リクエスト数、キュー時間、コールドスタート、実行速度、使用パターンを確認して、セットアップを最適化します。
200以上のデプロイ準備完了テンプレート
200以上の既製コミュニティワークフローで素早くスタート。ニーズに合わせて探索・カスタマイズし、バージョンをクラウドに保存し、わずか数分で独自のComfyUI APIとしてデプロイします。
よくある質問
RunComfyとは何ですか、ComfyUI APIにおいてローカルComfyUIとどう違いますか?
RunComfyサーバーレスAPIは、ComfyUIワークフローを自動スケーリングと運用不要の本番グレードComfyUI APIに変換します。これにより、インフラの心配なく生成AIの構築に集中できます。ハードウェア管理、CUDA設定、継続的な監視が必要なローカルComfyUI設定とは異なり、RunComfyサーバーレスAPIはクラウドでのデプロイ、スケーリング、一貫性を処理します。ComfyUI APIは高性能GPU上で確実に動作し、プロトタイプから本番環境への移行を簡単にします。詳細については、RunComfyサーバーレスAPIドキュメントをお読みください。
ComfyUIワークフローをComfyUI APIサービスとしてデプロイするにはどうすればよいですか?
RunComfy上でComfyUIワークフローをComfyUI APIサービスとしてデプロイするには、ComfyUI Cloudで構築し、ノード、モデル、依存関係と共に保存することから始めます。次に、GPUハードウェアを選択し、自動スケーリングルールを設定し、数回のクリックでデプロイします。これにより、自動的にスケールし、リクエストを非同期で処理し、推論のエンドポイントを提供するサーバーレスComfyUI APIが作成されます。Docker、Kubernetes、手動設定を扱うことなく、すぐに使用できるComfyUI APIが手に入り、すべてが再現可能で一貫しています。
ComfyUIワークフローをComfyUI APIとしてデプロイし始めるにはどうすればよいですか?
To deploy your ComfyUI workflow as a ComfyUI API on RunComfy, start in ComfyUI Cloud where you can easily create or edit your workflow. Once it's ready, export it as a simple API JSON file and pick the parts you want to tweak during runs, like prompts or seeds—this keeps things flexible. From there, just click Cloud Save. RunComfy takes care of the rest by bundling your workflow, nodes, models, and full setup into a ready-to-use container, so you skip all the technical headaches. Finally, deploy it by selecting your preferred GPU and basic scaling options. You'll instantly get a unique deployment ID to connect your ComfyUI API to your apps or projects. The whole thing is designed to be quick and hassle-free, letting you focus on your creative ideas while getting a scalable ComfyUI API without any DevOps work. For more details, check RunComfy Serverless API - Quickstart documentation.
ComfyUIワークフローをComfyUI API形式でエクスポートするにはどうすればよいですか?
ComfyUIの最新バージョンでは、ComfyUIインターフェースを開き、左上角のWorkflowメニューを見つけて、オプションから"Export (API)"を選択してください。これにより、すべてのノード、入力、デフォルト値、接続を含むJSONファイルが生成されます。古いバージョンでは、設定でdevモードを有効にする必要があります(Queue Sizeの横またはメニューボックスの歯車アイコンをクリックし、"Enable Dev mode Options"ボックスをチェック)、これによりメニューに"Save (API Format)"ボタンが表示されます。
ComfyUI APIで利用可能なGPUは何ですか、ワークフローに適したものをどう選べばよいですか?
RunComfyは、ComfyUI APIデプロイメント用の高性能GPUの範囲を提供し、基本的なワークフロー用の16GBから集約的なモデル用の141GBまでのVRAMを提供します。ComfyUI APIワークフローに適したものを選択するには、モデルのサイズとメモリ要件を考慮し、スムーズなパフォーマンスを確保するために、ほとんどの典型的なタスクに対して約48GB(X-LargeやX-Large Plusなど)から始め、テストに基づいてスケールアップまたはダウンします。ダッシュボードで使用状況を監視して最適化します。すべての詳細については、RunComfy価格設定ページをご覧ください。
デプロイされたComfyUI APIでカスタムノード、モデル、または依存関係を使用できますか?
はい、デプロイされたComfyUI APIにカスタムノード、モデル、または依存関係を簡単に含めることができます。ComfyUI Cloudでワークフローを保存する際に、カスタムノード、モデル、特定のライブラリなどを追加するだけで、コンテナにバンドルされます。RunComfyは毎回一貫した信頼性の高い結果のために正確な環境を自動的に再作成します。デプロイ後の追加設定は不要なので、特定のニーズに合った高度なComfyUI APIを構築できます。
RunComfyテンプレートを使用してComfyUI APIをデプロイでき、カスタマイズできますか?
はい、RunComfyの200以上のテンプレートを使用してComfyUI APIを迅速にデプロイでき、最新のモデルに対応するワークフローを提供します。コミュニティワークフローを閲覧し、フォークし、ノードやパラメータを調整して自分のものとして保存します。その後、カスタムComfyUI APIとしてデプロイします。すべての変更はプライベートのままです。
ComfyUI APIをデプロイした後のAPIエンドポイントは何ですか、どう使用しますか?
ComfyUI APIをデプロイした後、主要なアクションのエンドポイントがあります:推論をキューに入れるためのPOST、タスクの状態や進行状況を確認するためのGET、画像や動画などの結果を取得するためのGET、タスクをキャンセルするためのPOST。セキュリティのためのAPIキーと共に、HTTP/RESTリクエストでdeployment_idを使用します。この非同期設計はComfyUI APIを効率的に保つので、タスクを簡単に追跡できます。すべての詳細については、RunComfyサーバーレスAPI - 非同期キューエンドポイントドキュメントをご覧ください。
ComfyUI APIを既存の技術スタックと統合できますか?
はい、ComfyUI APIを既存の技術スタックと簡単に統合できます。シンプルなHTTP/REST呼び出しとJSONデータを使用するため、curl、Python、JavaScriptなどの一般的なツールで動作します。迅速に開始するためのすぐに使えるコードスニペットについては、クイックスタートをご覧ください。
ComfyUI APIの自動スケーリングはどう機能し、コスト管理のために制御できますか?
はい、RunComfyのComfyUI APIは需要に基づいて自動的にスケールします。リクエストが到着すると、コンテナが自動的に開始されて処理します。低活動期間中は、コストを最小化するためにスケールダウンします。アイドルタイムアウト、最小/最大インスタンス、並行性設定などのスケーリングルールを設定して、パフォーマンスとコストの両方を最適化できます。自動スケーリングにより、ComfyUI APIは手動介入なしに可変負荷を効率的に処理します。
ComfyUI APIのパフォーマンスをどう監視・最適化できますか?
はい、RunComfyはダッシュボードを通じてComfyUI APIの包括的な監視を提供します。1秒あたりのリクエスト、応答時間、エラー率、GPU使用率などのリアルタイムメトリクスを表示できます。実行履歴は、タイムスタンプ、入力、出力、エラーを含むすべての推論を追跡します。デプロイメント失敗やレート制限超過などの問題に対するアラートもあります。これらすべてがパフォーマンスの最適化と迅速なトラブルシューティングに役立ちます。
ダウンタイムなしでComfyUIワークフローを更新する必要がある場合はどうなりますか?
RunComfyのComfyUI APIデプロイメントは、ComfyUIと依存関係の最新バージョンで自動的に最新の状態に保たれます。ワークフローを保存すると、カスタムノードのバージョンを含む正確な環境がキャプチャされます。更新の場合は、新しいバージョンでワークフローを再保存し、再デプロイするだけです。RunComfyはデプロイメントのバージョニングも提供するため、必要に応じて以前のバージョンにロールバックできます。これにより、ComfyUI APIが安定したままで、準備ができたときに新機能を採用できます。
RunComfyで私のデータはどのように安全に保たれますか?
RunComfyのComfyUI APIには複数のセキュリティ層が含まれています。すべての通信はTLS暗号化でHTTPSを使用します。API認証には、ローテーション可能な安全なキーが必要です。デプロイメントは、リソースへの制限されたアクセスを持つ分離されたコンテナで実行されます。データは転送中および保存時に暗号化されます。また、悪用を防ぐためのレート制限とIPフィルタリングも提供します。エンタープライズアプリケーションの場合、プライベートVPCやSOC 2コンプライアンスなどの追加のセキュリティ機能が利用可能です。
ComfyUIワークフローの複雑さやComfyUI APIの使用に制限はありますか?
RunComfyのComfyUI APIには考慮すべきいくつかの制限があります:最大実行時間はGPUタイプによって異なり(通常リクエストあたり10-30分)、入力ファイルサイズは制限されており(通常リクエストあたり最大100MB)、悪用を防ぐためのレート制限があります(プランに基づいて設定可能)。カスタムノードはコンテナ化された環境と互換性がある必要があります。特殊な使用例やより高い制限については、カスタムエンタープライズオプションについてサポートにお問い合わせください。
ComfyUI APIの請求はどう機能しますか?
ComfyUI APIの課金は従量課金モデルに従います。GPUが実際に実行されている正確な秒数のみが課金され、完全なコスト効率性と柔軟性を提供します。詳細については、RunComfyサーバーレスAPI - 課金ドキュメントをご覧ください。
ComfyUI APIで問題が発生した場合、どのようなサポートが利用できますか?
ComfyUI APIの使用で問題が発生した場合、まず一般的なエラーコードとトラブルシューティング手順をカバーする公式ドキュメントRunComfyサーバーレスAPI – エラーハンドリングを確認することをお勧めします。問題が解決しない場合や追加のヘルプが必要な場合は、いつでもhi@runcomfy.comまでご連絡ください。
企業やチーム向けのサービスを提供していますか?
エンタープライズのニーズに対して、RunComfyは専用VPC、カスタムSLA、優先サポート、エンタープライズ課金、オンプレミスデプロイメントオプションを含む高度なComfyUI API機能を提供します。また、大規模実装のためのカスタム統合、チーム研修、ソリューションアーキテクチャも提供します。特定の要件について話し合うには、enterprise@runcomfy.comのエンタープライズセールスチームにお問い合わせください。
RunComfy
著作権 2025 RunComfy. All Rights Reserved.RunComfyは最高の ComfyUI プラットフォームです。次のものを提供しています: ComfyUIオンライン 環境とサービス、および ComfyUIワークフロー 魅力的なビジュアルが特徴です。 RunComfyはまた提供します AI Playground, アーティストが最新のAIツールを活用して素晴らしいアートを作成できるようにする。