Comment Exécuter l'API ComfyUI
1. Construire/Tester dans ComfyUI Cloud
Créez vos propres workflows ComfyUI dans le cloud, exportez le JSON API du workflow et choisissez les paramètres que vous voulez ajuster à l'exécution.
Ensuite, utilisez Cloud Save pour regrouper vos nœuds, modèles, dépendances et environnement d'exécution en un conteneur reproductible, prêt à déployer comme une API ComfyUI de niveau production.

2. Déployer les Workflows comme une API
Choisissez un workflow sauvegardé, sélectionnez le matériel dont vous avez besoin et définissez des règles de mise à l'échelle automatique simples. Une fois déployée, votre API ComfyUI obtient un deployment_id unique que vos applications peuvent utiliser pour envoyer des requêtes.
Surveillez les performances, augmentez ou diminuez l'échelle selon les besoins et gérez plusieurs versions d'API de manière transparente.

3. Mise à l'Échelle à la Demande
Votre API ComfyUI s'adapte automatiquement lorsque les requêtes arrivent et se réduit à zéro lorsque les choses sont calmes, aucun travail supplémentaire nécessaire.
Après le déploiement, vous pouvez utiliser les points de terminaison de l'API pour envoyer des requêtes, vérifier les progrès, obtenir des résultats ou annuler des tâches.
cURL
curl --request POST \
--url https://api.runcomfy.net/prod/v1/deployments/{DEPLOYMENT_ID}/inference \
--header "Authorization: Bearer YOUR_API_KEY" \
--header "Content-Type: application/json" \
--data '{'
"overrides": {
"6": {
"inputs": {
"text": "futuristic cityscape"
}
}
"189": {
"inputs": {
"image": "https://example.com/new-image.jpg"
}
}
}
}
La Façon la Plus Simple d'Utiliser l'API ComfyUI
Déploiement Sans Tracas
Lancez votre API ComfyUI en un clic depuis un Cloud Save. Pas de Docker, pas de configuration CUDA, pas de Kubernetes. Tout fonctionne avec les nœuds, modèles et bibliothèques exacts que vous avez sauvegardés, donc les résultats sont toujours cohérents.
GPUs Haute Performance
Choisissez la puissance GPU dont vous avez besoin, de 16GB (T4/A4000) à 80GB (A100/H100) et jusqu'à 141GB (H200), pour pouvoir exécuter des modèles lourds de manière fluide et fiable.
Scale On-Demand
Votre API s'adapte automatiquement aux pics de trafic et se réduit à zéro en cas d'inactivité. Contrôlez les tailles de file d'attente et les paramètres de maintien au chaud pour maintenir une faible latence et contrôler les coûts.
Versioning des Workflows
Mettez à jour en toute confiance. Gérez les versions des workflows et utilisez les mises à jour progressives pour ajouter des fonctionnalités ou revenir en arrière sans interrompre les tâches en cours.
Surveillance en Temps Réel
Restez au courant des performances avec un tableau de bord en direct. Voyez les comptes de requêtes, les temps de file d'attente, les démarrages à froid, la vitesse d'exécution et les modèles d'utilisation pour optimiser votre configuration.
200+ Modèles Prêts à Déployer
Commencez rapidement avec plus de 200 workflows communautaires prêts à l'emploi. Explorez et personnalisez-les selon vos besoins, sauvegardez votre version dans le cloud et déployez-la comme votre propre API ComfyUI en quelques minutes.
Questions Fréquemment Posées
Qu'est-ce que RunComfy et en quoi diffère-t-il du ComfyUI local pour l'API ComfyUI ?
L'API sans serveur RunComfy transforme vos workflows ComfyUI en APIs ComfyUI de niveau production avec mise à l'échelle automatique et aucune opération nécessaire. Cela vous permet de vous concentrer sur la construction d'IA générative sans soucis d'infrastructure. Contrairement aux configurations ComfyUI locales qui nécessitent la gestion du matériel, la configuration CUDA et la surveillance continue, l'API sans serveur RunComfy gère le déploiement, la mise à l'échelle et la cohérence dans le cloud. Votre API ComfyUI fonctionne de manière fiable sur des GPUs haute performance, facilitant le passage du prototype à la production. Pour plus de détails, veuillez lire la documentation RunComfy Serverless API.
Comment puis-je déployer un workflow ComfyUI comme un service d'API ComfyUI ?
Pour déployer un workflow ComfyUI comme service d'API ComfyUI sur RunComfy, commencez par le construire dans ComfyUI Cloud et le sauvegarder avec vos nœuds, modèles et dépendances. Ensuite, sélectionnez le matériel GPU, définissez les règles de mise à l'échelle automatique et déployez en quelques clics. Cela crée une API ComfyUI sans serveur qui s'adapte automatiquement, traite les requêtes de manière asynchrone et fournit des points de terminaison pour les inférences. Vous aurez une API ComfyUI prête à l'emploi sans traiter avec Docker, Kubernetes ou des configurations manuelles, tout est reproductible et cohérent.
Comment commencer à déployer un workflow ComfyUI comme une API ComfyUI ?
To deploy your ComfyUI workflow as a ComfyUI API on RunComfy, start in ComfyUI Cloud where you can easily create or edit your workflow. Once it's ready, export it as a simple API JSON file and pick the parts you want to tweak during runs, like prompts or seeds—this keeps things flexible. From there, just click Cloud Save. RunComfy takes care of the rest by bundling your workflow, nodes, models, and full setup into a ready-to-use container, so you skip all the technical headaches. Finally, deploy it by selecting your preferred GPU and basic scaling options. You'll instantly get a unique deployment ID to connect your ComfyUI API to your apps or projects. The whole thing is designed to be quick and hassle-free, letting you focus on your creative ideas while getting a scalable ComfyUI API without any DevOps work. For more details, check RunComfy Serverless API - Quickstart documentation.
Comment exporter un workflow ComfyUI au format d'API ComfyUI ?
Pour la dernière version de ComfyUI, ouvrez l'interface ComfyUI, localisez le menu Workflow dans le coin supérieur gauche et sélectionnez "Export (API)" dans les options. Cela générera un fichier JSON qui inclut tous vos nœuds, entrées, valeurs par défaut et connexions. Pour les versions antérieures, vous devez activer le mode dev dans les paramètres (cliquez sur l'icône d'engrenage à côté de Queue Size ou dans la boîte de menu, puis cochez la case "Enable Dev mode Options"), ce qui fera apparaître le bouton "Save (API Format)" dans le menu.
Quels GPUs sont disponibles pour l'API ComfyUI et comment choisir le bon pour mon workflow ?
RunComfy offre une gamme de GPUs haute performance pour vos déploiements d'API ComfyUI, avec VRAM de 16GB pour les workflows de base à 141GB pour les modèles intensifs. Pour choisir le bon pour votre workflow d'API ComfyUI, considérez la taille de votre modèle et les besoins en mémoire, commencez avec environ 48GB (comme X-Large ou X-Large Plus) pour la plupart des tâches typiques pour assurer une performance fluide, puis ajustez vers le haut ou le bas selon les tests. Surveillez l'utilisation dans le tableau de bord pour optimiser. Pour tous les détails, visitez la page RunComfy Pricing.
Puis-je utiliser des nœuds personnalisés, des modèles ou des dépendances dans mon API ComfyUI déployée ?
Oui, vous pouvez facilement inclure des nœuds personnalisés, des modèles ou des dépendances dans votre API ComfyUI déployée. Ajoutez-les simplement lors de la sauvegarde de votre workflow dans ComfyUI Cloud, comme des nœuds personnalisés, des modèles ou des bibliothèques spécifiques, et ils seront regroupés dans le conteneur. RunComfy recrée automatiquement votre environnement exact pour des résultats cohérents et fiables à chaque fois. Aucune configuration supplémentaire n'est requise après le déploiement, vous pouvez donc construire des APIs ComfyUI avancées qui correspondent à vos besoins spécifiques.
Puis-je utiliser les modèles RunComfy pour déployer une API ComfyUI et puis-je les personnaliser ?
Oui, les plus de 200 modèles de RunComfy vous permettent de déployer une API ComfyUI rapidement, fournissant des workflows correspondant aux derniers modèles. Parcourez les workflows communautaires, forkez-en un, ajustez les nœuds ou paramètres et sauvegardez-le comme le vôtre. Puis déployez-le comme une API ComfyUI personnalisée. Tous vos changements restent privés.
Quels sont les points de terminaison de l'API après le déploiement d'une API ComfyUI et comment les utiliser ?
Après le déploiement de votre API ComfyUI, vous avez des points de terminaison pour les actions clés : POST pour mettre en file d'attente les inférences, GET pour vérifier le statut ou le progrès des tâches, GET pour récupérer les résultats comme les images ou vidéos, et POST pour annuler les tâches. Utilisez votre deployment_id dans les requêtes HTTP/REST, avec des clés API pour la sécurité. Cette conception asynchrone maintient votre API ComfyUI efficace, vous pouvez donc suivre les tâches facilement. Pour tous les détails, visitez la documentation RunComfy Serverless API - Async Queue Endpoints.
Puis-je intégrer l'API ComfyUI avec ma pile technologique existante ?
Oui, vous pouvez facilement intégrer l'API ComfyUI avec votre pile technologique existante. Elle utilise des appels HTTP/REST simples et des données JSON, donc elle fonctionne avec des outils courants comme curl, Python ou JavaScript. Consultez le Quickstart pour des extraits de code prêts à l'emploi pour commencer rapidement.
Comment fonctionne la mise à l'échelle automatique pour l'API ComfyUI et puis-je la contrôler pour gérer les coûts ?
Auto-scaling for your ComfyUI API increases instances during busy times and scales to zero when idle, keeping things efficient. You can set min/max instances, queue sizes, and keep-warm times to fine-tune latency and costs. You're only charged for active GPU time, with no fees for downtime. This flexible control helps you run a cost-effective ComfyUI API that matches your traffic patterns.
Comment puis-je surveiller et optimiser les performances de mon API ComfyUI ?
You can monitor your ComfyUI API with a real-time dashboard that shows request counts, queue times, cold starts, execution speeds, and usage patterns. You can also review billing data in the dashboard to track and optimize costs based on GPU time. Use these insights to adjust GPUs, scaling rules. This helps you keep your ComfyUI API running smoothly, fix issues fast, and manage expenses effectively.
Que se passe-t-il si je dois mettre à jour mon workflow ComfyUI sans temps d'arrêt ?
To update your ComfyUI workflow without downtime, save changes as a new version under the same name, this bundles the updates into a fresh container while keeping your live ComfyUI API running on the current version. When ready, edit the deployment to switch to the new version, which rolls out gradually: existing jobs complete on the old one, and new requests use the update. Roll back anytime by selecting a previous version. This ensures your ComfyUI API stays stable and available. For more details, refer to RunComfy Serverless API - Workflow Versions and RunComfy Serverless API - Edit a Deployment.
Comment mes données sont-elles maintenues sécurisées sur RunComfy ?
Your workflows run on dedicated, isolated GPUs, which guarantees complete resource separation so that no processes or memory are ever shared with other users. This ensures that your computation environment remains private and independent, providing both stability and security. Each ComfyUI execution environment, including the operating system, Python runtime, ComfyUI core, workflow definitions, models, and custom nodes, is encapsulated in its own secure cloud container. These containers are persistent, allowing your entire setup to be reliably reproduced across sessions while remaining fully private to you. Access to these environments is strictly controlled: only you can manage or expose your containerized setup, and no third party, including RunComfy, can access it unless you explicitly choose to share.
Y a-t-il des limitations sur la complexité du workflow ComfyUI ou l'utilisation de l'API ComfyUI ?
Most ComfyUI workflows run smoothly with the ComfyUI API. However, very large models may require GPUs with higher VRAM to avoid memory-related issues. The number of concurrent jobs you can run depends on your scaling configuration, and queue limits can be adjusted to fit your workload. For high-volume or specialized needs, enterprise support is available, please reach out to us at hi@runcomfy.com.
Comment fonctionne la facturation pour l'API ComfyUI ?
La facturation pour l'API ComfyUI suit un modèle de paiement à l'usage. Vous n'êtes facturé que pour le nombre exact de secondes pendant lesquelles votre GPU fonctionne activement, vous offrant une efficacité de coût complète et une flexibilité. Pour plus de détails, veuillez consulter la documentation RunComfy Serverless API - Billing.
Quel type de support est disponible si je rencontre des problèmes avec l'API ComfyUI ?
Si vous rencontrez des problèmes lors de l'utilisation de l'API ComfyUI, nous recommandons de d'abord vérifier la documentation officielle RunComfy Serverless API – Error Handling, qui couvre les codes d'erreur courants et les étapes de dépannage. Si le problème persiste ou vous avez besoin d'aide supplémentaire, vous pouvez toujours nous contacter à hi@runcomfy.com.
Offrez-vous des services pour les entreprises ou les équipes ?
Yes, we provide solutions tailored for enterprises and teams. For more details and customized support, please contact us directly at hi@runcomfy.com.
Ressources
RunComfy
Droits d'auteur 2025 RunComfy. Tous droits réservés.RunComfy est la première ComfyUI plateforme, offrant des ComfyUI en ligne environnement et services, ainsi que des workflows ComfyUI proposant des visuels époustouflants. RunComfy propose également AI Playground, permettant aux artistes d'utiliser les derniers outils d'IA pour créer des œuvres d'art incroyables.