Wie man die ComfyUI API ausführt
1. Erstellen/Testen in ComfyUI Cloud
Erstelle deine eigenen ComfyUI-Workflows in der Cloud, exportiere das API-JSON des Workflows und wähle, welche Parameter du zur Laufzeit anpassen möchtest.
Verwende dann Cloud Save, um deine Knoten, Modelle, Abhängigkeiten und Laufzeit in einen reproduzierbaren Container zu bündeln, bereit zur Bereitstellung als produktionsreife ComfyUI API.

2. Workflows als API bereitstellen
Wähle einen gespeicherten Workflow, wähle die Hardware, die du benötigst, und setze einfache Autoscaling-Regeln. Einmal bereitgestellt, erhält deine ComfyUI API eine eindeutige deployment_id, die deine Apps verwenden können, um Anfragen zu senden.
Überwache die Leistung, skaliere nach Bedarf hoch oder runter und verwalte mehrere API-Versionen nahtlos.

3. Bedarfsgerechte Skalierung
Deine ComfyUI API skaliert automatisch hoch, wenn Anfragen eingehen, und skaliert auf null herunter, wenn es ruhig ist, keine zusätzliche Arbeit erforderlich.
Nach der Bereitstellung kannst du die API-Endpunkte verwenden, um Anfragen zu senden, Fortschritte zu überprüfen, Ergebnisse zu erhalten oder Jobs zu stornieren.
cURL
curl --request POST \
--url https://api.runcomfy.net/prod/v1/deployments/{DEPLOYMENT_ID}/inference \
--header "Authorization: Bearer YOUR_API_KEY" \
--header "Content-Type: application/json" \
--data '{'
"overrides": {
"6": {
"inputs": {
"text": "futuristic cityscape"
}
}
"189": {
"inputs": {
"image": "https://example.com/new-image.jpg"
}
}
}
}
Der einfachste Weg, die ComfyUI API zu verwenden
Problemlose Bereitstellung
Starte deine ComfyUI API mit einem Klick aus einem Cloud Save. Kein Docker, keine CUDA-Einrichtung, kein Kubernetes. Alles läuft mit den exakten Knoten, Modellen und Bibliotheken, die du gespeichert hast, sodass die Ergebnisse immer konsistent sind.
Hochleistungs-GPUs
Wähle die GPU-Leistung, die du benötigst, von 16GB (T4/A4000) bis 80GB (A100/H100) und bis zu 141GB (H200), damit du schwere Modelle reibungslos und zuverlässig ausführen kannst.
Bedarfsgerechte Skalierung
Deine API skaliert automatisch für Verkehrsspitzen hoch und auf null herunter, wenn sie inaktiv ist. Kontrolliere Warteschlangengröße und Warm-halten-Einstellungen, um Latenz niedrig und Kosten im Griff zu behalten.
Workflow-Versionierung
Aktualisiere mit Vertrauen. Verwalte Workflow-Versionen und verwende Rolling-Updates, um Funktionen hinzuzufügen oder zurückzusetzen, ohne laufende Jobs zu unterbrechen.
Echtzeit-Überwachung
Bleibe mit einem Live-Dashboard über die Leistung auf dem Laufenden. Sieh Anfragezahlen, Warteschlangen-Zeiten, Kaltstarts, Ausführungsgeschwindigkeit und Nutzungsmuster, um deine Einrichtung zu optimieren.
200+ einsatzbereite Vorlagen
Starte schnell mit über 200 vorgefertigten Community-Workflows. Erkunde und passe sie an deine Bedürfnisse an, speichere deine Version in der Cloud und stelle sie als deine eigene ComfyUI API in nur wenigen Minuten bereit.
Häufig gestellte Fragen
Was ist RunComfy und wie unterscheidet es sich von lokalem ComfyUI für die ComfyUI API?
RunComfy Serverless API verwandelt Ihre ComfyUI-Workflows in produktionsreife ComfyUI-APIs mit automatischer Skalierung und ohne erforderliche Operationen. Dies ermöglicht es Ihnen, sich auf den Aufbau generativer KI zu konzentrieren, ohne sich um die Infrastruktur sorgen zu müssen. Im Gegensatz zu lokalen ComfyUI-Setups, die Hardware-Management, CUDA-Setup und kontinuierliche Überwachung erfordern, übernimmt RunComfy Serverless API Deployment, Skalierung und Konsistenz in der Cloud. Ihre ComfyUI-API läuft zuverlässig auf Hochleistungs-GPUs und macht den Übergang vom Prototyp zur Produktion einfach. Für weitere Details lesen Sie bitte die RunComfy Serverless API Dokumentation.
Wie kann ich einen ComfyUI-Workflow als ComfyUI API-Service bereitstellen?
Um einen ComfyUI-Workflow als ComfyUI-API-Service auf RunComfy bereitzustellen, beginnen Sie mit dem Erstellen in ComfyUI Cloud und speichern Sie ihn zusammen mit Ihren Knoten, Modellen und Abhängigkeiten. Wählen Sie dann GPU-Hardware aus, legen Sie Autoskalierungsregeln fest und stellen Sie mit wenigen Klicks bereit. Dies erstellt eine serverlose ComfyUI-API, die automatisch skaliert, Anfragen asynchron verarbeitet und Endpunkte für Inferenzen bereitstellt. Sie haben eine einsatzbereite ComfyUI-API ohne Umgang mit Docker, Kubernetes oder manuellen Konfigurationen, alles ist reproduzierbar und konsistent.
Wie beginne ich mit der Bereitstellung eines ComfyUI-Workflows als ComfyUI API?
To deploy your ComfyUI workflow as a ComfyUI API on RunComfy, start in ComfyUI Cloud where you can easily create or edit your workflow. Once it's ready, export it as a simple API JSON file and pick the parts you want to tweak during runs, like prompts or seeds—this keeps things flexible. From there, just click Cloud Save. RunComfy takes care of the rest by bundling your workflow, nodes, models, and full setup into a ready-to-use container, so you skip all the technical headaches. Finally, deploy it by selecting your preferred GPU and basic scaling options. You'll instantly get a unique deployment ID to connect your ComfyUI API to your apps or projects. The whole thing is designed to be quick and hassle-free, letting you focus on your creative ideas while getting a scalable ComfyUI API without any DevOps work. For more details, check RunComfy Serverless API - Quickstart documentation.
Wie exportiere ich einen ComfyUI-Workflow im ComfyUI API-Format?
Für die neueste Version von ComfyUI öffnen Sie die ComfyUI-Oberfläche, finden Sie das Workflow-Menü in der oberen linken Ecke und wählen Sie "Export (API)" aus den Optionen. Dies generiert eine JSON-Datei, die alle Ihre Knoten, Eingaben, Standardwerte und Verbindungen enthält. Für ältere Versionen müssen Sie den Dev-Modus in den Einstellungen aktivieren (klicken Sie auf das Zahnradsymbol neben Queue Size oder im Menüfeld, dann aktivieren Sie die "Enable Dev mode Options" Box), wodurch der "Save (API Format)" Button im Menü erscheint.
Welche GPUs sind für die ComfyUI API verfügbar und wie wähle ich die richtige für meinen Workflow?
RunComfy bietet eine Reihe von Hochleistungs-GPUs für Ihre ComfyUI-API-Bereitstellungen, mit VRAM von 16GB für grundlegende Workflows bis 141GB für intensive Modelle. Um die richtige für Ihren ComfyUI-API-Workflow zu wählen, berücksichtigen Sie die Größe Ihres Modells und Speicheranforderungen, beginnen Sie mit etwa 48GB (wie X-Large oder X-Large Plus) für die meisten typischen Aufgaben, um reibungslose Leistung zu gewährleisten, dann skalieren Sie basierend auf Tests nach oben oder unten. Überwachen Sie die Nutzung im Dashboard zur Optimierung. Für alle Details besuchen Sie die RunComfy Preisgestaltung Seite.
Kann ich benutzerdefinierte Knoten, Modelle oder Abhängigkeiten in meiner bereitgestellten ComfyUI API verwenden?
Ja, Sie können benutzerdefinierte Knoten, Modelle oder Abhängigkeiten einfach in Ihre bereitgestellte ComfyUI-API einbeziehen. Fügen Sie sie einfach beim Speichern Ihres Workflows in ComfyUI Cloud hinzu, wie benutzerdefinierte Knoten, Modelle oder spezifische Bibliotheken, und sie werden in den Container gepackt. RunComfy erstellt automatisch Ihre exakte Umgebung für konsistente und zuverlässige Ergebnisse jedes Mal neu. Keine zusätzliche Konfiguration nach der Bereitstellung erforderlich, sodass Sie erweiterte ComfyUI-APIs erstellen können, die Ihren spezifischen Anforderungen entsprechen.
Kann ich RunComfy-Vorlagen verwenden, um eine ComfyUI API bereitzustellen, und kann ich sie anpassen?
Ja, RunComfys über 200 Vorlagen ermöglichen es Ihnen, eine ComfyUI-API schnell bereitzustellen und bieten Workflows, die zu den neuesten Modellen passen. Durchsuchen Sie Community-Workflows, forken Sie einen, passen Sie Knoten oder Parameter an und speichern Sie ihn als Ihren eigenen. Stellen Sie ihn dann als benutzerdefinierte ComfyUI-API bereit. Alle Ihre Änderungen bleiben privat.
Was sind die API-Endpunkte nach der Bereitstellung einer ComfyUI API und wie verwende ich sie?
Nach der Bereitstellung Ihrer ComfyUI-API haben Sie Endpunkte für wichtige Aktionen: POST zum Einreihen von Inferenzen, GET zum Überprüfen des Status oder Fortschritts von Aufgaben, GET zum Abrufen von Ergebnissen wie Bildern oder Videos und POST zum Abbrechen von Aufgaben. Verwenden Sie Ihre deployment_id in HTTP/REST-Anfragen mit API-Schlüsseln für Sicherheit. Dieses asynchrone Design hält Ihre ComfyUI-API effizient, sodass Sie Aufgaben einfach verfolgen können. Für alle Details besuchen Sie die RunComfy Serverless API - Async Queue Endpoints Dokumentation.
Kann ich die ComfyUI API in meinen bestehenden Tech-Stack integrieren?
Ja, Sie können die ComfyUI-API einfach in Ihren bestehenden Tech-Stack integrieren. Sie verwendet einfache HTTP/REST-Aufrufe und JSON-Daten, funktioniert also mit gängigen Tools wie curl, Python oder JavaScript. Schauen Sie sich den Quickstart für sofort einsatzbereite Code-Snippets an, um schnell zu beginnen.
Wie funktioniert Auto-Scaling für die ComfyUI API und kann ich es zur Kostenverwaltung kontrollieren?
Ja, RunComfys ComfyUI-API skaliert automatisch basierend auf der Nachfrage. Wenn Anfragen ankommen, werden Container automatisch gestartet, um sie zu verarbeiten. Während Zeiten geringer Aktivität skaliert sie herunter, um Kosten zu minimieren. Sie können Skalierungsregeln wie Idle-Timeout, Min/Max-Instanzen und Parallelitätseinstellungen konfigurieren, um sowohl Leistung als auch Kosten zu optimieren. Autoskalierung stellt sicher, dass Ihre ComfyUI-API variable Lasten effizient ohne manuelle Eingriffe bewältigt.
Wie kann ich die Leistung meiner ComfyUI API überwachen und optimieren?
Ja, RunComfy bietet umfassendes Monitoring für Ihre ComfyUI-API über das Dashboard. Sie können Echtzeit-Metriken wie Anfragen pro Sekunde, Antwortzeiten, Fehlerquoten und GPU-Auslastung anzeigen. Die Ausführungshistorie verfolgt alle Inferenzen mit Zeitstempeln, Eingaben, Ausgaben und eventuellen Fehlern. Es gibt auch Benachrichtigungen für Probleme wie Bereitstellungsfehler oder überschrittene Ratenlimits. All dies hilft Ihnen, die Leistung zu optimieren und Probleme schnell zu beheben.
Was passiert, wenn ich meinen ComfyUI-Workflow ohne Ausfallzeit aktualisieren muss?
ComfyUI-API-Bereitstellungen auf RunComfy werden automatisch mit den neuesten Versionen von ComfyUI und Abhängigkeiten aktuell gehalten. Wenn Sie einen Workflow speichern, wird die exakte Umgebung einschließlich benutzerdefinierter Knotenversionen erfasst. Für Updates speichern Sie einfach Ihren Workflow mit den neuen Versionen erneut und stellen ihn erneut bereit. RunComfy bietet auch Bereitstellungsversionierung, sodass Sie bei Bedarf zu früheren Versionen zurückkehren können. Dies stellt sicher, dass Ihre ComfyUI-API stabil bleibt, während Sie neue Features übernehmen können, wenn Sie bereit sind.
Wie werden meine Daten auf RunComfy sicher gehalten?
RunComfys ComfyUI-API umfasst mehrere Sicherheitsschichten. Alle Kommunikation verwendet HTTPS mit TLS-Verschlüsselung. API-Authentifizierung erfordert sichere Schlüssel, die Sie rotieren können. Bereitstellungen laufen in isolierten Containern mit begrenztem Zugriff auf Ressourcen. Daten werden während der Übertragung und im Ruhezustand verschlüsselt. Wir bieten auch Ratenbegrenzung und IP-Filterung zur Verhinderung von Missbrauch. Für Unternehmensanwendungen sind zusätzliche Sicherheitsfeatures wie private VPCs und SOC 2-Compliance verfügbar.
Gibt es Einschränkungen bei der Komplexität von ComfyUI-Workflows oder der Nutzung der ComfyUI API?
ComfyUI-APIs auf RunComfy haben einige zu beachtende Einschränkungen: Maximale Laufzeiten variieren je nach GPU-Typ (typischerweise 10-30 Minuten pro Anfrage), Eingabedateigrößen sind begrenzt (normalerweise bis zu 100MB pro Anfrage), und es gibt Ratenlimits zur Verhinderung von Missbrauch (konfigurierbar basierend auf Ihrem Plan). Benutzerdefinierte Knoten müssen mit der containerisierten Umgebung kompatibel sein. Für spezialisierte Anwendungsfälle oder höhere Limits kontaktieren Sie den Support für benutzerdefinierte Unternehmensoptionen.
Wie funktioniert die Abrechnung für die ComfyUI API?
Die Abrechnung für die ComfyUI-API folgt einem Pay-per-Use-Modell. Sie werden nur für die exakte Anzahl von Sekunden berechnet, in denen Ihre GPU aktiv läuft, was Ihnen vollständige Kosteneffizienz und Flexibilität bietet. Für weitere Details siehe bitte die RunComfy Serverless API - Billing Dokumentation.
Welche Art von Support ist verfügbar, wenn ich Probleme mit der ComfyUI API habe?
Wenn Sie Probleme bei der Verwendung der ComfyUI-API haben, empfehlen wir, zuerst die offizielle Dokumentation RunComfy Serverless API – Error Handling zu überprüfen, die häufige Fehlercodes und Fehlerbehebungsschritte abdeckt. Wenn das Problem weiterhin besteht oder Sie zusätzliche Hilfe benötigen, können Sie uns jederzeit unter hi@runcomfy.com kontaktieren.
Bieten Sie Dienste für Unternehmen oder Teams an?
Für Unternehmensbedürfnisse bietet RunComfy erweiterte ComfyUI-API-Features einschließlich dedizierter VPCs, benutzerdefinierter SLAs, prioritärem Support, Unternehmensabrechnung und On-Premise-Bereitstellungsoptionen. Wir bieten auch benutzerdefinierte Integration, Teamschulung und Lösungsarchitektur für groß angelegte Implementierungen. Kontaktieren Sie unser Enterprise-Sales-Team unter enterprise@runcomfy.com, um Ihre spezifischen Anforderungen zu besprechen.
Ressourcen
RunComfy
Urheberrecht 2025 RunComfy. Alle Rechte vorbehalten.RunComfy ist die führende ComfyUI Plattform, die ComfyUI online Umgebung und Services bietet, zusammen mit ComfyUI Workflows mit atemberaubenden Visualisierungen. RunComfy bietet auch AI-Spielplatz, Künstlern ermöglichen, die neuesten AI-Tools zu nutzen, um unglaubliche Kunst zu schaffen.