Come Eseguire l'API ComfyUI
1. Costruisci/Testa in ComfyUI Cloud
Crea i tuoi workflow ComfyUI nel cloud, esporta il JSON API del workflow e scegli quali parametri vuoi regolare durante l'esecuzione.
Quindi, usa Cloud Save per raggruppare i tuoi nodi, modelli, dipendenze e runtime in un contenitore riproducibile, pronto per essere distribuito come API ComfyUI di livello produzione.

2. Distribuisci Workflow come API
Scegli un workflow salvato, seleziona l'hardware di cui hai bisogno e imposta semplici regole di autoscaling. Una volta distribuita, la tua API ComfyUI ottiene un deployment_id unico che le tue app possono usare per inviare richieste.
Monitora le prestazioni, scala su o giù secondo necessità e gestisci più versioni API senza problemi.

3. Scala su Richiesta
La tua API ComfyUI scala automaticamente quando arrivano le richieste e scala a zero quando le cose sono tranquille, nessun lavoro extra necessario.
Dopo la distribuzione, puoi usare gli endpoint API per inviare richieste, controllare i progressi, ottenere risultati o annullare lavori.
cURL
curl --request POST \
--url https://api.runcomfy.net/prod/v1/deployments/{DEPLOYMENT_ID}/inference \
--header "Authorization: Bearer YOUR_API_KEY" \
--header "Content-Type: application/json" \
--data '{'
"overrides": {
"6": {
"inputs": {
"text": "futuristic cityscape"
}
}
"189": {
"inputs": {
"image": "https://example.com/new-image.jpg"
}
}
}
}
Il Modo Più Semplice per Usare l'API ComfyUI
Distribuzione Senza Problemi
Lancia la tua API ComfyUI con un clic da un Cloud Save. Niente Docker, niente configurazione CUDA, niente Kubernetes. Tutto funziona con gli esatti nodi, modelli e librerie che hai salvato, quindi i risultati sono sempre coerenti.
GPU ad Alte Prestazioni
Scegli la potenza GPU di cui hai bisogno, da 16GB (T4/A4000) a 80GB (A100/H100) e fino a 141GB (H200), così puoi eseguire modelli pesanti in modo fluido e affidabile.
Scale On-Demand
La tua API scala automaticamente per i picchi di traffico e fino a zero quando inattiva. Controlla le dimensioni delle code e le impostazioni keep-warm per mantenere bassa la latenza e i costi sotto controllo.
Versionamento Workflow
Aggiorna con fiducia. Gestisci le versioni dei workflow e usa aggiornamenti graduali per aggiungere funzionalità o tornare indietro senza interrompere i lavori in esecuzione.
Monitoraggio in Tempo Reale
Resta al passo con le prestazioni con una dashboard dal vivo. Vedi conteggi richieste, tempi di coda, avvii a freddo, velocità di esecuzione e pattern di utilizzo per ottimizzare la tua configurazione.
200+ Template Pronti per la Distribuzione
Inizia velocemente con oltre 200 workflow della community già pronti. Esplorarli e personalizzali per adattarli alle tue esigenze, salva la tua versione nel cloud e distribuiscila come tua API ComfyUI in pochi minuti.
Domande Frequenti
Cos'è RunComfy e come differisce dal ComfyUI locale per l'API ComfyUI?
L'API serverless di RunComfy trasforma i tuoi workflow ComfyUI in API ComfyUI di livello produzione con auto-scaling e nessuna operazione necessaria. Questo ti permette di concentrarti sulla costruzione di IA generativa senza preoccupazioni infrastrutturali. A differenza delle configurazioni ComfyUI locali che richiedono gestione hardware, setup CUDA e monitoraggio continuo, l'API serverless di RunComfy gestisce deployment, scaling e consistenza nel cloud. La tua API ComfyUI funziona affidabilmente su GPU ad alte prestazioni, rendendo facile passare dal prototipo alla produzione. Per maggiori dettagli, leggi la documentazione RunComfy Serverless API.
Come posso distribuire un workflow ComfyUI come servizio API ComfyUI?
Per distribuire un workflow ComfyUI come servizio API ComfyUI su RunComfy, inizia costruendolo in ComfyUI Cloud e salvandolo insieme ai tuoi nodi, modelli e dipendenze. Poi, seleziona l'hardware GPU, imposta regole di autoscaling e distribuisci con pochi clic. Questo crea un'API ComfyUI serverless che scala automaticamente, elabora richieste in modo asincrono e fornisce endpoint per inferenze. Avrai un'API ComfyUI pronta all'uso senza dover gestire Docker, Kubernetes o configurazioni manuali, tutto è riproducibile e consistente.
Come inizio a distribuire un workflow ComfyUI come API ComfyUI?
To deploy your ComfyUI workflow as a ComfyUI API on RunComfy, start in ComfyUI Cloud where you can easily create or edit your workflow. Once it's ready, export it as a simple API JSON file and pick the parts you want to tweak during runs, like prompts or seeds—this keeps things flexible. From there, just click Cloud Save. RunComfy takes care of the rest by bundling your workflow, nodes, models, and full setup into a ready-to-use container, so you skip all the technical headaches. Finally, deploy it by selecting your preferred GPU and basic scaling options. You'll instantly get a unique deployment ID to connect your ComfyUI API to your apps or projects. The whole thing is designed to be quick and hassle-free, letting you focus on your creative ideas while getting a scalable ComfyUI API without any DevOps work. For more details, check RunComfy Serverless API - Quickstart documentation.
Come esporto un workflow ComfyUI nel formato API ComfyUI?
Per l'ultima versione di ComfyUI, apri l'interfaccia ComfyUI, trova il menu Workflow nell'angolo in alto a sinistra e seleziona "Export (API)" dalle opzioni. Questo genererà un file JSON che include tutti i tuoi nodi, input, valori predefiniti e connessioni. Per le versioni precedenti, devi abilitare la modalità dev nelle impostazioni (clicca l'icona dell'ingranaggio accanto a Queue Size o nella casella del menu, poi spunta la casella "Enable Dev mode Options"), che farà apparire il pulsante "Save (API Format)" nel menu.
Quali GPU sono disponibili per l'API ComfyUI e come scelgo quella giusta per il mio workflow?
RunComfy offre una gamma di GPU ad alte prestazioni per i tuoi deployment di API ComfyUI, con VRAM da 16GB per workflow di base fino a 141GB per modelli intensivi. Per scegliere quella giusta per il tuo workflow API ComfyUI, considera le dimensioni del tuo modello e i requisiti di memoria, inizia con circa 48GB (come X-Large o X-Large Plus) per la maggior parte delle attività tipiche per garantire prestazioni fluide, poi scala su o giù basandoti sui test. Monitora l'utilizzo nel dashboard per ottimizzare. Per tutti i dettagli, visita la pagina RunComfy Pricing.
Posso usare nodi personalizzati, modelli o dipendenze nella mia API ComfyUI distribuita?
Sì, puoi facilmente includere nodi personalizzati, modelli o dipendenze nella tua API ComfyUI distribuita. Aggiungili semplicemente quando salvi il tuo workflow in ComfyUI Cloud, come nodi personalizzati, modelli o librerie specifiche, e saranno inclusi nel container. RunComfy ricrea automaticamente il tuo ambiente esatto per risultati consistenti e affidabili ogni volta. Nessuna configurazione aggiuntiva richiesta dopo il deployment, quindi puoi costruire API ComfyUI avanzate che corrispondono alle tue esigenze specifiche.
Posso usare i template RunComfy per distribuire un'API ComfyUI e posso personalizzarli?
Sì, i oltre 200 template di RunComfy ti permettono di distribuire un'API ComfyUI rapidamente, fornendo workflow che corrispondono ai modelli più recenti. Esplora i workflow della community, fai fork di uno, regola i nodi o parametri e salvalo come tuo. Poi distribuiscilo come API ComfyUI personalizzata. Tutte le tue modifiche rimangono private.
Quali sono gli endpoint API dopo aver distribuito un'API ComfyUI e come usarli?
Dopo aver distribuito la tua API ComfyUI, hai endpoint per azioni chiave: POST per mettere in coda le inferenze, GET per controllare lo stato o il progresso delle attività, GET per recuperare risultati come immagini o video, e POST per cancellare le attività. Usa il tuo deployment_id nelle richieste HTTP/REST, con chiavi API per la sicurezza. Questo design asincrono mantiene la tua API ComfyUI efficiente, così puoi tracciare le attività facilmente. Per tutti i dettagli, visita la documentazione RunComfy Serverless API - Async Queue Endpoints.
Posso integrare l'API ComfyUI con il mio stack tecnologico esistente?
Sì, puoi facilmente integrare l'API ComfyUI con il tuo stack tecnologico esistente. Utilizza semplici chiamate HTTP/REST e dati JSON, quindi funziona con strumenti comuni come curl, Python o JavaScript. Controlla il Quickstart per snippet di codice pronti all'uso per iniziare rapidamente.
Come funziona l'auto-scaling per l'API ComfyUI e posso controllarlo per gestire i costi?
Sì, l'API ComfyUI di RunComfy scala automaticamente basandosi sulla domanda. Quando arrivano le richieste, i container si avviano automaticamente per elaborarle. Durante i periodi di bassa attività, scala verso il basso per minimizzare i costi. Puoi configurare regole di scaling come timeout di inattività, istanze min/max e impostazioni di concorrenza per ottimizzare sia le prestazioni che i costi. L'autoscaling assicura che la tua API ComfyUI gestisca carichi variabili in modo efficiente senza intervento manuale.
Come posso monitorare e ottimizzare le prestazioni della mia API ComfyUI?
Sì, RunComfy fornisce monitoraggio completo per la tua API ComfyUI attraverso il dashboard. Puoi visualizzare metriche in tempo reale come richieste al secondo, tempi di risposta, tassi di errore e utilizzo GPU. La cronologia delle esecuzioni traccia tutte le inferenze con timestamp, input, output ed eventuali errori. Ci sono anche avvisi per problemi come fallimenti di deployment o limiti di frequenza superati. Tutto questo ti aiuta a ottimizzare le prestazioni e risolvere i problemi rapidamente.
Cosa succede se devo aggiornare il mio workflow ComfyUI senza downtime?
I deployment di API ComfyUI su RunComfy sono mantenuti aggiornati automaticamente con le ultime versioni di ComfyUI e dipendenze. Quando salvi un workflow, cattura l'ambiente esatto incluse le versioni dei nodi personalizzati. Per gli aggiornamenti, semplicemente ri-salva il tuo workflow con le nuove versioni e ridistribuisci. RunComfy fornisce anche il versioning dei deployment, quindi puoi tornare alle versioni precedenti se necessario. Questo assicura che la tua API ComfyUI rimanga stabile mentre ti permette di adottare nuove funzionalità quando sei pronto.
Come vengono mantenuti sicuri i miei dati su RunComfy?
L'API ComfyUI di RunComfy include più livelli di sicurezza. Tutte le comunicazioni utilizzano HTTPS con crittografia TLS. L'autenticazione API richiede chiavi sicure che puoi ruotare. I deployment vengono eseguiti in container isolati con accesso limitato alle risorse. I dati sono crittografati in transito e a riposo. Forniamo anche limitazione della frequenza e filtraggio IP per prevenire abusi. Per applicazioni aziendali, sono disponibili funzionalità di sicurezza aggiuntive come VPC private e conformità SOC 2.
Ci sono limitazioni sulla complessità del workflow ComfyUI o sull'uso dell'API ComfyUI?
Le API ComfyUI su RunComfy hanno alcune limitazioni da considerare: I tempi di esecuzione massimi variano per tipo di GPU (tipicamente 10-30 minuti per richiesta), le dimensioni dei file di input sono limitate (generalmente fino a 100MB per richiesta), e ci sono limiti di frequenza per prevenire abusi (configurabili basati sul tuo piano). I nodi personalizzati devono essere compatibili con l'ambiente containerizzato. Per casi d'uso specializzati o limiti più alti, contatta il supporto per opzioni aziendali personalizzate.
Come funziona la fatturazione per l'API ComfyUI?
La fatturazione per l'API ComfyUI segue un modello pay-per-use. Vieni addebitato solo per il numero esatto di secondi in cui la tua GPU è attivamente in esecuzione, dandoti completa efficienza dei costi e flessibilità. Per maggiori dettagli, consulta la documentazione RunComfy Serverless API - Billing.
Che tipo di supporto è disponibile se incontro problemi con l'API ComfyUI?
Se incontri problemi nell'utilizzare l'API ComfyUI, raccomandiamo di controllare prima la documentazione ufficiale RunComfy Serverless API – Error Handling, che copre codici di errore comuni e passi per la risoluzione dei problemi. Se il problema persiste o hai bisogno di assistenza aggiuntiva, puoi sempre contattarci a hi@runcomfy.com.
Offrite servizi per aziende o team?
Per esigenze aziendali, RunComfy offre funzionalità avanzate dell'API ComfyUI inclusi VPC dedicati, SLA personalizzati, supporto prioritario, fatturazione aziendale e opzioni di deployment on-premise. Forniamo anche integrazione personalizzata, formazione del team e architettura delle soluzioni per implementazioni su larga scala. Contatta il nostro team di vendite aziendali a enterprise@runcomfy.com per discutere i tuoi requisiti specifici.
RunComfy
Copyright 2025 RunComfy. Tutti i Diritti Riservati.RunComfy è la piattaforma principale ComfyUI che offre ComfyUI online ambiente e servizi, insieme a workflow di ComfyUI con visuali mozzafiato. RunComfy offre anche AI Playground, consentire agli artisti di sfruttare gli ultimi strumenti di AI per creare arte incredibile.