Como executar a API ComfyUI
1. Construir/Testar no ComfyUI Cloud
Crie seus próprios workflows ComfyUI na nuvem, exporte o JSON da API do workflow e escolha quais parâmetros você quer ajustar em tempo de execução.
Em seguida, use o Cloud Save para empacotar seus nós, modelos, dependências e tempo de execução em um contêiner reproduzível, pronto para implantar como uma API ComfyUI de nível de produção.

2. Implantar workflows como uma API
Escolha um workflow salvo, selecione o hardware necessário e defina regras simples de autoescalonamento. Uma vez implantado, sua API ComfyUI obtém um deployment_id único que seus aplicativos podem usar para enviar solicitações.
Monitore o desempenho, escalone para cima ou para baixo conforme necessário e gerencie múltiplas versões de API sem problemas.

3. Escalonamento sob demanda
Sua API ComfyUI escala automaticamente quando chegam solicitações e reduz a zero quando as coisas estão calmas, nenhum trabalho extra necessário.
Após a implantação, você pode usar os endpoints da API para enviar solicitações, verificar o progresso, obter resultados ou cancelar trabalhos.
cURL
curl --request POST \
--url https://api.runcomfy.net/prod/v1/deployments/{DEPLOYMENT_ID}/inference \
--header "Authorization: Bearer YOUR_API_KEY" \
--header "Content-Type: application/json" \
--data '{'
"overrides": {
"6": {
"inputs": {
"text": "futuristic cityscape"
}
}
"189": {
"inputs": {
"image": "https://example.com/new-image.jpg"
}
}
}
}
A forma mais fácil de usar a API ComfyUI
Implantação sem complicações
Lance sua API ComfyUI com um clique a partir de um Cloud Save. Sem Docker, sem configuração CUDA, sem Kubernetes. Tudo funciona com os nós, modelos e bibliotecas exatos que você salvou, então os resultados são sempre consistentes.
GPUs de alto desempenho
Escolha a potência de GPU que você precisa, de 16GB (T4/A4000) a 80GB (A100/H100) e até 141GB (H200), para que você possa executar modelos pesados de forma suave e confiável.
Escalonamento sob demanda
Sua API escala automaticamente para rajadas de tráfego e reduz a zero quando inativa. Controle tamanhos de fila e configurações de manter aquecido para manter baixa latência e custos sob controle.
Versionamento de workflows
Atualize com confiança. Gerencie versões de workflow e use atualizações graduais para adicionar recursos ou reverter sem interromper trabalhos em execução.
Monitoramento em tempo real
Mantenha-se atualizado sobre o desempenho com um painel ao vivo. Veja contagens de solicitações, tempos de fila, inicializações frias, velocidade de execução e padrões de uso para otimizar sua configuração.
200+ modelos prontos para implantar
Comece rapidamente com mais de 200 workflows da comunidade prontos para usar. Explore e personalize-os para atender às suas necessidades, salve sua versão na nuvem e implante-a como sua própria API ComfyUI em apenas minutos.
Perguntas Frequentes
O que é RunComfy e como difere do ComfyUI local para API ComfyUI?
A API sem servidor do RunComfy transforma seus fluxos de trabalho ComfyUI em APIs ComfyUI de nível de produção com auto-escalonamento e sem operações necessárias. Isso permite que você se concentre na construção de IA generativa sem preocupações de infraestrutura. Ao contrário das configurações ComfyUI locais que requerem gerenciamento de hardware, configuração CUDA e monitoramento contínuo, a API sem servidor do RunComfy lida com implantação, escalonamento e consistência na nuvem. Sua API ComfyUI funciona de forma confiável em GPUs de alto desempenho, facilitando a transição do protótipo para a produção. Para mais detalhes, leia a documentação RunComfy Serverless API.
Como posso implantar um workflow ComfyUI como um serviço de API ComfyUI?
Para implantar um fluxo de trabalho ComfyUI como serviço de API ComfyUI no RunComfy, comece construindo-o no ComfyUI Cloud e salvando-o junto com seus nós, modelos e dependências. Em seguida, selecione o hardware GPU, defina regras de auto-escalonamento e implante com alguns cliques. Isso cria uma API ComfyUI sem servidor que escala automaticamente, processa solicitações de forma assíncrona e fornece endpoints para inferências. Você terá uma API ComfyUI pronta para uso sem lidar com Docker, Kubernetes ou configurações manuais, tudo é reproduzível e consistente.
Como começo a implantar um workflow ComfyUI como uma API ComfyUI?
To deploy your ComfyUI workflow as a ComfyUI API on RunComfy, start in ComfyUI Cloud where you can easily create or edit your workflow. Once it's ready, export it as a simple API JSON file and pick the parts you want to tweak during runs, like prompts or seeds—this keeps things flexible. From there, just click Cloud Save. RunComfy takes care of the rest by bundling your workflow, nodes, models, and full setup into a ready-to-use container, so you skip all the technical headaches. Finally, deploy it by selecting your preferred GPU and basic scaling options. You'll instantly get a unique deployment ID to connect your ComfyUI API to your apps or projects. The whole thing is designed to be quick and hassle-free, letting you focus on your creative ideas while getting a scalable ComfyUI API without any DevOps work. For more details, check RunComfy Serverless API - Quickstart documentation.
Como exporto um workflow ComfyUI no formato de API ComfyUI?
Para a versão mais recente do ComfyUI, abra a interface ComfyUI, localize o menu Workflow no canto superior esquerdo e selecione "Export (API)" das opções. Isso gerará um arquivo JSON que inclui todos os seus nós, entradas, valores padrão e conexões. Para versões anteriores, você precisa habilitar o modo dev nas configurações (clique no ícone de engrenagem ao lado de Queue Size ou na caixa de menu, depois marque a caixa "Enable Dev mode Options"), o que fará o botão "Save (API Format)" aparecer no menu.
Quais GPUs estão disponíveis para a API ComfyUI e como escolho a certa para meu workflow?
O RunComfy oferece uma gama de GPUs de alto desempenho para suas implantações de API ComfyUI, com VRAM de 16GB para fluxos de trabalho básicos até 141GB para modelos intensivos. Para escolher a certa para seu fluxo de trabalho de API ComfyUI, considere o tamanho do seu modelo e requisitos de memória, comece com cerca de 48GB (como X-Large ou X-Large Plus) para a maioria das tarefas típicas para garantir desempenho suave, depois escale para cima ou para baixo baseado em testes. Monitore o uso no painel para otimizar. Para todos os detalhes, visite a página RunComfy Pricing.
Posso usar nós personalizados, modelos ou dependências em minha API ComfyUI implantada?
Sim, você pode facilmente incluir nós personalizados, modelos ou dependências em sua API ComfyUI implantada. Simplesmente adicione-os ao salvar seu fluxo de trabalho no ComfyUI Cloud, como nós personalizados, modelos ou bibliotecas específicas, e eles serão empacotados no container. O RunComfy recria automaticamente seu ambiente exato para resultados consistentes e confiáveis toda vez. Nenhuma configuração adicional necessária após a implantação, então você pode construir APIs ComfyUI avançadas que correspondem às suas necessidades específicas.
Posso usar templates do RunComfy para implantar uma API ComfyUI e posso personalizá-los?
Sim, os mais de 200 templates do RunComfy permitem que você implante uma API ComfyUI rapidamente, fornecendo fluxos de trabalho que correspondem aos modelos mais recentes. Navegue pelos fluxos de trabalho da comunidade, faça fork de um, ajuste nós ou parâmetros e salve-o como seu. Então implante-o como uma API ComfyUI personalizada. Todas as suas mudanças permanecem privadas.
Quais são os endpoints da API após implantar uma API ComfyUI e como usá-los?
Após implantar sua API ComfyUI, você tem endpoints para ações-chave: POST para enfileirar inferências, GET para verificar status ou progresso de tarefas, GET para recuperar resultados como imagens ou vídeos, e POST para cancelar tarefas. Use seu deployment_id em requisições HTTP/REST, com chaves API para segurança. Este design assíncrono mantém sua API ComfyUI eficiente, então você pode rastrear tarefas facilmente. Para todos os detalhes, visite a documentação RunComfy Serverless API - Async Queue Endpoints.
Posso integrar a API ComfyUI com minha pilha tecnológica existente?
Sim, você pode facilmente integrar a API ComfyUI com sua pilha tecnológica existente. Ela usa chamadas HTTP/REST simples e dados JSON, então funciona com ferramentas comuns como curl, Python ou JavaScript. Confira o Quickstart para snippets de código prontos para uso para começar rapidamente.
Como funciona o autoescalonamento para a API ComfyUI e posso controlá-lo para gerenciar custos?
Sim, a API ComfyUI do RunComfy escala automaticamente baseada na demanda. Quando requisições chegam, containers são automaticamente iniciados para processá-las. Durante períodos de baixa atividade, escala para baixo para minimizar custos. Você pode configurar regras de escalonamento como timeout de inatividade, instâncias mín/máx e configurações de concorrência para otimizar tanto desempenho quanto custo. O autoscaling garante que sua API ComfyUI lide com cargas variáveis eficientemente sem intervenção manual.
Como posso monitorar e otimizar o desempenho da minha API ComfyUI?
Sim, o RunComfy fornece monitoramento abrangente para sua API ComfyUI através do painel. Você pode visualizar métricas em tempo real como requisições por segundo, tempos de resposta, taxas de erro e utilização de GPU. O histórico de execução rastreia todas as inferências com timestamps, entradas, saídas e quaisquer erros. Também há alertas para problemas como falhas de implantação ou limites de taxa excedidos. Tudo isso ajuda você a otimizar desempenho e solucionar problemas rapidamente.
O que acontece se eu precisar atualizar meu workflow ComfyUI sem tempo de inatividade?
Implantações de API ComfyUI no RunComfy são mantidas atualizadas automaticamente com as versões mais recentes do ComfyUI e dependências. Quando você salva um fluxo de trabalho, ele captura o ambiente exato incluindo versões de nós personalizados. Para atualizações, simplesmente re-salve seu fluxo de trabalho com as novas versões e reimplante. O RunComfy também fornece versionamento de implantação, então você pode reverter para versões anteriores se necessário. Isso garante que sua API ComfyUI permaneça estável enquanto permite que você adote novas funcionalidades quando estiver pronto.
Como meus dados são mantidos seguros no RunComfy?
A API ComfyUI do RunComfy inclui múltiplas camadas de segurança. Todas as comunicações usam HTTPS com criptografia TLS. A autenticação da API requer chaves seguras que você pode rotacionar. Implantações executam em containers isolados com acesso limitado a recursos. Dados são criptografados em trânsito e em repouso. Também fornecemos limitação de taxa e filtragem de IP para prevenir abuso. Para aplicações empresariais, recursos de segurança adicionais como VPCs privadas e conformidade SOC 2 estão disponíveis.
Há alguma limitação na complexidade do workflow ComfyUI ou uso da API ComfyUI?
APIs ComfyUI no RunComfy têm algumas limitações a considerar: Tempos máximos de execução variam por tipo de GPU (tipicamente 10-30 minutos por requisição), tamanhos de arquivo de entrada são limitados (geralmente até 100MB por requisição), e há limites de taxa para prevenir abuso (configurável baseado no seu plano). Nós personalizados devem ser compatíveis com o ambiente containerizado. Para casos de uso especializados ou limites mais altos, contate o suporte para opções empresariais personalizadas.
Como funciona a cobrança para a API ComfyUI?
A cobrança para a API ComfyUI segue um modelo de pagamento por uso. Você é cobrado apenas pelo número exato de segundos que sua GPU está executando ativamente, oferecendo eficiência total de custos e flexibilidade. Para mais detalhes, consulte a documentação RunComfy Serverless API - Billing.
Que tipo de suporte está disponível se eu tiver problemas com a API ComfyUI?
Se você encontrar problemas ao usar a API ComfyUI, recomendamos primeiro verificar a documentação oficial RunComfy Serverless API – Error Handling, que cobre códigos de erro comuns e passos de solução de problemas. Se o problema persistir ou você precisar de assistência adicional, você sempre pode nos contatar em hi@runcomfy.com.
Vocês oferecem serviços para empresas ou equipes?
Para necessidades empresariais, o RunComfy oferece recursos avançados de API ComfyUI incluindo VPCs dedicadas, SLAs personalizados, suporte prioritário, cobrança empresarial e opções de implantação on-premise. Também fornecemos integração personalizada, treinamento de equipe e arquitetura de solução para implementações em larga escala. Contate nossa equipe de vendas empresariais em enterprise@runcomfy.com para discutir seus requisitos específicos.
Recursos
RunComfy
Copyright 2025 RunComfy. Todos os Direitos Reservados.RunComfy é a principal ComfyUI plataforma, oferecendo ComfyUI online ambiente e serviços, juntamente com fluxos de trabalho do ComfyUI apresentando visuais impressionantes. RunComfy também oferece AI Playground, permitindo que artistas utilizem as mais recentes ferramentas de AI para criar arte incrível.