Ejecutar ComfyUI como una API

Nivel de producción, cero operaciones, autoescalado

ComfyUI Interface
ComfyUI API Request

Cómo Ejecutar la API ComfyUI

1. Construir/Probar en ComfyUI Cloud

Crea tus propios flujos de trabajo ComfyUI en la nube, exporta el JSON de la API del flujo de trabajo y elige qué parámetros quieres ajustar en tiempo de ejecución.

Luego, usa Cloud Save para agrupar tus nodos, modelos, dependencias y tiempo de ejecución en un contenedor reproducible, listo para desplegar como una API ComfyUI de nivel de producción.

Build/Test in ComfyUI Cloud

2. Desplegar Flujos de Trabajo como una API

Elige un flujo de trabajo guardado, selecciona el hardware que necesitas y establece reglas de autoescalado simples. Una vez desplegado, tu API ComfyUI obtiene un deployment_id único que tus aplicaciones pueden usar para enviar solicitudes.

Monitorea el rendimiento, escala hacia arriba o abajo según sea necesario y gestiona múltiples versiones de API sin problemas.

Deploy Workflows as an API

3. Escalar Bajo Demanda

Tu API ComfyUI se escala automáticamente cuando llegan solicitudes y se reduce a cero cuando las cosas están tranquilas, no se necesita trabajo extra.

Después del despliegue, puedes usar los endpoints de la API para enviar solicitudes, verificar el progreso, obtener resultados o cancelar trabajos.

cURL
curl --request POST \ --url https://api.runcomfy.net/prod/v1/deployments/{DEPLOYMENT_ID}/inference \ --header "Authorization: Bearer YOUR_API_KEY" \ --header "Content-Type: application/json" \ --data '{' "overrides": { "6": { "inputs": { "text": "futuristic cityscape" } } "189": { "inputs": { "image": "https://example.com/new-image.jpg" } } } }

La Forma Más Fácil de Usar la API ComfyUI

Despliegue Sin Complicaciones

Lanza tu API ComfyUI con un clic desde un Cloud Save. Sin Docker, sin configuración CUDA, sin Kubernetes. Todo funciona con los nodos, modelos y bibliotecas exactos que guardaste, por lo que los resultados son siempre consistentes.

GPUs de Alto Rendimiento

Elige la potencia GPU que necesitas, desde 16GB (T4/A4000) hasta 80GB (A100/H100) y hasta 141GB (H200), para que puedas ejecutar modelos pesados de manera fluida y confiable.

Scale On-Demand

Tu API se escala automáticamente para ráfagas de tráfico y se reduce a cero cuando está inactiva. Controla los tamaños de cola y la configuración keep-warm para mantener baja la latencia y los costos bajo control.

Versionado de Flujos de Trabajo

Actualiza con confianza. Gestiona versiones de flujos de trabajo y usa actualizaciones progresivas para agregar características o revertir sin interrumpir trabajos en ejecución.

Monitoreo en Tiempo Real

Mantente al tanto del rendimiento con un panel en vivo. Ve conteos de solicitudes, tiempos de cola, arranques en frío, velocidad de ejecución y patrones de uso para optimizar tu configuración.

200+ Plantillas Listas para Desplegar

Comienza rápido con más de 200 flujos de trabajo comunitarios listos. Explóralos y personalízalos para satisfacer tus necesidades, guarda tu versión en la nube y despliégala como tu propia API ComfyUI en solo minutos.

Del Prototipo a la Producción,RunComfy Hace que la API ComfyUI seaMás Fácil Que Nunca.

Preguntas Frecuentes

¿Qué es RunComfy y en qué se diferencia del ComfyUI local para la API ComfyUI?

La API sin servidor de RunComfy convierte tus flujos de trabajo ComfyUI en APIs ComfyUI de nivel de producción con escalado automático y sin operaciones necesarias. Esto te permite enfocarte en construir IA generativa sin preocupaciones de infraestructura. A diferencia de las configuraciones locales de ComfyUI que requieren gestión de hardware, configuración CUDA y monitoreo continuo, la API sin servidor de RunComfy maneja el despliegue, escalado y consistencia en la nube. Tu API ComfyUI funciona de manera confiable en GPUs de alto rendimiento, facilitando el paso de prototipo a producción. Para más detalles, lee la documentación de RunComfy Serverless API.

¿Cómo puedo desplegar un flujo de trabajo ComfyUI como un servicio de API ComfyUI?

Para desplegar un flujo de trabajo ComfyUI como servicio de API ComfyUI en RunComfy, comienza construyéndolo en ComfyUI Cloud y guardándolo junto con tus nodos, modelos y dependencias. Luego, selecciona el hardware GPU, establece reglas de autoescalado y despliega con unos pocos clics. Esto crea una API ComfyUI sin servidor que escala automáticamente, procesa solicitudes de forma asíncrona y proporciona endpoints para inferencias. Tendrás una API ComfyUI lista para usar sin lidiar con Docker, Kubernetes o configuraciones manuales, todo es reproducible y consistente.

¿Cómo empiezo a desplegar un flujo de trabajo ComfyUI como una API ComfyUI?

To deploy your ComfyUI workflow as a ComfyUI API on RunComfy, start in ComfyUI Cloud where you can easily create or edit your workflow. Once it's ready, export it as a simple API JSON file and pick the parts you want to tweak during runs, like prompts or seeds—this keeps things flexible. From there, just click Cloud Save. RunComfy takes care of the rest by bundling your workflow, nodes, models, and full setup into a ready-to-use container, so you skip all the technical headaches. Finally, deploy it by selecting your preferred GPU and basic scaling options. You'll instantly get a unique deployment ID to connect your ComfyUI API to your apps or projects. The whole thing is designed to be quick and hassle-free, letting you focus on your creative ideas while getting a scalable ComfyUI API without any DevOps work. For more details, check RunComfy Serverless API - Quickstart documentation.

¿Cómo exporto un flujo de trabajo ComfyUI en formato de API ComfyUI?

Para la última versión de ComfyUI, abre la interfaz de ComfyUI, localiza el menú Workflow en la esquina superior izquierda y selecciona "Export (API)" de las opciones. Esto generará un archivo JSON que incluye todos tus nodos, entradas, valores predeterminados y conexiones. Para versiones anteriores, necesitas habilitar el modo dev en la configuración (haz clic en el ícono de engranaje junto a Queue Size o en el cuadro de menú, luego marca la casilla "Enable Dev mode Options"), lo que hará que aparezca el botón "Save (API Format)" en el menú.

¿Qué GPUs están disponibles para la API ComfyUI y cómo elijo la correcta para mi flujo de trabajo?

RunComfy ofrece una gama de GPUs de alto rendimiento para tus despliegues de API ComfyUI, con VRAM desde 16GB para flujos de trabajo básicos hasta 141GB para modelos intensivos. Para elegir la correcta para tu flujo de trabajo de API ComfyUI, considera el tamaño de tu modelo y los requisitos de memoria, comienza con alrededor de 48GB (como X-Large o X-Large Plus) para la mayoría de tareas típicas para asegurar un rendimiento fluido, luego escala hacia arriba o abajo basado en pruebas. Monitorea el uso en el panel de control para optimizar. Para todos los detalles, visita la página RunComfy Pricing.

¿Puedo usar nodos personalizados, modelos o dependencias en mi API ComfyUI desplegada?

Sí, puedes incluir fácilmente nodos personalizados, modelos o dependencias en tu API ComfyUI desplegada. Simplemente agrégalos al guardar tu flujo de trabajo en ComfyUI Cloud, como nodos personalizados, modelos o bibliotecas específicas, y se empaquetarán en el contenedor. RunComfy recrea automáticamente tu entorno exacto para resultados consistentes y confiables cada vez. No se requiere configuración adicional después del despliegue, así que puedes construir APIs ComfyUI avanzadas que coincidan con tus necesidades específicas.

¿Puedo usar plantillas de RunComfy para desplegar una API ComfyUI y puedo personalizarlas?

Sí, las más de 200 plantillas de RunComfy te permiten desplegar una API ComfyUI rápidamente, proporcionando flujos de trabajo que coinciden con los últimos modelos. Navega por los flujos de trabajo de la comunidad, haz fork de uno, ajusta los nodos o parámetros y guárdalo como tuyo. Luego despliégalo como una API ComfyUI personalizada. Todos tus cambios permanecen privados.

¿Cuáles son los endpoints de la API después de desplegar una API ComfyUI y cómo usarlos?

Después de desplegar tu API ComfyUI, tienes endpoints para acciones clave: POST para poner en cola inferencias, GET para verificar el estado o progreso de tareas, GET para recuperar resultados como imágenes o videos, y POST para cancelar tareas. Usa tu deployment_id en solicitudes HTTP/REST, con claves API para seguridad. Este diseño asíncrono mantiene tu API ComfyUI eficiente, así que puedes rastrear tareas fácilmente. Para todos los detalles, visita la documentación RunComfy Serverless API - Async Queue Endpoints.

¿Puedo integrar la API ComfyUI con mi stack tecnológico existente?

Sí, puedes integrar fácilmente la API ComfyUI con tu stack tecnológico existente. Utiliza llamadas HTTP/REST simples y datos JSON, así que funciona con herramientas comunes como curl, Python o JavaScript. Consulta el Quickstart para fragmentos de código listos para usar para comenzar rápidamente.

¿Cómo funciona el autoescalado para la API ComfyUI y puedo controlarlo para gestionar costos?

Sí, la API ComfyUI de RunComfy escala automáticamente basándose en la demanda. Cuando llegan solicitudes, los contenedores se inician automáticamente para procesarlas. Durante períodos de baja actividad, escala hacia abajo para minimizar costos. Puedes configurar reglas de escalado como tiempo de espera de inactividad, instancias mínimas/máximas y configuraciones de concurrencia para optimizar tanto el rendimiento como el costo. El escalado automático asegura que tu API ComfyUI maneje cargas variables de manera eficiente sin intervención manual.

¿Cómo puedo monitorear y optimizar el rendimiento de mi API ComfyUI?

Sí, RunComfy proporciona monitoreo integral para tu API ComfyUI a través del panel de control. Puedes ver métricas en tiempo real como solicitudes por segundo, tiempos de respuesta, tasas de error y utilización de GPU. El historial de ejecución rastrea todas las inferencias con timestamps, entradas, salidas y cualquier error. También hay alertas para problemas como fallos de despliegue o límites de tasa excedidos. Todo esto te ayuda a optimizar el rendimiento y solucionar problemas rápidamente.

¿Qué pasa si necesito actualizar mi flujo de trabajo ComfyUI sin tiempo de inactividad?

Los despliegues de API ComfyUI en RunComfy se mantienen actualizados automáticamente con las últimas versiones de ComfyUI y dependencias. Cuando guardas un flujo de trabajo, captura el entorno exacto incluyendo versiones de nodos personalizados. Para actualizaciones, simplemente re-guarda tu flujo de trabajo con las nuevas versiones y redespliega. RunComfy también proporciona versionado de despliegues, así que puedes revertir a versiones anteriores si es necesario. Esto asegura que tu API ComfyUI permanezca estable mientras te permite adoptar nuevas características cuando estés listo.

¿Cómo se mantienen seguros mis datos en RunComfy?

La API ComfyUI de RunComfy incluye múltiples capas de seguridad. Todas las comunicaciones usan HTTPS con cifrado TLS. La autenticación API requiere claves seguras que puedes rotar. Los despliegues se ejecutan en contenedores aislados con acceso limitado a recursos. Los datos se cifran en tránsito y en reposo. También proporcionamos limitación de tasa y filtrado IP para prevenir abuso. Para aplicaciones empresariales, están disponibles características de seguridad adicionales como VPC privadas y cumplimiento SOC 2.

¿Hay alguna limitación en la complejidad del flujo de trabajo ComfyUI o el uso de la API ComfyUI?

Las APIs ComfyUI en RunComfy tienen algunas limitaciones a considerar: Los tiempos de ejecución máximos varían por tipo de GPU (típicamente 10-30 minutos por solicitud), los tamaños de archivo de entrada están limitados (generalmente hasta 100MB por solicitud), y hay límites de tasa para prevenir abuso (configurable basado en tu plan). Los nodos personalizados deben ser compatibles con el entorno en contenedor. Para casos de uso especializados o límites más altos, contacta al soporte para opciones empresariales personalizadas.

¿Cómo funciona la facturación para la API ComfyUI?

La facturación para la API ComfyUI sigue un modelo de pago por uso. Solo se te cobra por el número exacto de segundos que tu GPU está ejecutándose activamente, dándote completa eficiencia de costos y flexibilidad. Para más detalles, consulta la documentación RunComfy Serverless API - Billing.

¿Qué tipo de soporte está disponible si tengo problemas con la API ComfyUI?

Si encuentras problemas al usar la API ComfyUI, recomendamos primero verificar la documentación oficial RunComfy Serverless API – Error Handling, que cubre códigos de error comunes y pasos de solución de problemas. Si el problema persiste o necesitas ayuda adicional, siempre puedes contactarnos en hi@runcomfy.com.

¿Ofrecen servicios para empresas o equipos?

Para necesidades empresariales, RunComfy ofrece características avanzadas de API ComfyUI incluyendo VPC dedicadas, acuerdos de nivel de servicio personalizados, soporte prioritario, facturación empresarial y opciones de despliegue on-premise. También proporcionamos integración personalizada, capacitación de equipo y arquitectura de soluciones para implementaciones a gran escala. Contacta nuestro equipo de ventas empresariales en enterprise@runcomfy.com para discutir tus requisitos específicos.
RunComfy
Derechos de autor 2025 RunComfy. Todos los derechos reservados.

RunComfy es la principal ComfyUI plataforma, ofreciendo ComfyUI en línea entorno y servicios, junto con flujos de trabajo de ComfyUI con impresionantes imágenes. RunComfy también ofrece AI Playground, permitiendo a los artistas aprovechar las últimas herramientas de AI para crear arte increíble.