Как Запустить API ComfyUI
1. Создать/Протестировать в ComfyUI Cloud
Создайте свои собственные рабочие процессы ComfyUI в облаке, экспортируйте JSON API рабочего процесса и выберите параметры, которые хотите настроить во время выполнения.
Затем используйте Cloud Save, чтобы объединить ваши узлы, модели, зависимости и среду выполнения в один воспроизводимый контейнер, готовый к развертыванию как производственный API ComfyUI.

2. Развернуть Рабочие Процессы как API
Выберите сохраненный рабочий процесс, выберите необходимое оборудование и установите простые правила автомасштабирования. После развертывания ваш API ComfyUI получает уникальный deployment_id, который ваши приложения могут использовать для отправки запросов.
Отслеживайте производительность, масштабируйте вверх или вниз по мере необходимости и беспрепятственно управляйте несколькими версиями API.

3. Масштабирование по Требованию
Ваш API ComfyUI автоматически масштабируется при поступлении запросов и уменьшается до нуля, когда все спокойно, никакой дополнительной работы не требуется.
После развертывания вы можете использовать конечные точки API для отправки запросов, проверки прогресса, получения результатов или отмены заданий.
cURL
curl --request POST \
--url https://api.runcomfy.net/prod/v1/deployments/{DEPLOYMENT_ID}/inference \
--header "Authorization: Bearer YOUR_API_KEY" \
--header "Content-Type: application/json" \
--data '{'
"overrides": {
"6": {
"inputs": {
"text": "futuristic cityscape"
}
}
"189": {
"inputs": {
"image": "https://example.com/new-image.jpg"
}
}
}
}
Самый Простой Способ Использования API ComfyUI
Развертывание без проблем
Запустите ваш ComfyUI API одним кликом из Cloud Save. Никакого Docker, настройки CUDA или Kubernetes. Все работает с точными узлами, моделями и библиотеками, которые вы сохранили, поэтому результаты всегда согласованы.
Высокопроизводительные GPU
Выберите необходимую мощность GPU, от 16GB (T4/A4000) до 80GB (A100/H100) и до 141GB (H200), чтобы вы могли запускать тяжелые модели плавно и надежно.
Масштабирование по требованию
Ваш API автоматически масштабируется при всплесках трафика и уменьшается до нуля в режиме ожидания. Контролируйте размеры очередей и настройки прогрева, чтобы поддерживать низкую задержку и контролировать расходы.
Версионирование рабочих процессов
Обновляйте с уверенностью. Управляйте версиями рабочих процессов и используйте последовательные обновления для добавления функций или отката без прерывания выполняющихся задач.
Мониторинг в реальном времени
Следите за производительностью с помощью живой панели управления. Просматривайте количество запросов, время очереди, холодные запуски, скорость выполнения и шаблоны использования для оптимизации вашей настройки.
200+ готовых к развертыванию шаблонов
Начните быстро с более чем 200 готовыми рабочими процессами сообщества. Исследуйте и настраивайте их под свои потребности, сохраните свою версию в облаке и разверните как свой собственный ComfyUI API всего за несколько минут.
Часто задаваемые вопросы
Что такое RunComfy и чем он отличается от локального ComfyUI для API ComfyUI?
Бессерверный API RunComfy превращает ваши рабочие процессы ComfyUI в производственные API ComfyUI с автомасштабированием и без необходимости в операциях. Это позволяет вам сосредоточиться на создании генеративного ИИ без беспокойства об инфраструктуре. В отличие от локальных настроек ComfyUI, которые требуют управления аппаратным обеспечением, настройки CUDA и постоянного мониторинга, бессерверный API RunComfy обрабатывает развертывание, масштабирование и согласованность в облаке. Ваш API ComfyUI надежно работает на высокопроизводительных GPU, облегчая переход от прототипа к производству. Для получения дополнительной информации, пожалуйста, прочитайте документацию RunComfy Serverless API.
Как я могу развернуть рабочий процесс ComfyUI как сервис API ComfyUI?
Чтобы развернуть рабочий процесс ComfyUI как сервис API ComfyUI на RunComfy, начните с его создания в ComfyUI Cloud и сохранения вместе с вашими узлами, моделями и зависимостями. Затем выберите аппаратное обеспечение GPU, установите правила автомасштабирования и разверните несколькими кликами. Это создает бессерверный API ComfyUI, который автоматически масштабируется, обрабатывает запросы асинхронно и предоставляет конечные точки для выводов. У вас будет готовый к использованию API ComfyUI без работы с Docker, Kubernetes или ручными конфигурациями, все воспроизводимо и согласованно.
Как начать развертывание рабочего процесса ComfyUI как API ComfyUI?
Чтобы развернуть ваш рабочий процесс ComfyUI как ComfyUI API на RunComfy, начните в ComfyUI Cloud, где вы можете легко создать или отредактировать ваш рабочий процесс. Как только он будет готов, экспортируйте его как простой API JSON файл и выберите части, которые вы хотите настроить во время выполнения, например промпты или семена — это сохраняет гибкость. Оттуда просто нажмите Cloud Save. RunComfy позаботится об остальном, упаковав ваш рабочий процесс, узлы, модели и полную настройку в готовый к использованию контейнер, так что вы пропускаете все технические головные боли. Наконец, разверните его, выбрав предпочитаемый GPU и базовые параметры масштабирования. Вы мгновенно получите уникальный ID развертывания для подключения вашего ComfyUI API к вашим приложениям или проектам. Все это разработано для быстроты и отсутствия проблем, позволяя вам сосредоточиться на ваших творческих идеях, получив при этом масштабируемый ComfyUI API без какой-либо DevOps работы. Для получения дополнительной информации ознакомьтесь с документацией RunComfy Serverless API - Quickstart.
Как экспортировать рабочий процесс ComfyUI в формате API ComfyUI?
Для последней версии ComfyUI откройте интерфейс ComfyUI, найдите меню Workflow в верхнем левом углу и выберите "Export (API)" из опций. Это создаст JSON файл, который включает все ваши узлы, входы, значения по умолчанию и соединения. Для старых версий вам нужно включить режим разработчика в настройках (нажмите на значок шестеренки рядом с Queue Size или в поле меню, затем отметьте флажок "Enable Dev mode Options"), что заставит кнопку "Save (API Format)" появиться в меню.
Какие GPU доступны для API ComfyUI и как выбрать подходящий для моего рабочего процесса?
RunComfy предлагает ряд высокопроизводительных GPU для развертывания вашего ComfyUI API, с VRAM от 16GB для базовых рабочих процессов до 141GB для интенсивных моделей. Чтобы выбрать правильный для вашего рабочего процесса ComfyUI API, учитывайте размер модели и потребности в памяти, начните с около 48GB (например, X-Large или X-Large Plus) для большинства типичных задач для обеспечения плавной производительности, затем масштабируйте вверх или вниз на основе тестирования. Отслеживайте использование в панели управления для оптимизации. Для полных деталей посетите страницу RunComfy Pricing.
Могу ли я использовать пользовательские узлы, модели или зависимости в развернутом API ComfyUI?
Да, вы можете легко включить пользовательские узлы, модели или зависимости в ваш развернутый ComfyUI API. Просто добавьте их при сохранении рабочего процесса в ComfyUI Cloud, такие как пользовательские узлы, модели или специфические библиотеки, и они будут объединены в контейнер. RunComfy автоматически воссоздает вашу точную среду для последовательных, надежных результатов каждый раз. После развертывания не требуется дополнительная настройка, поэтому вы можете создавать продвинутые ComfyUI API, которые соответствуют вашим конкретным потребностям.
Могу ли я использовать шаблоны RunComfy для развертывания API ComfyUI и могу ли я их настроить?
Да, более 200 шаблонов RunComfy позволяют быстро развернуть ComfyUI API, предоставляя рабочие процессы, соответствующие последним моделям. Просматривайте рабочие процессы сообщества, создайте ответвление, настройте узлы или параметры и сохраните как свой собственный. Затем разверните его как настроенный ComfyUI API. Все ваши изменения остаются приватными.
Какие конечные точки API после развертывания API ComfyUI и как их использовать?
После развертывания вашего ComfyUI API у вас есть конечные точки для ключевых действий: POST для очереди выводов, GET для проверки статуса или прогресса работы, GET для получения результатов, таких как изображения или видео, и POST для отмены работ. Используйте ваш deployment_id в HTTP/REST запросах с API ключами для безопасности. Этот асинхронный дизайн поддерживает эффективность вашего ComfyUI API, поэтому вы можете легко отслеживать работы. Для полных деталей посетите документацию RunComfy Serverless API - Async Queue Endpoints.
Могу ли я интегрировать API ComfyUI с моим существующим технологическим стеком?
Да, вы можете легко интегрировать ComfyUI API с вашим существующим технологическим стеком. Он использует простые HTTP/REST вызовы и JSON данные, поэтому работает с обычными инструментами, такими как curl, Python или JavaScript. Проверьте Quickstart для готовых к использованию фрагментов кода для быстрого начала.
Как работает автомасштабирование для API ComfyUI и могу ли я контролировать его для управления затратами?
Автомасштабирование для вашего ComfyUI API увеличивает экземпляры во время занятости и масштабируется до нуля в режиме простоя, сохраняя эффективность. Вы можете установить мин/макс экземпляры, размеры очередей и времена keep-warm для тонкой настройки задержки и затрат. Вы платите только за активное время GPU, без платы за простой. Этот гибкий контроль помогает вам запускать экономически эффективный ComfyUI API, который соответствует вашим шаблонам трафика.
Как я могу мониторить и оптимизировать производительность моего API ComfyUI?
Вы можете отслеживать ваш ComfyUI API с помощью панели в реальном времени, которая показывает количество запросов, времена очереди, холодные запуски, скорости выполнения и шаблоны использования. Вы также можете просматривать данные о выставлении счетов в панели для отслеживания и оптимизации затрат на основе времени GPU. Используйте эти сведения для настройки GPU, правил масштабирования. Это помогает вам поддерживать плавную работу ComfyUI API, быстро устранять проблемы и эффективно управлять расходами.
Что происходит, если мне нужно обновить мой рабочий процесс ComfyUI без простоя?
Чтобы обновить ваш рабочий процесс ComfyUI без простоя, сохраните изменения как новую версию под тем же именем, это упаковывает обновления в новый контейнер, сохраняя ваш живой ComfyUI API работающим на текущей версии. Когда будете готовы, отредактируйте развертывание для переключения на новую версию, которая развертывается постепенно: существующие задания завершаются на старой, а новые запросы используют обновление. Откатитесь в любое время, выбрав предыдущую версию. Это обеспечивает стабильность и доступность вашего ComfyUI API. Для получения дополнительной информации обратитесь к RunComfy Serverless API - Workflow Versions и RunComfy Serverless API - Edit a Deployment.
Как мои данные защищены на RunComfy?
Ваши рабочие процессы выполняются на выделенных, изолированных GPU, что гарантирует полное разделение ресурсов, так что никакие процессы или память никогда не разделяются с другими пользователями. Это обеспечивает конфиденциальность и независимость вашей вычислительной среды, обеспечивая как стабильность, так и безопасность. Каждая среда выполнения ComfyUI, включая операционную систему, среду выполнения Python, ядро ComfyUI, определения рабочих процессов, модели и пользовательские узлы, инкапсулирована в свой собственный безопасный облачный контейнер. Эти контейнеры являются постоянными, позволяя надежно воспроизводить всю вашу настройку между сессиями, оставаясь полностью приватной для вас. Доступ к этим средам строго контролируется: только вы можете управлять или раскрывать вашу контейнеризованную настройку, и никакая третья сторона, включая RunComfy, не может получить к ней доступ, если вы явно не выберете поделиться.
Есть ли ограничения на сложность рабочего процесса ComfyUI или использование API ComfyUI?
Большинство рабочих процессов ComfyUI работают гладко с ComfyUI API. Однако очень большие модели могут потребовать GPU с более высоким VRAM для избежания проблем, связанных с памятью. Количество одновременных заданий, которые вы можете запускать, зависит от вашей конфигурации масштабирования, и лимиты очереди могут быть настроены под вашу рабочую нагрузку. Для высокообъемных или специализированных потребностей доступна корпоративная поддержка, пожалуйста, свяжитесь с нами по адресу hi@runcomfy.com.
Как работает выставление счетов для API ComfyUI?
Выставление счетов за API ComfyUI следует модели оплаты за использование. Вы платите только за точное количество секунд, когда ваш GPU активно работает, обеспечивая полную эффективность затрат и гибкость. Для более подробной информации см. документацию RunComfy Serverless API - Billing.
Какая поддержка доступна, если у меня возникают проблемы с API ComfyUI?
Если вы сталкиваетесь с проблемами при использовании ComfyUI API, мы рекомендуем сначала проверить официальную документацию RunComfy Serverless API – Error Handling, которая охватывает общие коды ошибок и шаги по устранению неполадок. Если проблема сохраняется или вам нужна дополнительная помощь, вы всегда можете связаться с нами по адресу hi@runcomfy.com.
Предлагаете ли вы услуги для предприятий или команд?
Да, мы предоставляем решения, адаптированные для предприятий и команд. Для получения дополнительной информации и индивидуальной поддержки, пожалуйста, свяжитесь с нами напрямую по адресу hi@runcomfy.com.
Поддержка
Ресурсы
Юридическая информация
RunComfy
Авторское право 2025 RunComfy. Все права защищены.RunComfy - ведущая ComfyUI платформа, предлагающая ComfyUI онлайн среду и услуги, а также рабочие процессы ComfyUI с потрясающей визуализацией. RunComfy также предоставляет AI Playground, позволяя художникам использовать новейшие инструменты AI для создания невероятного искусства.