ComfyUI API 실행 방법
1. ComfyUI Cloud에서 구축/테스트
클라우드에서 자신만의 ComfyUI 워크플로우를 만들고, 워크플로우의 API JSON을 내보내며 런타임에 조정하고 싶은 매개변수를 선택하세요.
그런 다음 Cloud Save를 사용하여 노드, 모델, 종속성 및 런타임을 하나의 재현 가능한 컨테이너로 번들화하고, 프로덕션급 ComfyUI API로 배포할 준비를 하세요.

2. 워크플로우를 API로 배포
저장된 워크플로우를 선택하고, 필요한 하드웨어를 선택하며, 간단한 자동 스케일링 규칙을 설정하세요. 배포되면 ComfyUI API가 앱에서 요청을 보낼 수 있는 고유한 deployment_id를 받습니다.
성능을 모니터링하고, 필요에 따라 스케일 업 또는 다운하며, 여러 API 버전을 원활하게 관리하세요.

3. 온디맨드 스케일링
ComfyUI API는 요청이 들어올 때 자동으로 스케일 업하고 조용할 때 0으로 스케일 다운하며, 추가 작업이 필요하지 않습니다.
배포 후 API 엔드포인트를 사용하여 요청을 보내고, 진행 상황을 확인하고, 결과를 얻거나, 작업을 취소할 수 있습니다.
cURL
curl --request POST \
--url https://api.runcomfy.net/prod/v1/deployments/{DEPLOYMENT_ID}/inference \
--header "Authorization: Bearer YOUR_API_KEY" \
--header "Content-Type: application/json" \
--data '{'
"overrides": {
"6": {
"inputs": {
"text": "futuristic cityscape"
}
}
"189": {
"inputs": {
"image": "https://example.com/new-image.jpg"
}
}
}
}
ComfyUI API를 사용하는 가장 쉬운 방법
번거로움 없는 배포
Cloud Save에서 한 번의 클릭으로 ComfyUI API를 실행하세요. Docker, CUDA 설정, Kubernetes가 필요 없습니다. 저장한 정확한 노드, 모델, 라이브러리로 모든 것이 실행되므로 결과가 항상 일관됩니다.
고성능 GPU
필요한 GPU 성능을 선택하세요. 16GB(T4/A4000)부터 80GB(A100/H100), 최대 141GB(H200)까지 제공하여 무거운 모델을 원활하고 안정적으로 실행할 수 있습니다.
온디맨드 스케일링
API가 트래픽 급증 시 자동으로 스케일 업하고 유휴 상태일 때 0으로 스케일 다운합니다. 큐 크기와 keep-warm 설정을 제어하여 지연 시간을 낮게 유지하고 비용을 관리하세요.
워크플로우 버전 관리
자신감 있게 업데이트하세요. 워크플로우 버전을 관리하고 롤링 업데이트를 사용하여 실행 중인 작업을 중단하지 않고 기능을 추가하거나 롤백하세요.
실시간 모니터링
실시간 대시보드로 성능을 파악하세요. 요청 수, 큐 시간, 콜드 스타트, 실행 속도, 사용 패턴을 확인하여 설정을 최적화하세요.
200개 이상의 배포 준비된 템플릿
200개 이상의 준비된 커뮤니티 워크플로우로 빠르게 시작하세요. 필요에 맞게 탐색하고 사용자 정의하며, 버전을 클라우드에 저장하고 몇 분 만에 자신만의 ComfyUI API로 배포하세요.
자주 묻는 질문
RunComfy란 무엇이며, ComfyUI API에서 로컬 ComfyUI와 어떻게 다른가요?
RunComfy 서버리스 API는 ComfyUI 워크플로우를 자동 확장과 운영 불필요한 프로덕션급 ComfyUI API로 변환합니다. 이를 통해 인프라 걱정 없이 생성 AI 구축에 집중할 수 있습니다. 하드웨어 관리, CUDA 설정, 지속적인 모니터링이 필요한 로컬 ComfyUI 설정과 달리, RunComfy 서버리스 API는 클라우드에서 배포, 확장, 일관성을 처리합니다. ComfyUI API는 고성능 GPU에서 안정적으로 실행되어 프로토타입에서 프로덕션으로의 전환을 쉽게 만듭니다. 자세한 내용은 RunComfy 서버리스 API 문서를 참조하세요.
ComfyUI 워크플로우를 ComfyUI API 서비스로 배포하려면 어떻게 해야 하나요?
RunComfy에서 ComfyUI 워크플로우를 ComfyUI API 서비스로 배포하려면 ComfyUI Cloud에서 구축하고 노드, 모델, 종속성과 함께 저장하는 것부터 시작하세요. 그런 다음 GPU 하드웨어를 선택하고, 자동 확장 규칙을 설정하고, 몇 번의 클릭으로 배포하세요. 이렇게 하면 자동으로 확장되고, 요청을 비동기적으로 처리하며, 추론을 위한 엔드포인트를 제공하는 서버리스 ComfyUI API가 생성됩니다. Docker, Kubernetes 또는 수동 구성을 다루지 않고도 즉시 사용 가능한 ComfyUI API를 갖게 되며, 모든 것이 재현 가능하고 일관됩니다.
ComfyUI 워크플로우를 ComfyUI API로 배포를 시작하려면 어떻게 해야 하나요?
To deploy your ComfyUI workflow as a ComfyUI API on RunComfy, start in ComfyUI Cloud where you can easily create or edit your workflow. Once it's ready, export it as a simple API JSON file and pick the parts you want to tweak during runs, like prompts or seeds—this keeps things flexible. From there, just click Cloud Save. RunComfy takes care of the rest by bundling your workflow, nodes, models, and full setup into a ready-to-use container, so you skip all the technical headaches. Finally, deploy it by selecting your preferred GPU and basic scaling options. You'll instantly get a unique deployment ID to connect your ComfyUI API to your apps or projects. The whole thing is designed to be quick and hassle-free, letting you focus on your creative ideas while getting a scalable ComfyUI API without any DevOps work. For more details, check RunComfy Serverless API - Quickstart documentation.
ComfyUI 워크플로우를 ComfyUI API 형식으로 내보내려면 어떻게 해야 하나요?
ComfyUI 최신 버전의 경우, ComfyUI 인터페이스를 열고 왼쪽 상단 모서리의 Workflow 메뉴를 찾아 옵션에서 "Export (API)"를 선택하세요. 이렇게 하면 모든 노드, 입력, 기본값, 연결을 포함하는 JSON 파일이 생성됩니다. 이전 버전의 경우, 설정에서 dev 모드를 활성화해야 합니다(Queue Size 옆이나 메뉴 박스의 톱니바퀴 아이콘을 클릭한 다음 "Enable Dev mode Options" 박스를 체크), 그러면 메뉴에 "Save (API Format)" 버튼이 나타납니다.
ComfyUI API에서 사용할 수 있는 GPU는 무엇이며, 워크플로우에 적합한 것을 어떻게 선택하나요?
RunComfy는 ComfyUI API 배포를 위한 다양한 고성능 GPU를 제공하며, 기본 워크플로우용 16GB부터 집약적인 모델용 141GB까지의 VRAM을 제공합니다. ComfyUI API 워크플로우에 적합한 GPU를 선택하려면 모델의 크기와 메모리 요구사항을 고려하고, 대부분의 일반적인 작업에 대해 원활한 성능을 보장하기 위해 약 48GB(X-Large 또는 X-Large Plus 같은)부터 시작한 다음 테스트를 기반으로 확장하거나 축소하세요. 대시보드에서 사용량을 모니터링하여 최적화하세요. 전체 세부사항은 RunComfy 가격 페이지를 방문하세요.
배포된 ComfyUI API에서 사용자 정의 노드, 모델 또는 종속성을 사용할 수 있나요?
네, 배포된 ComfyUI API에 사용자 정의 노드, 모델 또는 종속성을 쉽게 포함할 수 있습니다. ComfyUI Cloud에서 워크플로우를 저장할 때 사용자 정의 노드, 모델 또는 특정 라이브러리와 같은 것들을 추가하기만 하면 컨테이너에 번들됩니다. RunComfy는 매번 일관되고 신뢰할 수 있는 결과를 위해 정확한 환경을 자동으로 재생성합니다. 배포 후 추가 설정이 필요하지 않으므로 특정 요구사항에 맞는 고급 ComfyUI API를 구축할 수 있습니다.
RunComfy 템플릿을 사용하여 ComfyUI API를 배포할 수 있으며, 사용자 정의할 수 있나요?
네, RunComfy의 200개 이상의 템플릿을 사용하면 ComfyUI API를 빠르게 배포할 수 있으며, 최신 모델에 해당하는 워크플로우를 제공합니다. 커뮤니티 워크플로우를 탐색하고, 하나를 포크하고, 노드나 매개변수를 조정하고, 자신의 것으로 저장하세요. 그런 다음 사용자 정의된 ComfyUI API로 배포하세요. 모든 변경사항은 비공개로 유지됩니다.
ComfyUI API를 배포한 후 API 엔드포인트는 무엇이며, 어떻게 사용하나요?
ComfyUI API를 배포한 후 주요 작업을 위한 엔드포인트가 있습니다: 추론을 대기열에 넣기 위한 POST, 작업 상태나 진행 상황을 확인하기 위한 GET, 이미지나 비디오와 같은 결과를 검색하기 위한 GET, 작업을 취소하기 위한 POST. 보안을 위해 API 키와 함께 HTTP/REST 요청에서 deployment_id를 사용하세요. 이 비동기 설계는 ComfyUI API를 효율적으로 유지하므로 작업을 쉽게 추적할 수 있습니다. 전체 세부사항은 RunComfy Serverless API - Async Queue Endpoints 문서를 방문하세요.
ComfyUI API를 기존 기술 스택과 통합할 수 있나요?
네, ComfyUI API를 기존 기술 스택과 쉽게 통합할 수 있습니다. 간단한 HTTP/REST 호출과 JSON 데이터를 사용하므로 curl, Python 또는 JavaScript와 같은 일반적인 도구와 함께 작동합니다. 빠르게 시작하기 위한 즉시 사용 가능한 코드 스니펫은 Quickstart를 확인하세요.
ComfyUI API의 자동 스케일링은 어떻게 작동하며, 비용 관리를 위해 제어할 수 있나요?
네, RunComfy의 ComfyUI API는 수요에 기반하여 자동으로 확장됩니다. 요청이 들어오면 컨테이너가 자동으로 시작되어 처리합니다. 낮은 활동 기간 동안에는 비용을 최소화하기 위해 축소됩니다. 유휴 시간 초과, 최소/최대 인스턴스, 동시성 설정과 같은 확장 규칙을 구성하여 성능과 비용을 모두 최적화할 수 있습니다. 자동 확장은 ComfyUI API가 수동 개입 없이 가변 부하를 효율적으로 처리할 수 있도록 보장합니다.
ComfyUI API의 성능을 어떻게 모니터링하고 최적화할 수 있나요?
네, RunComfy는 대시보드를 통해 ComfyUI API에 대한 포괄적인 모니터링을 제공합니다. 초당 요청 수, 응답 시간, 오류율, GPU 사용률과 같은 실시간 메트릭을 볼 수 있습니다. 실행 기록은 타임스탬프, 입력, 출력 및 오류를 포함한 모든 추론을 추적합니다. 배포 실패나 속도 제한 초과와 같은 문제에 대한 알림도 있습니다. 이 모든 것이 성능을 최적화하고 문제를 빠르게 해결하는 데 도움이 됩니다.
다운타임 없이 ComfyUI 워크플로우를 업데이트해야 하는 경우 어떻게 되나요?
RunComfy의 ComfyUI API 배포는 ComfyUI 및 종속성의 최신 버전으로 자동으로 최신 상태로 유지됩니다. 워크플로우를 저장하면 사용자 정의 노드 버전을 포함한 정확한 환경이 캡처됩니다. 업데이트의 경우 새 버전으로 워크플로우를 다시 저장하고 재배포하기만 하면 됩니다. RunComfy는 배포 버전 관리도 제공하므로 필요한 경우 이전 버전으로 롤백할 수 있습니다. 이렇게 하면 ComfyUI API가 안정적으로 유지되면서 준비가 되었을 때 새로운 기능을 채택할 수 있습니다.
RunComfy에서 내 데이터는 어떻게 안전하게 보관되나요?
RunComfy의 ComfyUI API에는 여러 보안 계층이 포함되어 있습니다. 모든 통신은 TLS 암호화와 함께 HTTPS를 사용합니다. API 인증에는 회전할 수 있는 보안 키가 필요합니다. 배포는 리소스에 대한 제한된 액세스로 격리된 컨테이너에서 실행됩니다. 데이터는 전송 중 및 저장 중에 암호화됩니다. 또한 남용을 방지하기 위한 속도 제한 및 IP 필터링을 제공합니다. 엔터프라이즈 애플리케이션의 경우 개인 VPC 및 SOC 2 규정 준수와 같은 추가 보안 기능을 사용할 수 있습니다.
ComfyUI 워크플로우 복잡성이나 ComfyUI API 사용에 제한이 있나요?
RunComfy의 ComfyUI API에는 고려해야 할 몇 가지 제한 사항이 있습니다: 최대 실행 시간은 GPU 유형에 따라 다릅니다(일반적으로 요청당 10-30분), 입력 파일 크기가 제한됩니다(일반적으로 요청당 최대 100MB), 남용을 방지하기 위한 속도 제한이 있습니다(계획에 따라 구성 가능). 사용자 정의 노드는 컨테이너화된 환경과 호환되어야 합니다. 전문적인 사용 사례나 더 높은 제한이 필요한 경우 사용자 정의 엔터프라이즈 옵션에 대해 지원팀에 문의하십시오.
ComfyUI API의 청구는 어떻게 작동하나요?
ComfyUI API 요금은 사용량 기반 모델을 따릅니다. GPU가 실제로 실행되는 정확한 초 수에 대해서만 요금이 부과되어 완전한 비용 효율성과 유연성을 제공합니다. 자세한 내용은 RunComfy 서버리스 API - 요금 문서를 참조하세요.
ComfyUI API에서 문제가 발생하면 어떤 종류의 지원을 받을 수 있나요?
ComfyUI API 사용 중 문제가 발생하면 먼저 일반적인 오류 코드와 문제 해결 단계를 다루는 공식 문서 RunComfy Serverless API – Error Handling을 확인하는 것을 권장합니다. 문제가 지속되거나 추가 도움이 필요한 경우 언제든지 hi@runcomfy.com으로 연락할 수 있습니다.
기업이나 팀을 위한 서비스를 제공하나요?
엔터프라이즈 요구 사항을 위해 RunComfy는 전용 VPC, 사용자 정의 SLA, 우선 지원, 엔터프라이즈 청구 및 온프레미스 배포 옵션을 포함한 고급 ComfyUI API 기능을 제공합니다. 또한 대규모 구현을 위한 사용자 정의 통합, 팀 교육 및 솔루션 아키텍처를 제공합니다. 특정 요구 사항에 대해 논의하려면 enterprise@runcomfy.com의 엔터프라이즈 영업팀에 문의하십시오.
RunComfy
저작권 2025 RunComfy. All Rights Reserved.RunComfy는 최고의 ComfyUI 플랫폼으로서 ComfyUI 온라인 환경과 서비스를 제공하며 ComfyUI 워크플로우 멋진 비주얼을 제공합니다. RunComfy는 또한 제공합니다 AI Playground, 예술가들이 최신 AI 도구를 활용하여 놀라운 예술을 창조할 수 있도록 지원합니다.