FLUX.2 LoRA ComfyUI 추론: FLUX.2 Dev 파이프라인과 함께 훈련과 일치하는 AI Toolkit LoRA 출력
이 생산 준비 완료 RunComfy 워크플로우는 RC FLUX.2 Dev (Flux2Pipeline)를 통해 ComfyUI에서 FLUX.2 Dev LoRA 추론을 실행합니다 (파이프라인 수준의 정렬, 일반적인 샘플러 그래프가 아님). RunComfy는 이 사용자 정의 노드를 빌드하고 오픈 소스로 공개하였습니다—runcomfy-com repositories를 참조하십시오—그리고 lora_path 및 lora_scale로 어댑터 적용을 제어합니다.
참고: 이 워크플로우는 3XL 머신이 필요합니다.
왜 FLUX.2 LoRA ComfyUI 추론이 ComfyUI에서 다르게 보일 수 있는가
AI Toolkit 훈련 미리보기는 텍스트 인코딩, 스케줄링 및 LoRA 주입이 함께 작동하도록 설계된 모델 특정 FLUX.2 파이프라인을 통해 렌더링됩니다. ComfyUI에서 FLUX.2를 다른 그래프(또는 다른 LoRA 로더 경로)로 재구성하면 이러한 상호작용이 변경될 수 있으며, 동일한 프롬프트, 단계, CFG 및 시드를 복사해도 눈에 띄는 차이가 발생할 수 있습니다. RunComfy RC 파이프라인 노드는 Flux2Pipeline을 통해 FLUX.2를 처음부터 끝까지 실행하고 그 파이프라인 내에서 LoRA를 적용하여 추론을 미리보기 행동과 일치시킵니다. 출처: RunComfy 오픈 소스 리포지토리.
FLUX.2 LoRA ComfyUI 추론 워크플로우 사용 방법
1단계: LoRA 경로를 얻고 워크플로우에 로드하기 (2가지 옵션)
⚠️ 중요 · FLUX.2 접근 & Hugging Face 토큰 필요
FLUX.2 Dev 모델은 Hugging Face에서 명시적 접근 권한이 필요합니다.
이 워크플로우를 실행하기 전에:
- Hugging Face 계정이 FLUX.2 (Dev)에 대한 접근 권한을 받았는지 확인하십시오
- Hugging Face 접근 토큰을 생성하십시오
- Load Pipeline 노드의
hf_token필드에 토큰을 붙여넣으십시오
유효한 토큰과 적절한 모델 접근이 없으면 워크플로우가 실행되지 않습니다. 단계별 지침은 Hugging Face token for FLUX.2를 참조하십시오.
옵션 A — RunComfy 훈련 결과 → 로컬 ComfyUI로 다운로드:
- Trainer → LoRA Assets로 이동하십시오
- 사용하고자 하는 LoRA를 찾으십시오
- 오른쪽의 ⋮ (세 점) 메뉴를 클릭 → Copy LoRA Link 선택
- ComfyUI 워크플로우 페이지에서, 복사한 링크를 UI의 오른쪽 상단 모서리에 있는 Download 입력 필드에 붙여넣으십시오
- 다운로드를 클릭하기 전, 대상 폴더가 ComfyUI > models > loras로 설정되어 있는지 확인하십시오 (이 폴더가 다운로드 대상으로 선택되어야 합니다)
- Download를 클릭하십시오 — 이것은 LoRA 파일이 올바른
models/loras디렉토리에 저장되도록 합니다 - 다운로드가 완료되면, 페이지를 새로 고침하십시오
- 이제 LoRA가 워크플로우의 LoRA 선택 드롭다운에 나타납니다 — 선택하십시오

옵션 B — 직접 LoRA URL (옵션 A 무시):
- 직접
.safetensors다운로드 URL을 LoRA 노드의path / url입력 필드에 붙여넣으십시오 - URL이 여기에 제공되면, 옵션 A를 무시합니다 — 워크플로우는 런타임에 URL에서 직접 LoRA를 로드합니다
- 로컬 다운로드나 파일 배치는 필요하지 않습니다
팁: URL이 실제 .safetensors 파일로 연결되는지 확인하십시오 (랜딩 페이지나 리디렉션이 아님).

2단계: 추론 매개변수를 훈련 샘플 설정과 맞추기
LoRA 노드에서 lora_path에서 어댑터를 선택하거나 (옵션 A), 직접 .safetensors 링크를 path / url에 붙여넣으십시오 (옵션 B는 드롭다운을 무시합니다). 그런 다음 훈련 미리보기 시 사용한 강도로 lora_scale을 설정하고 거기서 조정하십시오.
나머지 매개변수는 Generate 노드 (그래프에 따라 Load Pipeline 노드 포함)에 있습니다:
prompt: 텍스트 프롬프트 (훈련 시 트리거 워드를 사용했다면 포함)width/height: 출력 해상도; 훈련 미리보기 크기와 일치시켜 가장 깔끔한 비교를 위해 (FLUX.2의 경우 16의 배수가 권장됨)sample_steps: 추론 단계 수 (25가 일반적인 기본값)guidance_scale: CFG/가이드 값 (4.0이 일반적인 기본값)seed: 재현을 위한 고정 시드; 변형을 탐색하려면 변경seed_mode(존재하는 경우에만):fixed또는randomize선택negative_prompt(존재하는 경우에만): 이 워크플로우에서 FLUX.2는 가이드 증류됨, 따라서 부정적 프롬프트는 무시됨hf_token: Hugging Face 접근 토큰; FLUX.2 Dev 모델 다운로드에 필요 (Load Pipeline 노드에 붙여넣기)
훈련 정렬 팁: 훈련 중 샘플링 값을 사용자 정의했다면 (seed, guidance_scale, sample_steps, 트리거 워드, 해상도), 여기서 정확히 동일한 값을 반영하십시오. RunComfy에서 훈련했다면, Trainer → LoRA Assets > Config를 열어 해결된 YAML을 보고 미리보기/샘플 설정을 워크플로우 노드에 복사하십시오.

3단계: FLUX.2 LoRA ComfyUI 추론 실행
Queue/Run을 클릭하십시오 — SaveImage 노드는 결과를 ComfyUI 출력 폴더에 기록합니다.
빠른 체크리스트:
- ✓ LoRA는 다음 중 하나입니다:
ComfyUI/models/loras에 다운로드됨 (옵션 A), 또는 직접.safetensorsURL을 통해 로드됨 (옵션 B) - ✓ 로컬 다운로드 후 페이지 새로 고침 (옵션 A만 해당)
- ✓ 추론 매개변수가 훈련
sample구성과 일치 (사용자 정의한 경우)
위의 모든 것이 정확하면, 여기의 추론 결과는 훈련 미리보기와 매우 일치해야 합니다.
FLUX.2 LoRA ComfyUI 추론 문제 해결
대부분의 FLUX.2 “훈련 미리보기 vs ComfyUI 추론” 차이는 파이프라인 수준의 차이에서 발생합니다 (모델이 로드되고, 스케줄링되며, LoRA가 병합되는 방식), 단일 잘못된 조정에서 오는 것이 아닙니다. 이 RunComfy 워크플로우는 RC FLUX.2 Dev (Flux2Pipeline)를 통해 추론을 처음부터 끝까지 실행하고 lora_path / lora_scale을 통해 LoRA를 그 파이프라인 내에서 적용하여 가장 가까운 “훈련 일치” 기준을 복원합니다.
(1) Flux.2와 Lora 오류: "mul_cuda"가 'Float8_e4m3fn'에 대해 구현되지 않음
이유 이는 일반적으로 FLUX.2가 Float8/FP8 가중치 (또는 혼합 정밀도 양자화)로 로드되고 LoRA가 일반적인 ComfyUI LoRA 경로를 통해 적용될 때 발생합니다. LoRA 병합은 지원되지 않는 Float8 작업 (또는 혼합 Float8 + BF16 승격)을 강제할 수 있으며, 이는 mul_cuda Float8 런타임 오류를 유발합니다.
해결 방법 (권장)
- RC FLUX.2 Dev (Flux2Pipeline)를 통해 추론을 실행하고 어댑터를
lora_path/lora_scale을 통해서만 로드하여 LoRA 병합이 AI Toolkit-정렬된 파이프라인에서 발생하도록 하십시오, 일반적인 LoRA 로더를 쌓지 마십시오. - 비-RC 그래프에서 디버깅 중이라면: Float8/FP8 확산 가중치 위에 LoRA를 적용하지 마십시오. FLUX.2를 추가하기 전에 BF16/FP16-호환 로딩 경로를 사용하십시오.
(2) LoRA 모양 불일치가 GPU 상태를 손상시키고 OOM/시스템 불안정을 초래하기 전에 빠르게 실패해야 함
이유 이것은 거의 항상 기본 불일치입니다: LoRA는 다른 모델 계열 (예: FLUX.1)용으로 훈련되었지만 FLUX.2 Dev에 적용되고 있습니다. 종종 많은 lora key not loaded 라인을 보고 그 후 모양 불일치가 발생하며, 최악의 경우 세션이 불안정해지고 OOM으로 끝날 수 있습니다.
해결 방법 (권장)
- LoRA가 AI Toolkit으로
black-forest-labs/FLUX.2-dev에 대해 구체적으로 훈련되었는지 확인하십시오 (FLUX.1 / FLUX.2 / Klein 변형은 교환할 수 없습니다). - LoRA에 대해 “단일 경로” 그래프를 유지하십시오: 어댑터를 워크플로우의
lora_path입력을 통해서만 로드하고 Flux2Pipeline이 병합을 처리하도록 하십시오. 병렬로 추가 일반 LoRA 로더를 쌓지 마십시오. - 이미 불일치를 겪었고 ComfyUI가 그 후 관련 없는 CUDA/OOM 오류를 생성하기 시작했다면, ComfyUI 프로세스를 재시작하여 GPU + 모델 상태를 완전히 재설정한 후 호환 가능한 LoRA로 다시 시도하십시오.
(3) Flux.2 Dev - LoRAs를 사용하는 것이 추론 시간을 두 배 이상 증가시킴
이유 LoRA는 LoRA 경로가 추가 패칭/디퀀타이제이션 작업을 강제하거나 기본 모델 단독보다 느린 코드 경로에서 가중치를 적용할 때 FLUX.2 Dev를 훨씬 느리게 만들 수 있습니다.
해결 방법 (권장)
- 이 워크플로우의 RC FLUX.2 Dev (Flux2Pipeline) 경로를 사용하고 어댑터를
lora_path/lora_scale을 통해 전달하십시오. 이 설정에서는 LoRA가 파이프라인 로드 중에 한 번 병합되므로 단계별 샘플링 비용이 기본 모델에 가깝게 유지됩니다. - 미리보기와 일치하는 동작을 추구할 때, 여러 LoRA 로더를 쌓거나 로더 경로를 혼합하지 마십시오. 하나의
lora_path+ 하나의lora_scale로 유지하여 기준선을 맞출 때까지 유지하십시오.
참고 이 FLUX.2 Dev 워크플로우에서는 FLUX.2가 가이드 증류되므로 negative_prompt는 파이프라인에 의해 무시될 수 있습니다—프롬프트 워딩 + guidance_scale + lora_scale로 미리보기를 맞추십시오.
지금 FLUX.2 LoRA ComfyUI 추론 실행
워크플로우를 열고 lora_path를 설정한 후 Queue/Run을 클릭하여 AI Toolkit 훈련 미리보기와 가까운 FLUX.2 Dev LoRA 결과를 얻으십시오.
