logo
RunComfy
ComfyUIPlaygroundPricing
discord logo
ComfyUI>Workflows>FLUX ControlNet Depth-V3 & Canny-V3

FLUX ControlNet Depth-V3 & Canny-V3

Workflow Name: RunComfy/FLUX-ControlNet
Workflow ID: 0000...1115
Transformieren Sie Ihren kreativen Prozess mit FLUX-ControlNet Depth und Canny Modellen, die für FLUX.1 [dev] von XLabs AI entwickelt wurden. Dieser ComfyUI-Workflow führt Sie durch das Laden von Modellen, das Einstellen von Parametern und das Kombinieren von FLUX-ControlNets, um beispiellose Kontrolle über Bildinhalt und -struktur zu erreichen. Ob Sie Tiefenkarten oder Kantenerkennung verwenden, FLUX-ControlNet befähigt Sie, atemberaubende KI-Kunst zu schaffen.

FLUX ist ein neues Bildgenerierungsmodell, entwickelt von Black Forest Labs. Die FLUX-ControlNet-Depth und FLUX-ControlNet-Canny Modelle wurden vom XLabs AI Team erstellt. Dieser ComfyUI FLUX ControlNet Workflow wurde ebenfalls vom XLabs AI Team erstellt. Für weitere Details besuchen Sie bitte x-flux-comfyui. Alle Anerkennung geht an deren Beitrag.

Über FLUX

Die FLUX-Modelle sind auf RunComfy vorinstalliert, benannt flux/flux-schnell und flux/flux-dev.

  • Beim Start einer RunComfy-Medium-Sized-Maschine: Wählen Sie den Checkpoint flux-schnell, fp8 und Clip t5_xxl_fp8, um Speicherproblemen vorzubeugen.
  • Beim Start einer RunComfy-Large-Sized- oder Above-Maschine: Wählen Sie einen großen Checkpoint flux-dev, default und einen hohen Clip t5_xxl_fp16.

Für weitere Details besuchen Sie: ComfyUI FLUX | Eine neue Kunstbildgenerierung

🌟Der folgende FLUX-ControlNet Workflow ist speziell für das FLUX.1 [dev] Modell konzipiert.🌟

Über FLUX-ControlNet Workflow (FLUX-ControlNet-Depth-V3 und FLUX-ControlNet-Canny-V3)

Wir präsentieren zwei herausragende FLUX-ControlNet Workflows: FLUX-ControlNet-Depth und FLUX-ControlNet-Canny, die jeweils einzigartige Fähigkeiten bieten, um Ihren kreativen Prozess zu verbessern.

1. Wie man den ComfyUI FLUX-ControlNet-Depth-V3 Workflow verwendet

Das FLUX-ControlNet Depth Modell wird zuerst mit dem "LoadFluxControlNet"-Knoten geladen. Wählen Sie das Modell "flux-depth-controlnet.safetensors" für optimale Tiefenkontrolle.

  • flux-depth-controlnet
  • flux-depth-controlnet-v2
  • flux-depth-controlnet-v3: ControlNet ist auf 1024x1024 Auflösung trainiert und funktioniert für 1024x1024 Auflösung, mit besserer und realistischerer Version

Verbinden Sie den Ausgang dieses Knotens mit dem "ApplyFluxControlNet"-Knoten. Verbinden Sie auch Ihr Tiefenbild mit dem Bildeingang dieses Knotens. Das Tiefenbild sollte ein Graustufenbild sein, bei dem nähere Objekte heller und entfernte Objekte dunkler sind, sodass FLUX-ControlNet die Tiefeninformation genau interpretieren kann.

Sie können die Tiefenkarte aus einem Eingabebild mit einem Tiefenschätzungsmodell generieren. Hier wird der "MiDaS-DepthMapPreprocessor"-Knoten verwendet, um das geladene Bild in eine für FLUX-ControlNet geeignete Tiefenkarte zu konvertieren. Wichtige Parameter:

  • Schwellenwert = 6.28 (beeinflusst die Empfindlichkeit gegenüber Kanten)
  • Tiefenskala = 0.1 (wie stark die Werte der Tiefenkarte skaliert werden)
  • Ausgabengröße = 768 (Auflösung der Tiefenkarte)

Im "ApplyFluxControlNet"-Knoten bestimmt der Stärkeparameter, wie stark das generierte Bild durch die FLUX-ControlNet-Tiefenkonditionierung beeinflusst wird. Eine höhere Stärke lässt das Ergebnis näher an der Tiefenstruktur orientieren.

2. Wie man den ComfyUI FLUX-ControlNet-Canny-V3 Workflow verwendet

Der Prozess ist dem FLUX-ControlNet-Depth Workflow sehr ähnlich. Zuerst wird das FLUX-ControlNet Canny Modell mit "LoadFluxControlNet" geladen. Dann wird es mit dem "ApplyFluxControlNet"-Knoten verbunden.

  • flux-canny-controlnet
  • flux-canny-controlnet-v2
  • flux-canny-controlnet-v3: ControlNet ist auf 1024x1024 Auflösung trainiert und funktioniert für 1024x1024 Auflösung, mit besserer und realistischerer Version

Das Eingabebild wird mit dem "CannyEdgePreprocessor"-Knoten in eine Canny-Kantenkarte umgewandelt, was es für FLUX-ControlNet optimiert. Wichtige Parameter:

  • Niedriger Schwellenwert = 100 (Schwellenwert der Kantenintensität)
  • Hoher Schwellenwert = 200 (Hystereseschwellenwert für Kanten)
  • Größe = 832 (Auflösung der Kantenkarte)

Die resultierende Canny-Kantenkarte wird mit dem "ApplyFluxControlNet"-Knoten verbunden. Auch hier verwenden Sie den Stärkeparameter, um zu steuern, wie stark die Kantenkarte die FLUX-ControlNet-Generierung beeinflusst.

3. Sowohl für ComfyUI FLUX-ControlNet-Depth-V3 als auch ComfyUI FLUX-ControlNet-Canny-V3

In beiden FLUX-ControlNet Workflows wird der CLIP-kodierte Textprompt verbunden, um den Bildinhalt zu steuern, während die FLUX-ControlNet-Konditionierung die Struktur und Geometrie basierend auf der Tiefen- oder Kantenkarte kontrolliert.

Durch das Kombinieren verschiedener FLUX-ControlNets, Eingabemodalitäten wie Tiefe und Kanten und das Anpassen ihrer Stärke können Sie eine feinkörnige Kontrolle sowohl über den semantischen Inhalt als auch über die Struktur der von FLUX-ControlNet generierten Bilder erreichen.

Lizenz: controlnet.safetensors fällt unter die FLUX.1 [dev] Nicht-kommerzielle Lizenz

Lizenz

Lizenzdateien anzeigen:

flux/model_licenses/LICENSE-FLUX1-dev

flux/model_licenses/LICENSE-FLUX1-schnell

Das FLUX.1 [dev] Modell ist von Black Forest Labs. Inc. unter der FLUX.1 [dev] Nicht-kommerziellen Lizenz lizenziert. Urheberrecht Black Forest Labs. Inc.

IN KEINEM FALL HAFTET BLACK FOREST LABS, INC. FÜR IRGENDEINEN ANSPRUCH, SCHÄDEN ODER ANDERE HAFTUNG, OB IN EINER VERTRAGSKLAGE, TORT ODER ANDERWEITIG, DIE AUS DER VERWENDUNG DIESES MODELLS ENTSTEHEN.

More ComfyUI Tutorials

ComfyUI FLUX: Leitfaden zur Einrichtung, Workflows wie FLUX-ControlNet, FLUX-LoRA und FLUX-IPAdapter... und Online-Zugang

Want More ComfyUI Workflows?

ByteDance USO | Einheitlicher Stil- & Themen-Generator

ByteDance USO macht die Verschmelzung von Thema und Stil einfach und leistungsstark.

Hunyuan Bild-zu-Video | Atemberaubender Bewegungscreator

Erstellen Sie beeindruckende Filme aus Standbildern durch kinoreife Bewegungen und anpassbare Effekte.

Fantasy-Porträt | Ausdrucksstarke Fotoanimation

Foto → ausdrucksstarke filmische Gesichtsanimation, schnell und identitätsgenau.

HiDream E1.1 | AI Bildbearbeitung

Bilder mit natürlicher Sprache mit dem HiDream E1.1-Modell bearbeiten

FLUX Kontext Dev | Intelligente Bildbearbeitung

FLUX Kontext Dev | Intelligente Bildbearbeitung

Kontext Dev = Kontrollierbar + Alle Grafikdesign-Bedürfnisse in einem Werkzeug

Wan 2.1 | Revolutionäre Videogenerierung

Erstellen Sie unglaubliche Videos aus Text oder Bildern mit bahnbrechender KI, die auf alltäglichen CPUs läuft.

Audioreactive Dancers Evolved

Verwandeln Sie Ihr Motiv mit einem audioreaktiven Hintergrund aus komplexen Geometrien.

FLUX LoRA Training

FLUX LoRA Training

Führen Sie durch den gesamten Prozess des Trainings von FLUX LoRA-Modellen mit Ihren eigenen Datensätzen.

Folge uns
  • LinkedIn
  • Facebook
  • Instagram
  • Twitter
Support
  • Discord
  • E-Mail
  • Systemstatus
  • Partner
Ressourcen
  • Kostenloses ComfyUI Online
  • ComfyUI Anleitungen
  • RunComfy API
  • ComfyUI Tutorials
  • ComfyUI Nodes
  • Erfahre mehr
Rechtliches
  • Nutzungsbedingungen
  • Datenschutzrichtlinie
  • Cookie-Richtlinie
RunComfy
Urheberrecht 2025 RunComfy. Alle Rechte vorbehalten.

RunComfy ist die führende ComfyUI Plattform, die ComfyUI online Umgebung und Services bietet, zusammen mit ComfyUI Workflows mit atemberaubenden Visualisierungen. RunComfy bietet auch AI-Spielplatz, Künstlern ermöglichen, die neuesten AI-Tools zu nutzen, um unglaubliche Kunst zu schaffen.