IC-Light ist ein auf KI basierendes Bildbearbeitungstool, das sich mit Stable Diffusion-Modellen integriert, um lokalisierte Bearbeitungen an generierten Bildern durchzuführen. Es funktioniert, indem es das Bild in eine latente Raumrepräsentation kodiert, Bearbeitungen auf bestimmte Regionen anwendet und dann die modifizierte latente Repräsentation wieder in ein Bild dekodiert. Dieser Ansatz ermöglicht eine präzise Kontrolle über den Bearbeitungsprozess und bewahrt gleichzeitig den Gesamtstil und die Kohärenz des Originalbildes.
Es gibt nun zwei veröffentlichte Modelle: ein textgesteuertes Neubeleuchtungsmodell und ein hintergrundgesteuertes Modell. Beide Typen nehmen Vordergrundbilder als Eingabe.
Unter der Haube nutzt IC-Light die Leistung von Stable Diffusion-Modellen, um Bilder zu kodieren und zu dekodieren. Der Prozess kann in die folgenden Schritte unterteilt werden:
2.1. Kodierung: Das Eingabebild wird durch den Stable Diffusion VAE (Variational Autoencoder) geleitet, um eine komprimierte latente Raumrepräsentation zu erhalten. 2.2. Bearbeitung: Die gewünschten Bearbeitungen werden auf bestimmte Regionen der latenten Repräsentation angewendet. Dies geschieht typischerweise durch Verkettung der ursprünglichen Latenz mit einer Maske, die die zu modifizierenden Bereiche angibt, zusammen mit den entsprechenden Bearbeitungsprompts. 2.3. Dekodierung: Die modifizierte latente Repräsentation wird durch den Stable Diffusion-Decoder geleitet, um das bearbeitete Bild zu rekonstruieren. Durch die Arbeit im latenten Raum kann IC-Light lokalisierte Bearbeitungen vornehmen und gleichzeitig die Gesamtkohärenz und den Stil des Bildes beibehalten.
Der Hauptknoten, mit dem Sie arbeiten werden, ist der "IC-Light Apply"-Knoten, der den gesamten Prozess der Kodierung, Bearbeitung und Dekodierung Ihres Bildes übernimmt.
Der "IC-Light Apply"-Knoten benötigt drei Haupteingaben:
Um die c_concat-Eingabe zu erstellen:
Nach der Verarbeitung Ihrer Eingaben gibt der "IC-Light Apply"-Knoten einen einzigen Parameter aus:
Um Ihr endgültiges bearbeitetes Bild zu generieren, verbinden Sie einfach das Ausgabemodell mit den entsprechenden Knoten in Ihrem ComfyUI-Workflow, wie z. B. den KSampler- und VAEDecode-Knoten.
Weitere Informationen finden Sie auf
RunComfy ist die führende ComfyUI Plattform, die ComfyUI online Umgebung und Services bietet, zusammen mit ComfyUI Workflows mit atemberaubenden Visualisierungen. RunComfy bietet auch AI-Spielplatz, Künstlern ermöglichen, die neuesten AI-Tools zu nutzen, um unglaubliche Kunst zu schaffen.