Segment Anything V2,又稱 SAM2,是由 Meta AI 開發的突破性 AI 模型,革新了影像與影片中的物件分割。
Segment Anything V2 是一款最先進的 AI 模型,能夠在影像與影片中無縫分割物件。這是首個能夠處理影像和影片分割任務的統一模型,具備卓越的準確性與效率。Segment Anything V2 (SAM2) 建立在其前身 Segment Anything Model (SAM) 的成功基礎上,將其可提示能力擴展至影片領域。
使用 Segment Anything V2 (SAM2),用戶可以透過各種輸入方法選擇影像或影片框架中的物件,例如點擊、邊界框或遮罩。然後模型會智能地分割所選物件,允許在視覺內容中精確地提取和操作特定元素。
SAM2 透過引入每次會話記憶模組將 SAM 的可提示能力擴展至影片,該模組捕捉目標物件信息,允許在多幀中追蹤物件,即使在暫時消失時也能實現。流式架構一次處理一個影片幀,當記憶模組為空時,行為類似於影像的 SAM。這允許實時影片處理和 SAM 能力的自然泛化。SAM2 還支持基於用戶提示的互動式遮罩預測修正。該模型利用流記憶的變壓器架構,並在 SA-V 數據集上進行訓練,這是使用模型內循環數據引擎收集的最大影片分割數據集,通過用戶互動改進模型和數據。
這個 ComfyUI 工作流程支持使用點擊/點選在影片框架中選擇物件。
影片加載:選擇並上傳您希望處理的影片。
關鍵點:在畫布上放置三個關鍵點—positive0
、positive1
和 negative0
:
positive0
和 positive1
標記您要分割的區域或物件。
negative0
幫助排除不需要的區域或干擾。
points_store:允許您根據需要添加或移除點以優化分割過程。
模型選項:從可用的 SAM2 模型中選擇:tiny
、small
、large
或 base_plus
。較大的模型提供更好的結果,但需要更多加載時間。
更多信息,請訪問 。
RunComfy 是首選的 ComfyUI 平台,提供 ComfyUI 在線 環境和服務,以及 ComfyUI 工作流程 具有驚豔的視覺效果。 RunComfy還提供 AI Playground, 幫助藝術家利用最新的AI工具創作出令人驚艷的藝術作品。