logo
RunComfy
  • ComfyUI
  • TrainerNew
  • Models
  • API
  • Pricing
discord logo
ComfyUI>Fluxos de Trabalho>Segment Anything V2 (SAM2) | Segmentação de Vídeo

Segment Anything V2 (SAM2) | Segmentação de Vídeo

Workflow Name: RunComfy/Segment-Anything-V2
Workflow ID: 0000...1113
O Segment Anything V2 (SAM2), desenvolvido pela Meta AI, é um modelo de IA revolucionário que simplifica a segmentação de objetos em imagens e vídeos. Suas capacidades inteligentes de segmentação, combinadas com vários métodos de entrada, agilizam o fluxo de trabalho para artistas de IA. A segmentação de vídeo aprimorada do SAM2, o tempo de interação reduzido e as velocidades rápidas de inferência fazem dele uma ferramenta poderosa para expandir os limites da criação artística impulsionada por IA. O nó ComfyUI-LivePortraitKJ é criado por Kijai, e este fluxo de trabalho é totalmente desenvolvido por ele.

Segment Anything V2, também conhecido como SAM2, é um modelo de IA revolucionário desenvolvido pela Meta AI que revoluciona a segmentação de objetos tanto em imagens quanto em vídeos.

O que é o Segment Anything V2 (SAM2)?

Segment Anything V2 é um modelo de IA de ponta que permite a segmentação perfeita de objetos em imagens e vídeos. É o primeiro modelo unificado capaz de lidar com tarefas de segmentação de imagens e vídeos com precisão e eficiência excepcionais. O Segment Anything V2 (SAM2) baseia-se no sucesso de seu predecessor, o Segment Anything Model (SAM), estendendo suas capacidades de prompt para o domínio de vídeos.

Com o Segment Anything V2 (SAM2), os usuários podem selecionar um objeto em uma imagem ou quadro de vídeo usando vários métodos de entrada, como clique, caixa delimitadora ou máscara. O modelo então segmenta inteligentemente o objeto selecionado, permitindo a extração e manipulação precisas de elementos específicos dentro do conteúdo visual.

Destaques do Segment Anything V2 (SAM2)

  1. Desempenho de Ponta: O SAM2 supera os modelos existentes no campo da segmentação de objetos tanto em imagens quanto em vídeos. Ele estabelece um novo padrão de precisão e exatidão, superando o desempenho de seu predecessor, SAM, em tarefas de segmentação de imagens.
  2. Modelo Unificado para Imagens e Vídeos: O SAM2 é o primeiro modelo a fornecer uma solução unificada para segmentar objetos em imagens e vídeos. Essa integração simplifica o fluxo de trabalho para artistas de IA, pois eles podem usar um único modelo para várias tarefas de segmentação.
  3. Capacidades Aprimoradas de Segmentação de Vídeo: O SAM2 se destaca na segmentação de objetos em vídeos, particularmente no rastreamento de partes de objetos. Ele supera os modelos de segmentação de vídeo existentes, oferecendo melhor precisão e consistência na segmentação de objetos ao longo dos quadros.
  4. Destaques da Segmentação A. Tempo de Interação Reduzido: Comparado aos métodos interativos de segmentação de vídeo existentes, o SAM2 requer menos tempo de interação dos usuários. Essa eficiência permite que os artistas de IA se concentrem mais em sua visão criativa e gastem menos tempo em tarefas de segmentação manual.
  5. Design Simples e Inferência Rápida: Apesar de suas capacidades avançadas, o SAM2 mantém um design arquitetônico simples e oferece velocidades rápidas de inferência. Isso garante que os artistas de IA possam integrar o SAM2 em seus fluxos de trabalho sem comprometer o desempenho ou a eficiência.

Como o Segment Anything V2 (SAM2) Funciona

O SAM2 estende a capacidade de prompt do SAM para vídeos, introduzindo um módulo de memória por sessão que captura informações do objeto alvo, permitindo o rastreamento de objetos ao longo dos quadros, mesmo com desaparecimentos temporários. A arquitetura de streaming processa quadros de vídeo um de cada vez, comportando-se como o SAM para imagens quando o módulo de memória está vazio. Isso permite o processamento de vídeo em tempo real e a generalização natural das capacidades do SAM. O SAM2 também suporta correções interativas de previsão de máscara com base em prompts do usuário. O modelo utiliza uma arquitetura de transformador com memória de streaming e é treinado no conjunto de dados SA-V, o maior conjunto de dados de segmentação de vídeo coletado usando um motor de dados com modelo no loop que melhora tanto o modelo quanto os dados através da interação do usuário.

Como usar o Segment Anything V2 (SAM2) no ComfyUI

Este fluxo de trabalho do ComfyUI suporta a seleção de um objeto em um quadro de vídeo usando um clique/ponto.

1. Carregar Vídeo (Upload)

Carregamento de Vídeo: Selecione e carregue o vídeo que deseja processar.

ComfyUI Segment Anything V2 (SAM2)

2. Editor de Pontos

ponto chave: Coloque três pontos chave na tela—positive0, positive1 e negative0:

positive0 e positive1 marcam as regiões ou objetos que você deseja segmentar.

negative0 ajuda a excluir áreas indesejadas ou distrações.

ComfyUI Segment Anything V2 (SAM2)

points_store: Permite adicionar ou remover pontos conforme necessário para refinar o processo de segmentação.

ComfyUI Segment Anything V2 (SAM2)

3. Seleção do Modelo SAM2

Opções de Modelo: Escolha entre os modelos SAM2 disponíveis: tiny, small, large ou base_plus. Modelos maiores fornecem melhores resultados, mas requerem mais tempo de carregamento.

ComfyUI Segment Anything V2 (SAM2)

Para mais informações, por favor visite Kijai ComfyUI-segment-anything-2.

Want More ComfyUI Workflows?

Vid2Vid Parte 2 | SDXL Style Transfer

Aprimore a criatividade do Vid2Vid focando na composição e no mascaramento do seu vídeo original.

FLUX IP-Adapter | Geração de Imagens com Adaptação de Estilo

FLUX IP-Adapter | Geração de Imagens com Adaptação de Estilo

Adapte modelos pré-treinados a estilos de imagem específicos para visuais impressionantes de 512x512 e 1024x1024.

Animatediff V2 & V3 | Texto para Vídeo

Explore AnimateDiff V3, AnimateDiff SDXL e AnimateDiff V2 e use Upscale para resultados de alta resolução.

Edição de Imagem FireRed | Aprimorador Inteligente de Fotos

Correções nítidas de fotos com controle fiel de tom e detalhe perfeito.

Wan 2.2 Geração de Imagens | Pacote de Fluxo de Trabalho 2-em-1

MoE Mix + Somente-Baixo com aumento de resolução. Escolha um.

Z-Image | Modelo Base Fotorrealista Rápido

Criador de imagens super-rápido com clareza impressionante e controle total.

Hunyuan3D | ComfyUI 3D Pack

Crie imagens RGB de múltiplas vistas primeiro, depois transforme-as em ativos 3D.

Flux & 10 Modelos In-Context LoRA

Flux & 10 Modelos In-Context LoRA

Descubra Flux e 10 modelos versáteis In-Context LoRA para geração de imagens.

Siga-nos
  • LinkedIn
  • Facebook
  • Instagram
  • Twitter
Suporte
  • Discord
  • E-mail
  • Status do Sistema
  • afiliado
Recursos
  • ComfyUI Online Gratuito
  • Guias do ComfyUI
  • RunComfy API
  • Tutoriais do ComfyUI
  • Nós do ComfyUI
  • Saiba Mais
Legal
  • Termos de Serviço
  • Política de Privacidade
  • Política de Cookies
RunComfy
Copyright 2026 RunComfy. Todos os Direitos Reservados.

RunComfy é a principal ComfyUI plataforma, oferecendo ComfyUI online ambiente e serviços, juntamente com fluxos de trabalho do ComfyUI apresentando visuais impressionantes. RunComfy também oferece AI Models, permitindo que artistas utilizem as mais recentes ferramentas de AI para criar arte incrível.