A Meta acaba de apresentar o Segment Anything Model 2 (SAM 2), um modelo avançado de inteligência artificial (IA) capaz de identificar e rastrear objetos em quadros de vídeo em tempo real, marcando um salto significativo na IA de vídeo.
O SAM 2 amplia as capacidades anteriores de segmentação de imagem da Meta para vídeo, enfrentando desafios como movimento rápido e oclusão de objetos. O modelo pode segmentar qualquer objeto em um vídeo e criar recortes com alguns cliques — com uma demonstração gratuita disponível aqui. A Meta também está tornando o modelo de código aberto e lançando um grande banco de dados anotado de 50.000 vídeos usados para treinamento. Aplicações potenciais incluem edição de vídeo, experiências de realidade mista e pesquisa científica.
A capacidade do SAM 2 de rastrear objetos em tempo real pode tornar tarefas complexas de edição de vídeo, como remoção ou substituição de objetos, tão simples quanto um único clique. Com o Llama 3.1 na semana passada e agora o SAM 2, a Meta continua sua estratégia de desenvolver avanços massivos em IA — enquanto torna tudo aberto e gratuito para uso.
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 11:39
O Google DeepMind acaba de anunciar uma parceria estratégica com a Apptronik, uma empresa de…
Uma equipe de pesquisadores de 20 laboratórios diferentes acaba de apresentar o Genesis, um motor…
O Google acabou de lançar o que está chamando de um novo modelo de inteligência…
A GitHub, de propriedade da Microsoft, acaba de anunciar um nível gratuito de seu Copilot…
A OpenAI acaba de lançar uma nova maneira surpreendente de acessar o ChatGPT - através…
O Google DeepMind acaba de lançar o FACTS Grounding, um novo benchmark projetado para avaliar…