A Meta anunciou na quinta (31) que está lançando o DINOv2 para uso comercial. O DINOv2 é uma família de modelos de visão computacional pré-treinados que podem ser usados para uma variedade de tarefas, incluindo reconhecimento de objetos, segmentação de imagem e detecção de rostos.
O DINOv2 é baseado no modelo de transformador do Vision Transformer (ViT), um modelo de aprendizado profundo que foi desenvolvido pelo Google AI. O DINOv2 é treinado em um conjunto de dados de 142 milhões de imagens, e é capaz de aprender a gerar recursos visuais de alta qualidade.
A Meta está disponibilizando o modelo sob a licença Apache 2.0, o que significa que ele pode ser usado em produtos e serviços comerciais. A empresa também está lançando uma coleção de modelos de previsão densa baseados em DINOv2 para segmentação de imagem semântica e estimativa de profundidade monocular.
“Ao fazer a transição para a licença Apache 2.0 e compartilhar um conjunto mais amplo de modelos prontamente utilizáveis, nosso objetivo é promover mais inovações e colaboração na comunidade de visão computacional, permitindo o uso do DINOv2 em uma ampla gama de aplicações, desde pesquisas a soluções do mundo real”, informou a Meta.
Em suma, desenvolvedores do mundo todo terão a partir do DINOv2 uma base de dados consistente para criar e treinar seus modelos de IA baseados em recursos visuais e poderão usar de forma comercial, desde que acordado com a empresa, seus projetos. Confira mais detalhes clicando aqui.
Veja também:
Este post foi modificado pela última vez em %s = human-readable time difference 18:03
O Google DeepMind acaba de anunciar uma parceria estratégica com a Apptronik, uma empresa de…
Uma equipe de pesquisadores de 20 laboratórios diferentes acaba de apresentar o Genesis, um motor…
O Google acabou de lançar o que está chamando de um novo modelo de inteligência…
A GitHub, de propriedade da Microsoft, acaba de anunciar um nível gratuito de seu Copilot…
A OpenAI acaba de lançar uma nova maneira surpreendente de acessar o ChatGPT - através…
O Google DeepMind acaba de lançar o FACTS Grounding, um novo benchmark projetado para avaliar…