O DINOv2 é baseado no modelo de transformador do Vision Transformer (ViT), um modelo de aprendizado profundo que foi desenvolvido pelo Google AI. O DINOv2 é treinado em um conjunto de dados de 142 milhões de imagens, e é capaz de aprender a gerar recursos visuais de alta qualidade.
PUBLICIDADE
A Meta está disponibilizando o modelo sob a licença Apache 2.0, o que significa que ele pode ser usado em produtos e serviços comerciais. A empresa também está lançando uma coleção de modelos de previsão densa baseados em DINOv2 para segmentação de imagem semântica e estimativa de profundidade monocular.
Today we’re announcing two new updates in our computer vision work — a new, expanded license for our DINOv2 model and the release of FACET, a comprehensive new benchmark dataset to help evaluate and improve fairness in vision models.
— Meta AI (@MetaAI) August 31, 2023
More details ➡️ https://t.co/fDHYNpGrta
🧵 pic.twitter.com/dOXDWOLKSY
DINOv2 livre para uso comercial
“Ao fazer a transição para a licença Apache 2.0 e compartilhar um conjunto mais amplo de modelos prontamente utilizáveis, nosso objetivo é promover mais inovações e colaboração na comunidade de visão computacional, permitindo o uso do DINOv2 em uma ampla gama de aplicações, desde pesquisas a soluções do mundo real”, informou a Meta.
Em suma, desenvolvedores do mundo todo terão a partir do DINOv2 uma base de dados consistente para criar e treinar seus modelos de IA baseados em recursos visuais e poderão usar de forma comercial, desde que acordado com a empresa, seus projetos. Confira mais detalhes clicando aqui.
Veja também: