O Google acaba de apresentar o Gemma 2 2B, um modelo de inteligência artificial (IA) surpreendentemente pequeno, com apenas 2 bilhões de parâmetros, que supera modelos muito maiores, como o GPT-3.5 e o Mixtral 8x7B, em benchmarks-chave.
PUBLICIDADE
O Gemma 2 2B foi treinado em um gigantesco dataset de 2 trilhões de tokens, apesar de seu tamanho compacto. O modelo alcançou uma pontuação de 1130 no LMSYS Chatbot Arena, igualando o GPT-3.5-Turbo-0613 (1117) e o Mixtral-8x7b (1114) – modelos dez vezes maiores. Outros destaques incluem pontuações de 56,1 no MMLU e 36,6 no MBPP, superando seu antecessor em mais de 10%.
O modelo é open-source, e desenvolvedores podem baixar os pesos do modelo na página de anúncio do Google.
Essa conquista marca um novo patamar na corrida pela IA. Com o Gemma 2, o Google demonstra que é possível criar modelos de IA eficientes e poderosos, mesmo com recursos limitados. Isso é especialmente relevante para a tendência de IA local, onde modelos compactos são essenciais para rodar diretamente em dispositivos como smartphones e laptops. A empresa reforça sua posição de liderança no desenvolvimento de modelos de IA de pequeno porte.
PUBLICIDADE
Leia também: