O Google acaba de apresentar o Gemma 2 2B, um modelo de inteligência artificial (IA) surpreendentemente pequeno, com apenas 2 bilhões de parâmetros, que supera modelos muito maiores, como o GPT-3.5 e o Mixtral 8x7B, em benchmarks-chave.
O Gemma 2 2B foi treinado em um gigantesco dataset de 2 trilhões de tokens, apesar de seu tamanho compacto. O modelo alcançou uma pontuação de 1130 no LMSYS Chatbot Arena, igualando o GPT-3.5-Turbo-0613 (1117) e o Mixtral-8x7b (1114) – modelos dez vezes maiores. Outros destaques incluem pontuações de 56,1 no MMLU e 36,6 no MBPP, superando seu antecessor em mais de 10%.
O modelo é open-source, e desenvolvedores podem baixar os pesos do modelo na página de anúncio do Google.
Essa conquista marca um novo patamar na corrida pela IA. Com o Gemma 2, o Google demonstra que é possível criar modelos de IA eficientes e poderosos, mesmo com recursos limitados. Isso é especialmente relevante para a tendência de IA local, onde modelos compactos são essenciais para rodar diretamente em dispositivos como smartphones e laptops. A empresa reforça sua posição de liderança no desenvolvimento de modelos de IA de pequeno porte.
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 11:49
O Google DeepMind acaba de anunciar uma parceria estratégica com a Apptronik, uma empresa de…
Uma equipe de pesquisadores de 20 laboratórios diferentes acaba de apresentar o Genesis, um motor…
O Google acabou de lançar o que está chamando de um novo modelo de inteligência…
A GitHub, de propriedade da Microsoft, acaba de anunciar um nível gratuito de seu Copilot…
A OpenAI acaba de lançar uma nova maneira surpreendente de acessar o ChatGPT - através…
O Google DeepMind acaba de lançar o FACTS Grounding, um novo benchmark projetado para avaliar…