O Google acaba de apresentar o Gemma 2 2B, um modelo de inteligência artificial (IA) surpreendentemente pequeno, com apenas 2 bilhões de parâmetros, que supera modelos muito maiores, como o GPT-3.5 e o Mixtral 8x7B, em benchmarks-chave.
O Gemma 2 2B foi treinado em um gigantesco dataset de 2 trilhões de tokens, apesar de seu tamanho compacto. O modelo alcançou uma pontuação de 1130 no LMSYS Chatbot Arena, igualando o GPT-3.5-Turbo-0613 (1117) e o Mixtral-8x7b (1114) – modelos dez vezes maiores. Outros destaques incluem pontuações de 56,1 no MMLU e 36,6 no MBPP, superando seu antecessor em mais de 10%.
O modelo é open-source, e desenvolvedores podem baixar os pesos do modelo na página de anúncio do Google.
Essa conquista marca um novo patamar na corrida pela IA. Com o Gemma 2, o Google demonstra que é possível criar modelos de IA eficientes e poderosos, mesmo com recursos limitados. Isso é especialmente relevante para a tendência de IA local, onde modelos compactos são essenciais para rodar diretamente em dispositivos como smartphones e laptops. A empresa reforça sua posição de liderança no desenvolvimento de modelos de IA de pequeno porte.
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 11:49
O Google DeepMind acaba de apresentar o AlphaQubit, um sistema de inteligência artificial (IA) que…
Um código recém-descoberto na última versão beta do ChatGPT sugere que a OpenAI pode estar…
A empresa chinesa de pesquisa em inteligência artificial (IA), DeepSeek, acaba de lançar o R1-Lite-Preview,…
A OpenAI e a parceira sem fins lucrativos Common Sense Media lançaram um curso de…
Brett Adcock, CEO da Figure, postou uma atualização sobre os robôs humanoides da empresa trabalhando…
A Microsoft acaba de apresentar uma suíte de novos agentes de inteligência artificial (IA) especializados…