O Google acaba de apresentar o Gemma 2 2B, um modelo de inteligência artificial (IA) surpreendentemente pequeno, com apenas 2 bilhões de parâmetros, que supera modelos muito maiores, como o GPT-3.5 e o Mixtral 8x7B, em benchmarks-chave.
O Gemma 2 2B foi treinado em um gigantesco dataset de 2 trilhões de tokens, apesar de seu tamanho compacto. O modelo alcançou uma pontuação de 1130 no LMSYS Chatbot Arena, igualando o GPT-3.5-Turbo-0613 (1117) e o Mixtral-8x7b (1114) – modelos dez vezes maiores. Outros destaques incluem pontuações de 56,1 no MMLU e 36,6 no MBPP, superando seu antecessor em mais de 10%.
O modelo é open-source, e desenvolvedores podem baixar os pesos do modelo na página de anúncio do Google.
Essa conquista marca um novo patamar na corrida pela IA. Com o Gemma 2, o Google demonstra que é possível criar modelos de IA eficientes e poderosos, mesmo com recursos limitados. Isso é especialmente relevante para a tendência de IA local, onde modelos compactos são essenciais para rodar diretamente em dispositivos como smartphones e laptops. A empresa reforça sua posição de liderança no desenvolvimento de modelos de IA de pequeno porte.
Leia também:
Este post foi modificado pela última vez em 1 de agosto de 2024 11:49
O Google está adicionando uma extensão do Google Home ao aplicativo Gemini, permitindo que você…
A Walt Disney está formando um novo grupo para coordenar o uso da empresa de…
A Nvidia acaba de publicar uma nova pesquisa apresentando o HOVER, uma pequena rede neural…
O ChatGPT agora é oficialmente um mecanismo de busca com inteligência artificial (IA). A empresa…
A Ucrânia está usando dezenas de sistemas de inteligência artificial (IA) fabricados localmente para seus…
A Alphabet, dona do Google, anunciou na quinta-feira (31) um conjunto de recursos que incorporam…