A Hugging Face acaba de lançar uma grande atualização para o Open LLM Leaderboard, trazendo novos benchmarks e métodos de avaliação para lidar com a recente estagnação no progresso dos grandes modelos de linguagem (LLMs).
À medida que os LLMs se aproximam do desempenho humano na maioria das tarefas, encontrar novas formas de avaliá-los torna-se mais difícil – e mais crucial. Essa reformulação ajuda a direcionar pesquisadores e desenvolvedores para melhorias mais focadas, fornecendo uma avaliação mais precisa das capacidades dos modelos.
Leia também:
Este post foi modificado pela última vez em 27 de junho de 2024 11:10
Pesquisadores da Microsoft acabaram de apresentar o Magnetic-One, um sistema de orquestração de inteligência artificial…
A Nvidia acaba de anunciar um conjunto abrangente de novas ferramentas de inteligência artificial (IA)…
A OpenAI adquiriu o nome de domínio chat.com (que agora redireciona para o ChatGPT) do…
Com a vitória de Donald Trump na presidência e o controle do Senado pelos republicanos,…
A Tencent acaba de lançar o Hunyuan-Large, um novo modelo de linguagem de código aberto…
A Apple está supostamente dando seus primeiros passos sérios em direção ao desenvolvimento de óculos…