A Databricks acaba de anunciar o DBRX, um novo modelo de linguagem grande (LLM) de código aberto com recursos avançados de compreensão de linguagem e código.
O DBRX supera os principais modelos de código aberto, como Mixtral MoE, Llama-2 70B e Grok-1, em compreensão de linguagem, programação e matemática.
Além disso, sua inferência é até 2x mais rápida que a do LLaMA2-70B e tem cerca de 40% do tamanho do Grok-1 em contagens de parâmetros totais e ativos.
O modelo também demonstra superioridade sobre o GPT-3.5 em tarefas de longo contexto e benchmarks RAG.
Surpreendentemente, foram necessários apenas US$ 10 milhões e dois meses para treinar o DBRX do zero, destacando sua eficiência e eficácia no desenvolvimento de modelos de linguagem.
A criação, pela Databricks, de um modelo de nível GPT 3.5 com apenas US$ 10 milhões e dois meses estabelece um novo padrão para o setor. No entanto, enquanto liderar a tabela de classificação de código aberto é impressionante, a iminente chegada do tão aguardado Llama 3 da Meta sugere que o modelo provavelmente não permanecerá no topo por muito tempo.
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 13:58
O Google DeepMind acaba de anunciar uma parceria estratégica com a Apptronik, uma empresa de…
Uma equipe de pesquisadores de 20 laboratórios diferentes acaba de apresentar o Genesis, um motor…
O Google acabou de lançar o que está chamando de um novo modelo de inteligência…
A GitHub, de propriedade da Microsoft, acaba de anunciar um nível gratuito de seu Copilot…
A OpenAI acaba de lançar uma nova maneira surpreendente de acessar o ChatGPT - através…
O Google DeepMind acaba de lançar o FACTS Grounding, um novo benchmark projetado para avaliar…