A Nvidia e a Mistral acabaram de lançar o Mistral-NeMo-Minitron 8B, um modelo de linguagem pequeno e altamente preciso que pode rodar eficientemente em laptops e PCs.
O modelo utiliza técnicas de otimização como poda (remoção de certos pesos) e destilação (re-treinamento do modelo podado em um pequeno conjunto de dados) para alcançar alta precisão com um tamanho menor.
Essas otimizações resultaram em uma economia de até 40 vezes em termos de computação bruta durante o treinamento.
Laptops e PCs podem executar o modelo localmente para interações mais rápidas e seguras com a inteligência artificial (IA).
O Minitron 8B lidera nove benchmarks de IA orientados por linguagem para modelos de tamanho semelhante, desde compreensão de linguagem até raciocínio e codificação.
Modelos de IA pequenos o suficiente para rodar localmente em laptops e PCs significam menos dependência de serviços em nuvem, melhor privacidade de dados e respostas mais rápidas. À medida que essa tecnologia evolui, poderemos em breve ver IA avançada em tudo, de smartphones e relógios a eletrodomésticos.
Leia também:
Este post foi modificado pela última vez em 23 de agosto de 2024 09:34
A Walt Disney está formando um novo grupo para coordenar o uso da empresa de…
A Nvidia acaba de publicar uma nova pesquisa apresentando o HOVER, uma pequena rede neural…
O ChatGPT agora é oficialmente um mecanismo de busca com inteligência artificial (IA). A empresa…
A Ucrânia está usando dezenas de sistemas de inteligência artificial (IA) fabricados localmente para seus…
A Alphabet, dona do Google, anunciou na quinta-feira (31) um conjunto de recursos que incorporam…
A startup de design Recraft acaba de anunciar seu novo modelo de inteligência artificial (IA)…