A Nvidia e a Mistral acabaram de lançar o Mistral-NeMo-Minitron 8B, um modelo de linguagem pequeno e altamente preciso que pode rodar eficientemente em laptops e PCs.
O modelo utiliza técnicas de otimização como poda (remoção de certos pesos) e destilação (re-treinamento do modelo podado em um pequeno conjunto de dados) para alcançar alta precisão com um tamanho menor.
Essas otimizações resultaram em uma economia de até 40 vezes em termos de computação bruta durante o treinamento.
Laptops e PCs podem executar o modelo localmente para interações mais rápidas e seguras com a inteligência artificial (IA).
O Minitron 8B lidera nove benchmarks de IA orientados por linguagem para modelos de tamanho semelhante, desde compreensão de linguagem até raciocínio e codificação.
Modelos de IA pequenos o suficiente para rodar localmente em laptops e PCs significam menos dependência de serviços em nuvem, melhor privacidade de dados e respostas mais rápidas. À medida que essa tecnologia evolui, poderemos em breve ver IA avançada em tudo, de smartphones e relógios a eletrodomésticos.
Leia também:
Este post foi modificado pela última vez em 23 de agosto de 2024 09:34
O incremento da tecnologia de inteligência artificial (IA) aumentou substancialmente a demanda por energia -…
A Meta Platforms está lançando privacidade aprimorada e controles parentais para contas do Instagram de…
O TikTok está em uma batalha jurídica nos Estados Unidos para evitar uma possível proibição…
A Microsoft está intensificando seus investimentos em inteligência artificial (IA) no Oriente Médio e na…
A startup de IA Groq recentemente se associou à gigante petrolífera saudita Aramco para construir…
O Slack acaba de anunciar um conjunto de novos recursos alimentados por inteligência artificial (IA),…