A Apple lançou discretamente o OpenELM, uma família de modelos de linguagem pequenos e open-source, projetados para rodar eficientemente em dispositivos como iPhones e Macs.
PUBLICIDADE
🇬🇧 Subscribe to the best newsletter about AI (in English 🇬🇧) 🇧🇷 Assine a melhor newsletter sobre IA (em português 🇧🇷)
Aqui estão os detalhes
- O OpenELM é composto por oito modelos com quatro tamanhos diferentes (270M, 450M, 1.1B e 3B), todos treinados em conjuntos de dados públicos.
- A família de modelos é otimizada para uso no dispositivo, permitindo que tarefas baseadas em inteligência artificial (IA) sejam realizadas sem depender de servidores em nuvem.
- O OpenELM supera ligeiramente modelos open-source comparáveis, como o OLMo, apesar de exigir metade dos dados de treinamento.
- Também foi lançado como open-source o CoreNet, a biblioteca usada para treinar o OpenELM, juntamente com modelos que permitem “inferência eficiente e ajuste fino em dispositivos Apple”.
Porque isso importa
- Parece que todo mundo está entrando no jogo dos modelos pequenos, e este lançamento marca mais uma pista para as possíveis investidas da Apple em IA no dispositivo durante a WWDC.
- Também é notável o lançamento open-source, uma mudança clara em relação à abordagem anteriormente restritiva e secreta da Apple.
Leia também: