AI21 Labs acaba de lançar o Jamba, um modelo de IA de código aberto que mescla a arquitetura Mamba Structured State Space (SSM) com componentes da arquitetura de transformador tradicional, criando um poderoso sistema híbrido.
Jamba, com sua notável janela de contexto de 256K, equivalente a aproximadamente 105.000 palavras ou 210 páginas, destaca-se como um avanço significativo. Este modelo oferece um processamento três vezes mais rápido em contextos longos em comparação com modelos de tamanho semelhante baseados em transformadores.
Sua eficiência é impressionante, necessitando apenas de uma única GPU com 80 GB de memória para operar, apesar da vasta extensão de sua janela de contexto. Isso representa um marco importante, tornando-o acessível e viável mesmo para configurações de hardware mais modestas.
Os pesos do Jamba estão prontamente disponíveis no HuggingFace, permitindo fácil acesso e implementação para aqueles interessados em explorar suas capacidades. Essa disponibilidade promete estimular ainda mais o desenvolvimento e a inovação na área de processamento de linguagem natural.
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 19:54
O mais recente modelo experimental Gemini da Google (1121) acabou de recuperar o primeiro lugar…
A OpenAI está considerando desenvolver um navegador web que se integraria ao ChatGPT e aos…
O Google DeepMind acaba de apresentar o AlphaQubit, um sistema de inteligência artificial (IA) que…
Um código recém-descoberto na última versão beta do ChatGPT sugere que a OpenAI pode estar…
A empresa chinesa de pesquisa em inteligência artificial (IA), DeepSeek, acaba de lançar o R1-Lite-Preview,…
A OpenAI e a parceira sem fins lucrativos Common Sense Media lançaram um curso de…