A Magic acaba de desenvolver o LTM-2-mini, um modelo capaz de processar 100 milhões de tokens de contexto – equivalente a cerca de 10 milhões de linhas de código ou 750 romances – e fez parceria com a Google Cloud para construir supercomputadores de inteligência artificial (IA) avançados.
Esse avanço no comprimento do contexto permite que agentes de IA processem e raciocinem sobre bases de código densas e complicadas, vastos bancos de dados e anos de histórico de conversa em uma única inferência. É um passo significativo em direção à criação de assistentes de IA com memória e recall quase perfeitos.
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 12:51
O Google DeepMind acaba de apresentar o AlphaQubit, um sistema de inteligência artificial (IA) que…
Um código recém-descoberto na última versão beta do ChatGPT sugere que a OpenAI pode estar…
A empresa chinesa de pesquisa em inteligência artificial (IA), DeepSeek, acaba de lançar o R1-Lite-Preview,…
A OpenAI e a parceira sem fins lucrativos Common Sense Media lançaram um curso de…
Brett Adcock, CEO da Figure, postou uma atualização sobre os robôs humanoides da empresa trabalhando…
A Microsoft acaba de apresentar uma suíte de novos agentes de inteligência artificial (IA) especializados…