Inteligência Artificial

Meta lança seu primeiro modelo de IA aberto que pode processar imagens

Publicado por
Isabella Caminoto

Apenas dois meses após o lançamento de seu último grande modelo de inteligência artificial (IA), a Meta está de volta com uma atualização importante: seu primeiro modelo de código aberto capaz de processar imagens e texto.

O novo modelo, Llama 3.2, pode permitir que desenvolvedores criem aplicativos de IA mais avançados, como aplicativos de realidade aumentada que fornecem compreensão em tempo real de vídeo, mecanismos de busca visual que classificam imagens com base no conteúdo ou análise de documentos que resumem grandes trechos de texto para você.

A Meta diz que será fácil para os desenvolvedores colocar o novo modelo em funcionamento. Os desenvolvedores terão que fazer pouco além de adicionar essa “nova multimodalidade e serem capazes de mostrar imagens ao Llama e fazer com que ele se comunique”, disse Ahmad Al-Dahle, vice-presidente de IA generativa da Meta, ao The Verge.

Outros desenvolvedores de IA, incluindo OpenAI e Google, já lançaram modelos multimodais no ano passado, então a Meta está correndo atrás. A adição de suporte de visão também desempenhará um papel fundamental à medida que a Meta continua a desenvolver capacidades de IA em hardware como seus óculos Ray-Ban Meta.

O Llama 3.2 inclui dois modelos de visão (com 11 bilhões de parâmetros e 90 bilhões de parâmetros) e dois modelos de texto somente leves (com 1 bilhão de parâmetros e 3 bilhões de parâmetros). Os modelos menores são projetados para funcionar em Qualcomm, MediaTek e outro hardware Arm, com a Meta claramente esperando vê-los sendo usados em dispositivos móveis.

Ainda há um lugar para o (ligeiramente) mais antigo Llama 3.1: esse modelo, lançado em julho, incluía uma versão com 405 bilhões de parâmetros, que teoricamente será mais capaz quando se trata de gerar texto.

Leia também:

Este post foi modificado pela última vez em %s = human-readable time difference 14:45

Isabella Caminoto

Advogada e mestranda em Direito Internacional, tenho a democracia e a liberdade como bandeiras irrenunciáveis. Sou apaixonada pelos animais e acredito que o bem-estar do nosso planeta deveria ser o destaque diário da pauta da nossa sociedade.

Posts recentes

DeepMind dá um salto gigante na computação quântica com o AlphaQubit

O Google DeepMind acaba de apresentar o AlphaQubit, um sistema de inteligência artificial (IA) que…

21 de novembro de 2024

ChatGPT está mais perto de lançar sua IA visual

Um código recém-descoberto na última versão beta do ChatGPT sugere que a OpenAI pode estar…

21 de novembro de 2024

DeepSeek revela poderosa IA de raciocínio; veja

A empresa chinesa de pesquisa em inteligência artificial (IA), DeepSeek, acaba de lançar o R1-Lite-Preview,…

21 de novembro de 2024

OpenAI lança curso gratuito de IA para professores

A OpenAI e a parceira sem fins lucrativos Common Sense Media lançaram um curso de…

20 de novembro de 2024

Robôs da Figure transformam produção da BMW; saiba como

Brett Adcock, CEO da Figure, postou uma atualização sobre os robôs humanoides da empresa trabalhando…

20 de novembro de 2024

Microsoft revela agentes de IA especializados e ferramentas de automação

A Microsoft acaba de apresentar uma suíte de novos agentes de inteligência artificial (IA) especializados…

20 de novembro de 2024