Meta lança seu primeiro modelo de IA aberto que pode processar imagens
Créditos da imagem: Curto News/Bing Image Creator

Meta lança seu primeiro modelo de IA aberto que pode processar imagens

Apenas dois meses após o lançamento de seu último grande modelo de inteligência artificial (IA), a Meta está de volta com uma atualização importante: seu primeiro modelo de código aberto capaz de processar imagens e texto.

PUBLICIDADE

O novo modelo, Llama 3.2, pode permitir que desenvolvedores criem aplicativos de IA mais avançados, como aplicativos de realidade aumentada que fornecem compreensão em tempo real de vídeo, mecanismos de busca visual que classificam imagens com base no conteúdo ou análise de documentos que resumem grandes trechos de texto para você.

A Meta diz que será fácil para os desenvolvedores colocar o novo modelo em funcionamento. Os desenvolvedores terão que fazer pouco além de adicionar essa “nova multimodalidade e serem capazes de mostrar imagens ao Llama e fazer com que ele se comunique”, disse Ahmad Al-Dahle, vice-presidente de IA generativa da Meta, ao The Verge.

Outros desenvolvedores de IA, incluindo OpenAI e Google, já lançaram modelos multimodais no ano passado, então a Meta está correndo atrás. A adição de suporte de visão também desempenhará um papel fundamental à medida que a Meta continua a desenvolver capacidades de IA em hardware como seus óculos Ray-Ban Meta.

PUBLICIDADE

O Llama 3.2 inclui dois modelos de visão (com 11 bilhões de parâmetros e 90 bilhões de parâmetros) e dois modelos de texto somente leves (com 1 bilhão de parâmetros e 3 bilhões de parâmetros). Os modelos menores são projetados para funcionar em Qualcomm, MediaTek e outro hardware Arm, com a Meta claramente esperando vê-los sendo usados em dispositivos móveis.

Ainda há um lugar para o (ligeiramente) mais antigo Llama 3.1: esse modelo, lançado em julho, incluía uma versão com 405 bilhões de parâmetros, que teoricamente será mais capaz quando se trata de gerar texto.

Leia também:

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Rolar para cima