A Amazon Web Services (AWS), divisão de computação em nuvem da Amazon.com, anunciou na quarta-feira (24) uma parceria com a startup de inteligência artificial (IA) Hugging Face. O objetivo é facilitar a execução de milhares de modelos de IA nos chips personalizados da Amazon.
PUBLICIDADE
Avaliada em US$ 4,5 bilhões, a Hugging Face se tornou um centro crucial para pesquisadores e desenvolvedores de IA compartilharem chatbots e outros softwares de IA. A startup conta com o apoio de gigantes como a própria Amazon, Google (Alphabet) e Nvidia. Ela funciona como o principal hub para obtenção e ajustes de modelos de IA open-source, como o Llama 3 da Meta Platforms.
Depois de ajustar um modelo de IA open-source, os desenvolvedores geralmente buscam implementá-lo em softwares. A parceria anunciada permitirá rodar esses modelos no chip Inferentia2, desenvolvido pela AWS.
“Para nós, a eficiência é fundamental. Queremos garantir que o máximo de pessoas possa rodar modelos de forma econômica”, afirma Jeff Boudier, chefe de produto e crescimento da Hugging Face.
PUBLICIDADE
A AWS espera atrair mais desenvolvedores de IA para seus serviços de cloud computing. Embora a Nvidia domine o mercado de treinamento de modelos, a AWS argumenta que seus chips podem executar esses modelos treinados (um processo chamado inferência) a um custo mais baixo a longo prazo.
“Você treina esses modelos talvez uma vez por mês. Mas a inferência pode ser feita dezenas de milhares de vezes por hora. É nesse ponto que o Inferentia2 se destaca”, explica Matt Wood, responsável por produtos de inteligência artificial na AWS.
Leia também: