chips de IA personalizados
Créditos da imagem: Curto News/Bing AI

Amazon e Hugging Face se unem para rodar modelos de IA em chips personalizados

A Amazon Web Services (AWS), divisĂŁo de computação em nuvem da Amazon.com, anunciou na quarta-feira (24) uma parceria com a startup de inteligĂȘncia artificial (IA) Hugging Face. O objetivo Ă© facilitar a execução de milhares de modelos de IA nos chips personalizados da Amazon.

PUBLICIDADE

Avaliada em US$ 4,5 bilhÔes, a Hugging Face se tornou um centro crucial para pesquisadores e desenvolvedores de IA compartilharem chatbots e outros softwares de IA. A startup conta com o apoio de gigantes como a própria Amazon, Google (Alphabet) e Nvidia. Ela funciona como o principal hub para obtenção e ajustes de modelos de IA open-source, como o Llama 3 da Meta Platforms.

Depois de ajustar um modelo de IA open-source, os desenvolvedores geralmente buscam implementĂĄ-lo em softwares. A parceria anunciada permitirĂĄ rodar esses modelos no chip Inferentia2, desenvolvido pela AWS.

“Para nĂłs, a eficiĂȘncia Ă© fundamental. Queremos garantir que o mĂĄximo de pessoas possa rodar modelos de forma econĂŽmica”, afirma Jeff Boudier, chefe de produto e crescimento da Hugging Face.

PUBLICIDADE

A AWS espera atrair mais desenvolvedores de IA para seus serviços de cloud computing. Embora a Nvidia domine o mercado de treinamento de modelos, a AWS argumenta que seus chips podem executar esses modelos treinados (um processo chamado inferĂȘncia) a um custo mais baixo a longo prazo.

“VocĂȘ treina esses modelos talvez uma vez por mĂȘs. Mas a inferĂȘncia pode ser feita dezenas de milhares de vezes por hora. É nesse ponto que o Inferentia2 se destaca”, explica Matt Wood, responsĂĄvel por produtos de inteligĂȘncia artificial na AWS.

Leia também:

Rolar para cima