A Meta – empenhada em alcançar os rivais no espaço da inteligência artificial (IA) generativa – está gastando bilhões em seus próprios esforços de IA.
PUBLICIDADE
Introducing the next generation of the Meta Training and Inference Accelerator (MTIA), the next in our family of custom-made silicon, designed for Meta’s AI workloads.
— AI at Meta (@AIatMeta) April 10, 2024
Full details ➡️ https://t.co/bF9tn4TfeJ pic.twitter.com/eti6fRCLTs
Uma parte desses bilhões será destinada ao recrutamento de pesquisadores. Mas uma parcela ainda maior está sendo gasta no desenvolvimento de hardware, especificamente chips para executar e treinar os modelos de IA da Meta.
🇬🇧 Subscribe to the best newsletter about AI (in English 🇬🇧) 🇧🇷 Assine a melhor newsletter sobre IA (em português 🇧🇷)
A Meta revelou, nesta quarta-feira (10), o mais novo fruto de seus esforços de desenvolvimento de chips – um dia depois que a Intel anunciou seu mais recente hardware acelerador de IA.
Chamado de Meta Training and Inference Accelerator (MTIA) de “próxima geração”, o sucessor do MTIA v1 do ano passado, o chip executa modelos que incluem classificação e recomendação de anúncios gráficos nas propriedades da Meta (por exemplo, Facebook).
PUBLICIDADE
Comparado ao MTIA v1, que foi construído em um processo de 7 nm, o MTIA de próxima geração tem 5 nm. (Na fabricação de chips, “processo” refere-se ao tamanho do menor componente que pode ser construído no chip.) O MTIA de próxima geração é um design fisicamente maior, repleto de mais núcleos de processamento do que seu antecessor. E embora consuma mais energia – 90 W versus 25 W – também possui mais memória interna (128 MB versus 64 MB) e funciona a uma velocidade média de clock mais alta (1,35 GHz acima de 800 MHz).
Meta diz que o MTIA de próxima geração está atualmente em operação em 16 de suas regiões de data center e oferece desempenho geral até 3x melhor em comparação com o MTIA v1.
Leia também: