A meta – toegewijd aan het inhalen van rivalen op het gebied van inteligência kunstmatig Generatief (AI) – geeft miljarden uit aan zijn eigen AI-inspanningen.
PUBLICITEIT
Introductie van de volgende generatie van de Meta Training and Inference Accelerator (MTIA), de volgende in onze familie van op maat gemaakt silicium, ontworpen voor Meta's AI-workloads.
— AI bij Meta (@AIatMeta) 10 april 2024
Volledige details ➡️ https://t.co/bF9tn4TfeJ pic.twitter.com/eti6fRCLTs
Een deel van deze miljarden zal worden besteed aan werving van onderzoekers. Maar een nog groter deel wordt besteed aan het ontwikkelen van hardware, met name aan chips om Meta's AI-modellen uit te voeren en te trainen.
🇬🇧 Zich abonneren op de beste newsletter over AI (in het Engels 🇬🇧) ???????? Teken Het het beste newsletter over AI (in het Portugees 🇧🇷)
Een meta gevonden, aanstaande woensdag (10), het nieuwste resultaat van zijn inspanningen op het gebied van chipontwikkeling – een dag na Intel anunciou de nieuwste AI-acceleratorhardware.
De chip wordt de “volgende generatie” Meta Training and Inference Accelerator (MTIA) genoemd, de opvolger van de MTIA v1 van vorig jaar, en voert modellen uit die het rangschikken en aanbevelen van display-advertenties op Meta-eigendommen (bijvoorbeeld Facebook) omvatten.
PUBLICITEIT
Vergeleken met MTIA v1, dat is gebouwd op een 7 nm-proces, is de volgende generatie MTIA 5 nm. (Bij de productie van chips verwijst ‘proces’ naar de grootte van het kleinste onderdeel dat op de chip kan worden gebouwd.) De MTIA van de volgende generatie is een fysiek groter ontwerp, boordevol meer verwerkingskernen dan zijn voorganger. En hoewel hij meer stroom verbruikt – 90 W versus 25 W – heeft hij ook meer intern geheugen (128 MB versus 64 MB) en draait hij op een hogere gemiddelde kloksnelheid (1,35 GHz over 800 MHz).
Meta zegt dat de volgende generatie MTIA momenteel operationeel is in 16 van zijn datacenterregio's en tot 3x betere algehele prestaties levert vergeleken met MTIA v1.
Lees ook: