Amazon Web Services (AWS), la division cloud computing d'Amazon.com, a annoncé mercredi (24) un partenariat avec la startup intelligence artificielle (AI) Étreindre le visage. L'objectif est de faciliter l'exécution de milliers de modèles d'IA sur les puces personnalisées de l'entreprise. Amazon.
PUBLICITÉ
Évalué à 4,5 milliards de dollars, Hugging Face est devenu une plateforme cruciale permettant aux chercheurs et développeurs en IA de partager des chatbots et d'autres logiciels d'IA. La startup bénéficie du soutien de géants comme Amazon lui-même, Google (Alphabet) et Nvidia. Il sert de plaque tournante principale pour l'obtention et le réglage de modèles d'IA open source, tels que Llama 3 de Meta Platforms.
Après avoir peaufiné un modèle d’IA open source, les développeurs cherchent souvent à l’implémenter dans un logiciel. Le partenariat annoncé permettra à ces modèles de fonctionner sur la puce Inferentia2, développée par AWS.
« Pour nous, l’efficacité est fondamentale. Nous voulons garantir que le plus grand nombre de personnes possible puissent utiliser les modèles de manière rentable », dit Jeff Boudier, responsable produit et croissance chez Hugging Face.
PUBLICITÉ
AWS espère attirer davantage de développeurs d'IA vers ses services de cloud computing. Alors que Nvidia domine le marché de la formation de modèles, AWS affirme que ses puces peuvent exécuter ces modèles formés (un processus appelé inférence) à moindre coût à long terme.
« Vous entraînez ces modèles peut-être une fois par mois. Mais des déductions peuvent être faites des dizaines de milliers de fois par heure. C'est là qu'Inferentia2 se démarque », explique Matt Wood, responsable des produits d'intelligence artificielle chez AWS.
Lire aussi: