Crédits images : Curto Actualités/Bing IA

Amazon et Hugging Face s'associent pour exécuter des modèles d'IA sur des puces personnalisées

Amazon Web Services (AWS), la division cloud computing d'Amazon.com, a annoncé mercredi (24) un partenariat avec la startup intelligence artificielle (AI) Étreindre le visage. L'objectif est de faciliter l'exécution de milliers de modèles d'IA sur les puces personnalisées de l'entreprise. Amazon.

PUBLICITÉ

Évalué à 4,5 milliards de dollars, Hugging Face est devenu une plateforme cruciale permettant aux chercheurs et développeurs en IA de partager des chatbots et d'autres logiciels d'IA. La startup bénéficie du soutien de géants comme Amazon lui-même, Google (Alphabet) et Nvidia. Il sert de plaque tournante principale pour l'obtention et le réglage de modèles d'IA open source, tels que Llama 3 de Meta Platforms.

Après avoir peaufiné un modèle d’IA open source, les développeurs cherchent souvent à l’implémenter dans un logiciel. Le partenariat annoncé permettra à ces modèles de fonctionner sur la puce Inferentia2, développée par AWS.

« Pour nous, l’efficacité est fondamentale. Nous voulons garantir que le plus grand nombre de personnes possible puissent utiliser les modèles de manière rentable », dit Jeff Boudier, responsable produit et croissance chez Hugging Face.

PUBLICITÉ

AWS espère attirer davantage de développeurs d'IA vers ses services de cloud computing. Alors que Nvidia domine le marché de la formation de modèles, AWS affirme que ses puces peuvent exécuter ces modèles formés (un processus appelé inférence) à moindre coût à long terme.

« Vous entraînez ces modèles peut-être une fois par mois. Mais des déductions peuvent être faites des dizaines de milliers de fois par heure. C'est là qu'Inferentia2 se démarque », explique Matt Wood, responsable des produits d'intelligence artificielle chez AWS.

Lire aussi:

Faire défiler vers le haut