Amazon et Hugging Face s’associent pour simplifier le fonctionnement de l’IA dans l’informatique dématérialisée

Le géant américain du commerce électronique Amazon.com Inc. a annoncé un partenariat entre sa branche « cloud computing » et la startup franco-américaine d’intelligence artificielle Hugging Face Inc. afin de simplifier les opérations de milliers de grands modèles de langage (LLM) sur les puces informatiques sur mesure du détaillant en ligne.

Ce partenariat vise à répondre au besoin des développeurs d’utiliser des modèles d’IA pour alimenter des applications logicielles sur la puce spécialisée d’Amazon Web Services (AWS), Inferentia 2.

Hugging Face a fourni aux développeurs une plateforme pour trouver et personnaliser des LLM open-source tels que Llama 3 de Meta Platforms Inc. Cependant, les développeurs souhaitent souvent déployer les IA personnalisées pour exécuter des logiciels.

Jeff Boudier, directeur des produits de Hugging Face, a déclaré que cette collaboration visait à « démocratiser l’accès » aux systèmes d’IA importants en réduisant les défis financiers liés à l’exploitation de modèles complexes.

 

Amazon renforce le rôle de l’IA, l’intégration de l’IA dans l’informatique dématérialisée s’approfondit

 

La collaboration entre les deux entreprises met en évidence une tendance plus large dans le secteur de la technologie qui consiste à associer davantage l’IA aux services en nuage.

Grâce aux puces d’Amazon, la startup basée à New York peut optimiser les performances et réduire les coûts pour les utilisateurs, ce qui pourrait lui donner plus d’élan pour innover et adopter l’IA.

AWS s’attend à ce que ce partenariat renforce l’intérêt des développeurs d’IA pour l’utilisation de ses services en nuage afin de déployer l’IA.

Matt Wood, vice-président d’AWS chargé des produits, a déclaré qu’Inferentia 2 était conçu pour améliorer l’efficacité et la rentabilité de l’inférence de l’IA.

Nvidia Corp., la coqueluche de l’IA, a pris la tête du marché de la formation LLM, mais la division cloud d’Amazon, basée à Seattle, tente de positionner ses puces comme un meilleur choix pour gérer les tâches d’inférence à haute fréquence.

Alors que la formation des modèles peut se faire une fois par mois, l’inférence par rapport à ces modèles peut se produire des milliers de fois par heure, selon M. Wood, qui a suggéré que les puces d’AWS peuvent faire fonctionner de tels outils d’IA à moindre coût au fil du temps.

Cette initiative montre également que le géant américain de la technologie souhaite consolider sa position dans le secteur de l’IA, en défiant les autres sociétés de cloud computing en proposant des services matériels axés sur la gestion de diverses tâches d’IA.

Des partenariats similaires à ceux d’AWS et de Hugging Face pourraient avoir un impact significatif sur l’avenir de l’IA et de l’informatique en nuage, compte tenu des progrès et de la croissance continus de l’IA.

Sending
User Review
0 (0 votes)

ARTICLES SIMILAIRES

Leave a Reply

Inscrivez-vous à Notre Newsletter

Recevez les meilleures actualités des marchés financiers directement dans votre e-mail. Inscrivez-vous pour recevoir les dernières nouvelles des marchés financiers.