Hugging Face noue un partenariat avec Nvidia pour démocratiser l'accès aux clusters GPU
Lever les barrières pour les chercheurs et les entreprises. En intégrant sa plateforme DGX Cloud Lepton au Training Cluster as a Service de Hugging Face, Nvidia promet d'offrir un accès simplifié à la marketplace GPU : réserver, utiliser et gérer les ressources dans des régions proches des données d’entraînement devient instantané.
La GTC organisée par Nvidia cette semaine à Paris est l'occasion idéale pour la firme pour faire une série d'annonces autour de l'intelligence artificielle. Si la plus importante était sans équivoque celle des fameuses AI factories que que Nvidia veut voir fleurir en Europe afin de garantir la disponibilité de capacités de calcul souveraines, une autre nouvelle a retenu notre attention. Il s'agit de l’extension de DGX Cloud Lepton, une plateforme d’IA dotée d’une marketplace mondiale de calcul qui relie les développeurs d’applications d’IA agentique et physique.
La mise à niveau de cette plateforme d'IA offre quelques précieux avantages : Mistral AI, Nebius, Nscale, Firebird, Fluidstack, Hydra Host, Scaleway et Together AI apportent à présent des GPU Blackwell et d’autres architectures Nvidia à cette marketplace, élargissant ainsi l’accès à la puissance de calcul haute performance. AWS et Microsoft Azure seront les premiers hyperscalers à rejoindre DGX Cloud Lepton, venant s'ajouter à la déjà longue liste d'entreprises présentes sur la plateforme : CoreWeave, Crusoe, Firmus, Foxconn, GMI Cloud, Lambda et Yotta Data Services.
Un partenariat avec Hugging Face pour fournir l'accessibilité au cluster GPU
Pour rendre le calcul accéléré à la portée de tous, Hugging Face lance en parallèle le service Training Cluster as a Service. Cette offre s’intègre à DGX Cloud Lepton afin de relier les chercheurs et développeurs travaillant sur des modèles fondamentaux à l’écosystème de calcul Nvidia, avec, à la clé, la flexibilité de ne payer que pour la durée des exécutions d'entraînement. "Pour commencer, n'importe laquelle des 250 000 organisations présentes sur Hugging Face peut demander la taille de cluster GPU dont elle a besoin, quand elle en a besoin", précise Jeff Boudier, responsable des produits et de la croissance chez Hugging Face, dans un billet de blog.
Notons que l'intégration de DGX Cloud Letpon avec la suite logicielle de la firme représente un grand pas en avant. Nvidia précise en effet qu'il ouvre ses micro-services NIM à tous les LLM, incluant les architectures open LLM les plus populaires et plus d’un million de modèles publics ou privés hébergés sur Hugging Face. Pour les fournisseurs de cloud, DGX Cloud Lepton intègre un logiciel de gestion qui surveille en temps réel l’état des GPU et automatise l’analyse des causes, réduisant les interventions manuelles et les temps d’arrêt.
Proposer des crédits DGX Cloud Lepton au plus grand nombre
En parallèle, le géant des puces affirme travailler également avec les fonds de capital-risque européens Accel, Elaia, Partech et Sofinnova Partners pour proposer jusqu'à 100 000 dollars de crédits DGX Cloud Lepton aux sociétés de leur portefeuille, notamment aux start-up afin que ces dernières puissent accéder aux ressources de calcul accéléré et de stimuler leur développement.
Certaines d'entre elles devraient d'ailleurs avoir un accès privilégié, comme l'indique Nvidia : BioCorteX, Bioptimus et Latent Labs seront parmi les premières à accéder à la plateforme.
Une plateforme unique pour accéder à toutes les ressources
Cette offre s'inscrit dans la vision de Jensen Huang pour l'Europe : en proposant une plateforme unique - DGX Cloud Lepton - cela simplifie l’accès à des ressources fiables et performantes dans des régions spécifiques tout en assurant de la souveraineté et de la sécurité des données conservées localement.
SUR LE MÊME SUJET
Hugging Face noue un partenariat avec Nvidia pour démocratiser l'accès aux clusters GPU
Tous les champs sont obligatoires
0Commentaire
Réagir