HPE décroche un contrat d'un milliard de dollars pour fournir des serveurs d'IA au réseau social X
Le spécialiste des serveurs peut se targuer d'avoir bouclé une belle opération avec la plateforme de médias sociaux X. Les serveurs optimisés pour l'IA supporteront les fonctionnalités d'IA apportées au réseau social, notamment Grok, le chatbot développé par xAI.
Hewlett Packard Enterprise aurait conclu un accord de plus d'un milliard de dollars pour fournir au réseau social X des serveurs optimisés pour les tâches d'intelligence artificielle, a rapporté Bloomberg News vendredi, citant des sources. L'accord aurait été conclu fin de l'année dernière.
Les concurrents Dell Technologies et Super Micro Computer avaient également soumis des offres pour fournir cet équipement. L'annonce d'un tel deal n'est pas surprenant. Les serveurs construits pour l'IA ont la cote : les entreprises sont de plus en plus nombreuses à rechercher du matériel adapté à leurs applications.
Tesla et xAI multiplient les accords pour amasser les serveurs d'IA
D'autres entreprises d'Elon Musk ont d'ailleurs signé des contrats similaires récemment. Tesla, par exemple, serait en négociation avec le sud-coréen SK Hynix concernant l'approvisionnement potentiel des disques SSD d'entreprise (eSSD) pour les serveurs d'IA pour un montant avoisinant les 740 millions de dollars.
Le constructeur automobile a investi environ 10 milliards de dollars durant l'année écoulée dans les serveurs d'IA et les semi-conducteurs, et cherche à améliorer sa technologie de conduite entièrement autonome et ses systèmes d'IA grâce à ces mises à niveau. Le passage de Tesla à l'eSSD - par rapport au HDD - devrait aider à améliorer la vitesse, l'efficacité énergétique et la gestion des données dans les applications d'IA.
xAI, pour sa part, a obtenu un accès prioritaire aux serveurs d'IA GB200 de Nvidia, sous couvert d'un accord de 1,08 milliard de dollars réalisé le mois dernier. L'acquisition de ces serveurs d'IA avancés, dont la livraison est prévue courant janvier, améliorera considérablement les capacités de calcul intensif de la start-up d'IA qui cherche à concurrencer OpenAI avec son assistant Grok. A date, elle possède un cluster de calcul connu sous le nom de Colossus et alimenté par 100 000 H100 assemblés. Les GB200 représentent un véritable bond en avant : Nvidia promet en effet une multiplication par 30 des performances d'inférence de LLM par rapport aux H100 et une réduction conséquente de la consommation d'énergie.
SUR LE MÊME SUJET
HPE décroche un contrat d'un milliard de dollars pour fournir des serveurs d'IA au réseau social X
Tous les champs sont obligatoires
0Commentaire
Réagir