Projet Athena : Microsoft prépare une puce spécialisée dans l'IA pour s'émanciper de Nvidia

Microsoft fait son entrée dans l'autre course qui se joue sur le marché de l’intelligence artificielle : celle des accélérateurs haut de gamme capables d’entraîner les grands modèles de langage. L’entreprise plancherait sur une puce spécialisée depuis 2019 et aurait récemment accéléré son développement pour faire des économies dans ses data centers.

Partager
Projet Athena : Microsoft prépare une puce spécialisée dans l'IA pour s'émanciper de Nvidia

Microsoft préparerait sa propre puce pour accélérer les calculs liés à l’intelligence artificielle, et ce tout particulièrement afin d'entraîner de grands modèles de langage (LLM), selon le média américain The Information, qui a recueilli les confidences de deux personnes proches du dossier.

Optimiser les temps de calcul... et les coûts

Le projet, jusqu’ici resté confidentiel, a été baptisé "Athena". Il aurait été initié en 2019, mais a été accéléré depuis le succès de ChatGPT et l’engouement que ce dernier a suscité pour les LLM. L'objectif est de s’émanciper au maximum de Nvidia, principal fournisseur mondial de cartes graphiques (détenant 95% du marché des GPU utilisés pour le machine learning selon New Street Research), et surtout de permettre à Microsoft et OpenAI de faire d'importantes économies.

Oui, car l’entraînement des LLM nécessite des calculs particulièrement intensifs, ce qui le rend long et très coûteux. L'optimisation de ces charges de travail est un facteur clé de compétitivité, et ces composants de pointe sont donc difficiles à obtenir en quantités suffisantes suite à la course à la puissance que se livrent les hyperscalers. Les derniers GPU H100 de Nvidia se revendent à plus de 40 000 dollars actuellement, ce qui illustre la tension sur ce marché. Or, selon certaines estimations, OpenAI aurait besoin de plus de 30 000 puces A100 de Nvidia dans le cadre de la commercialisation de ChatGPT.

Plusieurs générations à venir

On ne sait pas encore si Microsoft mettra ces puces à la disposition des clients de sa plateforme cloud Azure, mais l'entreprise aurait l'intention de les rendre largement disponibles pour ses propres projets ainsi que ceux d'OpenAI, et ce dès l'année prochaine, selon The Information. Certains de ses employés et de ceux d'OpenAI testeraient déjà les performances de la puce sur les derniers grands modèles de langage, et notamment GPT-4. Microsoft aurait par ailleurs établi une feuille de route sur plusieurs générations pour ces accélérateurs.

Microsoft n’est pas le premier des géants de la tech à vouloir s’affranchir de l’hégémonie opérée par Nvidia sur le marché des accélérateurs. Meta et Amazon disposent eux aussi de leurs propres puces dédiées à l’IA, tout comme Google, qui a même récemment assuré que ses puces TPU v4 étaient plus rapides et moins énergivores pour entraîner les modèles d’IA que les GPU A100 conçus par Nvidia.

SUR LE MÊME SUJET

Sujets associés

NEWSLETTER L'Usine Digitale

Nos journalistes sélectionnent pour vous les articles essentiels de votre secteur.

Votre demande d’inscription a bien été prise en compte.

Votre email est traité par notre titre de presse qui selon le titre appartient, à une des sociétés suivantes...

Votre email est traité par notre titre de presse qui selon le titre appartient, à une des sociétés suivantes du : Groupe Moniteur Nanterre B 403 080 823, IPD Nanterre 490 727 633, Groupe Industrie Service Info (GISI) Nanterre 442 233 417. Cette société ou toutes sociétés du Groupe Infopro Digital pourront l'utiliser afin de vous proposer pour leur compte ou celui de leurs clients, des produits et/ou services utiles à vos activités professionnelles. Pour exercer vos droits, vous y opposer ou pour en savoir plus : Charte des données personnelles.

ARTICLES LES PLUS LUS