OpenAI va construire sa propre puce main dans la main avec Broadcom et TSMC
Le coût de l'intelligence artificielle fait réfléchir nombre d'acteurs technologiques à des alternatives. Pour réduire sa dépendance aux puces Nvidia, OpenAI planche sur le développement de sa propre puce dédiée à l'inférence de l'IA. L'entreprise sera épaulée par Broadcom et TSMC pour ce projet et prévoit d'adopter les derniers accélérateurs AMD en attendant.
Les entreprises technologiques s'affrontent sur tous les fronts : infrastructures physique et virtuelle, énergie, processeurs dernier cri, applications,… L'objectif ultime consiste à multiplier les casquettes pour être le moins dépendant possible d'autres acteurs. Un point de vue partagé par la start-up d'IA la plus en vogue de Californie : OpenAI. Après avoir amassé les milliards de dollars pour soutenir le développement effréné de modèles d'IA – et payer les développeurs qui en sont à l'origine – la société ouvre un nouveau chapitre de son histoire : le développement de sa propre puce.
Pour ce faire, OpenAI a choisi de travailler avec deux pontes du secteur : Broadcom et TSMC. Reuters rapporte que le travail avec le concepteur américain a commencé il y a de cela plusieurs mois. Avec, OpenAI espère construire sa première puce IA axée sur l'inférence. Broadcom aide un certain nombre d'entreprises, y compris l'unité Google d'Alphabet à affiner les conceptions de puces pour la fabrication et fournit également des parties de la conception qui aident à déplacer rapidement les informations sur et hors des puces.
L'annonce lui a d'ailleurs porté chance puisque l'action du fabricant a bondi suite à l'annonce, terminant la séance de ce mardi en hausse de plus de 4,5%. En s'associant à Broadcom, la start-up a ainsi sécurisé la capacité de fabrication avec TSMC pour fabriquer sa première puce conçue sur mesure en 2026. Certaines sources au fait du dossier ont dit que le calendrier pourrait changer.
Les puces AMD adoptées en complément des accélérateurs Nvidia
En attendant qu'une première version de sa puce voit le jour, OpenAI prévoit de s'appuyer sur les puces AMD via Microsoft Azure, plus précisément les puces MI300X. Ces accélérateurs, présentés en décembre dernier, semblent désormais grappiller des parts sur un marché aujourd'hui largement détenu par Nvidia. Pour mémoire, la firme de Santa Clara a projeté 4,5 milliards de dollars de ventes de puces IA en 2024, après le lancement de sa puce au quatrième trimestre 2023. Dans la foulée de cette annonce, les actions du fondeur ont également terminé la journée en hausse de 3,7%.
OpenAI cherche par tous les moyens à réduire sa dépendance aux processeurs Nvidia. L'entreprise a déjà projeté une perte de 5 milliards de dollars cette année sur un chiffre d'affaires de 3,7 milliards de dollars. A date, elle utilise des puces IA à la fois pour l'entraînement des modèles d'IA et pour l'inférence. Actuellement, les GPU de Nvidia noient le marché, avec plus de 80% de parts. Mais les pénuries et les coûts croissants conduisent des clients comme Microsoft, Meta et maintenant OpenAI à explorer des alternatives, que ce soit en interne ou en externe.
Une équipe dédiée aux puces voit le jour
En parallèle, la société a monté sur pied une équipe d'environ 20 personnes dirigée par des ingénieurs de haut niveau qui ont précédemment construit des unités de traitement tensoriel (TPU) chez Google, y compris Thomas Norrie et Richard Ho. Objectif : avoir les meilleurs profils sous son aile pour développer les meilleures puces. Il semble toutefois qu'OpenAI ait joué la carte de la prudence en matière de débauchage de talents de Nvidia : maintenir de bonnes relations avec le fabricant de puces avec lequel il est engagé reste une priorité.
Un changement de position face à la réalité du marché
Le changement de position d'OpenAI révèle une prise de conscience face à son projet initial évoqué quelques mois plus tôt. Réunir les fonds nécessaires puis construire ses propres infrastructures puis développer ses propres puces n'est pas une mince affaire. Et ne s'improvise pas fondeur qui veut. Pour mémoire, le média The Information rapportait en avril dernier que Microsoft et OpenAI plancheraient sur un projet gargantuesque de centre de données. Coût annoncé ? 100 milliards de dollars.
Les dépenses auraient même pu dépasser 115 milliards de dollars, soit plus du triple des dépenses de Microsoft l'année dernière pour les dépenses en capital pour les serveurs, les bâtiments et d'autres équipements. Une initiative jugée 100 fois plus coûteuse que certains des plus grands centres de données existants.
SUR LE MÊME SUJET
OpenAI va construire sa propre puce main dans la main avec Broadcom et TSMC
Tous les champs sont obligatoires
0Commentaire
Réagir