TensorWave lève 100 millions de dollars pour s'attaquer au monopole de Nvidia
Les charges de travail d'IA exigent toujours plus à tous les niveaux : plus de mémoire, plus de cohérence, plus de débit. Pour construire une infrastructure qui soit la plus à même de répondre à ces besoins, TensorWave vient de boucler une première levée de fonds de taille. Elle prévoit de déployer 8192 GPU AMD, un choix à contre-courant dans un monde dominé par Nvidia.
Elle n'a pas encore soufflé ses deux bougies mais semble prête à se faire une place sur le marché des datacenters. TensorWave vient de lever 100 millions de dollars en série A pour déployer un cluster de 8192 GPU MI325X fabriqués par AMD (lancés en octobre dernier). Le tour de table a été co-dirigé par Magnetar et AMD Ventures, avec la participation supplémentaire de Prosperity7, Maverick Silicon et Nexus Venture Partners. A date, cette start-up basée à Las Vegas a levé près de 147 millions de dollars.
Les fonds levés serviront à faire tourner ces GPU "à pleine performance, de manière durable et efficace", mais aussi à améliorer son architecture de refroidissement liquide et recruter, selon les mots de TensorWave. Avec l'ambition d'offrir aux entreprises un service sans verrouillage des fournisseurs et sans limites d'un point de vue de l'infrastructure, la jeune pousse promet que cette série A servira de "carburant pour croître et répondre à la demande croissante des hyperscalers et des entreprises".
Des objectifs forts annoncés
Conscient que le refroidissement par air ne suffit plus à la densité de GPU que nécessite l'IA générative, TensorWave mise comme ses concurrents sur le refroidissement liquide. Ses systèmes doivent permettre d'installer plus de GPU par rack sans limitation thermique, maintenir un débit constant sur des sessions d’entraînement longues, mais aussi améliorer l’efficacité énergétique tout en garantissant des performances soutenues pour les charges d’inférence intensives.
"Quand on déploie des milliers de GPU à large bande passante, la gestion thermique n’est pas un détail, c’est un problème de premier ordre. Nous avons conçu notre système de zéro pour rendre les clusters haute densité et haute performance viables. Le refroidissement liquide en est la clé", assure Piotr Tomasik, président et COO de TensorWave. A terme, les systèmes construits par la start-up doivent servir aussi bien à l'entraînement de modèles de plusieurs milliards de paramètres, qu'au fine-tuning ou à l'inférence.
TensorWave veut nager à contre-courant de Nvidia
"Que vous ajustiez un checkpoint Llama 3, lanciez un gigantesque MoE, ou expérimentiez avec des fenêtres de contexte longues en RAG, vous obtenez des performances brutes, un accès réel, et un support personnalisé assuré par des experts du terrain", se targue TensorWave. Reste que miser sur un seul cheval – à savoir AMD – reste un challenge de taille : nager à contre-courant de Nvidia n'est pas sans risque.
En effet, Nvidia est et devrait rester pour longtemps encore indétrônable sur le marché des datacenters d'IA. Sa conférence GTC qui s'est déroulée en mars dernier à San Jose a été l'occasion pour le géant américain d'étaler son portefeuille : architectures, conception des racks, mise en réseau, frameworks et solutions logicielles... Nvidia est loin d'être uniquement un fabricant de GPU. Il est en avance sur tous les plans et ne relâche pas la pression. L'attrait des solutions d'AMD tient d'ailleurs en grande partie aux contraintes d'approvisionnement de Nvidia.
Les restrictions d'exportation annoncées il y a peu par le gouvernement américain ont, certes, porté un coup à son ambition, mais la firme ne s'est pas démontée pour autant et a annoncé 500 milliards de dollars d'investissements prévus sur les quatre prochaines années pour produire des serveurs d'IA sur le sol américain avec TSMC.
SUR LE MÊME SUJET
TensorWave lève 100 millions de dollars pour s'attaquer au monopole de Nvidia
Tous les champs sont obligatoires
0Commentaire
Réagir