Recevez chaque jour toute l'actualité du numérique

x

Nvidia dévoile sa nouvelle architecture pour le deep learning... et séduit Toyota

Rien ne semble pouvoir arrêter Nvidia. A peine un an après la sortie de son architecture Pascal, dont les performances pour les calculs liés au deep learning était sans commune mesure, l'entreprise américaine profiye de sa confrénec GTC 2017 pour dévoiler Volta. Fruit d'un investissement de 3 milliards de dollars, ses performances écrasent celle de sa grande soeur tout en consommant moins d'énergie. Des résultats qui séduisent. Autre annonce : Toyota est le dernier constructeur automobile en date à choisir la technologie Nvidia pour ses futurs véhicules autonomes.
Twitter Facebook Linkedin Flipboard Email
×

Nvidia dévoile sa nouvelle architecture pour le deep learning... et séduit Toyota
Nvidia dévoile sa nouvelle architecture pour le deep learning... et séduit Toyota © Nvidia

Nvidia tient sa conférence GTC 2017 du 7 au 11 mai. Dédié aux processeurs spécialisés dans le calcul graphique dont l'entreprise à le secret, l'évènement est aussi pour Nvidia l'occasion de faire ses grandes annonces annuelles. Dans sa keynote du 10 mai, son CEO et co-fondateur Jen-Hsun Huang a dévoilé la nouvelle microarchitecture Volta, qui prend la suite de Pascal après seulement un an. Sans surprise, Volta est optimisée pour le deep learning, segment sur lequel Nvidia mise énormément depuis plusieurs années. Preuve en est: l'investissement colossal qu'a nécessité la R&D pour Volta : 3 milliards de dollars.

 

Le premier produit basé sur Volta est le Tesla V100, un processeur pour data centers. Il est fabriqué en 12 nm FinFet par TSMC et contient 21 milliards de transistors. Il est par ailleurs composé de 5120 coeurs CUDA ainsi que de 640 coeurs tenseurs (Tensor Cores). Ce nouveau type de coeur est conçu tout spécialement pour accélérer les calculs liés à l'intelligence artificielle. Résultat : sa puissance pour le deep learning est de 120 teraflops, soit l'équivalent de 100 CPUs d'après Nvidia. Ses opérations sur tenseurs sont 12 fois plus rapides que celles du processeur Pascal équivalent, et sa capacité d'inférence est 6 fois supérieure. Le Tesla V100 dispose de plus d'une technologie d'interconnexion NVLink décrite comme "10 fois plus rapide que l'interconnexion PCI Express la plus rapide qui soit".

 


Jen-Hsun Huang dévoila la Tesla V100

 

La DGX Station, un superordinateur de poche (ou presque)

Si Volta peut faire du calcul graphique, il s'adresse principalement à deux types d'usages : le calcul haute performance et l'automobile. Côté HPC, Nvidia a une nouvelle version du DGX-1, son serveur d'IA, pour la modique somme de 149 000 dollars. Il comprend huit Tesla V100 et dispose de 960 teraflops de puissance. Il sera disponible au troisième trimestre. Une version plus modeste, la DGX Station, accompagnera cette sortie au prix de 69 000 dollars. Elle ne possédera cependant que quatre Tesla V100.

 

Evidemment, les grands fournisseurs de cloud étaient aussi présents pour vanter les mérites de cette architecture qu'ils ont déjà hâte d'intégrer dans leurs data centers sous la variante HGX-1. Des responsables d'Amazon Web Services et de Microsoft Azure sont montés tour à tour sur scène pour témoigner de leur enthousiasme à l'égard de cette nouvelle puce.

 

Les voitures autonomes de Toyota auront un cerveau Nvidia

Et l'auto dans tout ça ? Nvidia Drive a déjà 200 développeurs, soit 50 de plus que le trimestre dernier. Et le clou du spectacle est l'annonce d'un partenariat stratégique avec Toyota, qui a décidé d'utiliser les technologies Nvidia pour ses véhicules autonomes. Le constructeur japonais rejoint Tesla, Audi, Mercedes-Benz et les équipementiers Bosch et ZF Technologies. Toyota utilisera la technologie Xavier, qui embarque une puissance de 30 teraflops pour une consommation de 30 watts.

Réagir

* Les commentaires postés sur L’Usine Digitale font l’objet d’une modération par l’équipe éditoriale.

 
media