Recevez chaque jour toute l'actualité du numérique

x

Nvidia dévoile sa nouvelle architecture Ampere conçue pour les data centers

Nvidia tient sa conférence GTC en ligne cette année. Il n'a malgré tout pas lésiné sur les annonces, à commencer par sa nouvelle architecture, Ampere, et le premier GPU à la mettre en œuvre, le Nvidia A100. Destiné aux data centers, il représente un bond en avant significatif par rapport à ses prédécesseurs, les V100.
Twitter Facebook Linkedin Flipboard Email
×

Nvidia dévoile sa nouvelle architecture Ampere conçue pour les data centers
Nvidia dévoile sa nouvelle architecture Ampere conçue pour les data centers © Nvidia

Nvidia présente ce 14 mai, au travers d'une keynote virtuelle dans la cuisine de son PDG, sa nouvelle architecture GPU. Baptisée Ampere, elle se destine aux data centers et prend donc la suite de Volta plutôt que de Turing. Le premier GPU basé sur cette architecture, le Nvidia A100, se caractérise par des spécifications démesurées : plus de 54 milliards de transistors sur une superficie de 826 mm², soit la plus grande puce gravée en 7 nm jusqu'ici. Elle s'accompagne de 40 Go de mémoire HBM2 pour une enveloppe thermique estimée par Nvidia à 400 watts.

Un gain majeur en performances par rapport à Volta

Parmi les nouvelles fonctionnalités, on trouve des tensor cores de troisième génération qui gèrent le nouveau format de données mathématiques TF32. Il permet d'accélérer l'entraînement de modèles en simple précision, avec des performances jusqu'à 20 fois supérieures à celles de la précision FP32 pour le deep learning d'après Nvidia, et ce sans avoir à modifier le code. Ces nouveaux tensor cores gèrent aussi désormais le FP64 pour le calcul haute performance. Ils réduisent par ailleurs le temps de traitement de l'inférence pour l'IA en éliminant certains calculs matriciels jugés superflus, mais sans sacrifier la précision du résultat. Nvidia nomme cette technique "structural sparsity acceleration."

 

 

Au global, l'A100 affiche des performances six fois supérieures à celles de Volta pour l'entraînement de modèles d'IA, et sept fois supérieures pour l'inférence. Il est aussi désormais possible de faire tourner jusqu'à sept instances indépendantes (avec chacune ses propres ressources) sur un seul A100. Enfin, la troisième génération du protocole de communication NVLink double la connectivité entre les GPU, se rapprochant de la vision de serveurs travaillant de concert comme un seul GPU géant qui est chère à Jensen Huang, le CEO de Nvidia.

L'A100 est déjà en production, d'après Nvidia, et disponible pour tous ses clients. Il cite parmi les entreprises s'en étant déjà emparées Atos, Alibaba Cloud, Amazon Web Services, Baidu Cloud, Cisco, Dell Technologies, Google Cloud, Hewlett Packard Enterprise, Lenovo, Microsoft Azure et Oracle.

 

 

Nouveaux DGX et dérivés

Evidemment, la gamme DGX n'est pas en reste et Jensen Huang a annoncé le DGX A100, qui est doté d'une puissance de 5 petaflops. Il peut faire tourner jusqu'à 56 applications en parallèle, en fonction des besoins, et équipe déjà plusieurs centres de recherche comme le Laboratoire national d'Argonne, l'Université de Floride, ou le Centre de recherche allemand pour l'Intelligence artificielle (DFKI). Le DGX A100 est aussi mis à disposition des opérateurs de cloud et des intégrateurs sous la forme du HGX A100 (visible ci-dessus).

Parmi les autres déclinaisons, on trouve l'EGX A100 pour l'edge computing, et le DGX SuperPOD, qui regroupe 140 DGX A100 connectés via la technologie Mellanox, dont Nvidia a annoncé l'acquisition l'année dernière. De quoi atteindre 700 petaflops pour les calculs liés à l'IA. Sorti du domaine des data centers, Ampere intègre aussi la plate-forme Nvidia Drive AGX dédiée aux véhicules autonomes en complément du SoC Orin.

Réagir

* Les commentaires postés sur L’Usine Digitale font l’objet d’une modération par l’équipe éditoriale.

 
media