Recevez chaque jour toute l'actualité du numérique

x

Simulation : "Il faut sortir du paradigme du gros calculateur centralisé", explique Daniel Verwaerde

Entretien Le monde de la simulation numérique fait face à de nombreux défis à l'orée de cette nouvelle décennie. Daniel Verwaerde, président de Teratec et ancien administrateur général du CEA, évoque pour L'Usine Digitale les défis et transformations majeures à venir pour le calcul haute performance. Il revient notamment sur l'évolution des architectures et sur les questions de souveraineté et de mutualisation des ressources européennes.
Twitter Facebook Linkedin Flipboard Email
×

Simulation : Il faut sortir du paradigme du gros calculateur centralisé, explique Daniel Verwaerde
Daniel Verwaerde est président de Teratec et ancien administrateur général du CEA. © Pascal Guittet

L'Usine Digitale : À l'aube de l'exaflops, quels sont les enjeux de la simulation pour la décennie à venir ?
Daniel Verwaerde : Mon sentiment est qu’en poursuivant avec les technologies actuelles – la fabrication CMOS et les architectures des processeurs et réseaux –, on atteint avec l’exaflops une asymptote. Faire progresser les performances d’un facteur 10 ou 100 comme nous avons pu le faire par le passé demandera des ruptures technologiques. Deux murs se dressent devant nous. Le premier est celui de l’énergie. En extrapolant par rapport à nos besoins énergétiques actuels, le supercalculateur de demain consommera des centaines de mégawatts. Ce n’est pas tenable. Le second est le coût des fonderies. Quand j’ai commencé dans ce métier, le coût unitaire d’une fonderie était d'un milliard de dollars. Pour produire des processeurs gravés à 7 nanomètres, le montant atteint les 20 milliards.

Comment dépasser ces obstacles ?
D’un point de vue technologique, je pense que la clé sera une meilleure intégration des processeurs graphiques (GPU) dans nos systèmes. Ils restent aujourd’hui pilotés par les CPU, et il n’y a aucune cohérence entre leur façon de fonctionner. Il faut gérer l’interaction à la main. À l’horizon 2022 ou 2023, leur utilisation deviendra transparente. C’est une nécessité, sinon on saura faire des calculateurs bien classés au top 500, mais qui ne seront pas bons. Une autre piste est celle des accélérateurs quantiques. Il reste de vrais défis à relever, mais je pense qu’on verra les premiers calculateurs quantiques fonctionnels au cours de cette décennie.

Va-t-on voir une évolution des microarchitectures elles-mêmes ?
J’en suis persuadé. La montée en puissance des calculs liés à l’intelligence artificielle devient extrêmement importante, et les acteurs de la simulation doivent l’intégrer dans leur raisonnement. Les futures architectures seront spécifiées pour les gros clients, c’est-à-dire les usages grand public, pour lesquels l’IA joue une part de plus en plus importante. Dans les faits, il s’agit des smartphones. En France, 5 000 personnes utilisent un supercalculateur et 50 millions un smartphone... L’intelligence artificielle va donc finir par s’inscrire en dur dans les processeurs, avec des jeux d'instruction dédiés, et la simulation a le choix de le subir ou d’en tirer parti. 

Il faudra adapter nos méthodes de calcul, par exemple en se demandant si chaque opérateur a besoin de la double précision 128 bits. Avoir du 64 bits pour le lourd et du 32 ou 16 bits pour le préconditionnement, cela pourrait marcher bien et coûter moins cher. Ce sera une transition majeure, mais cela ne me rend pas triste. Il y a vingt ans, on a eu une révolution similaire : le passage des processeurs vectoriels dédiés, qui coûtaient très cher, aux processeurs scalaires conçus pour les usages grand public.

Et les réseaux ?
Les capacités de communication sont extrêmement importantes, et le seront de plus en plus avec le développement de l’IoT, des véhicules autonomes et de la smart city, qui génèrent d’énormes quantités de données. C’est peut-être le vrai ressort de cette transition. Teratec est parti d’une stratégie de développement du HPC [calcul haute performance, ndlr] autour d’un très gros calculateur. C'est une vision héritée de la simulation militaire du CEA. Mais à l’avenir, les technologies seront poussées par les usages grand public. Il faudra faire fonctionner différents calculateurs ensemble, mais aussi des edge computers qui traiteront une grande partie des données en local, le tout relié par des réseaux à haute capacité. Il faudra sortir du paradigme du gros ordinateur centralisé, et l'enjeu pour moi est que Teratec prenne ce virage.

Vous évoquiez les coûts de fabrication. Cela vaut aussi pour les calculateurs…
En effet. Aujourd’hui, la bonne échelle pour développer le HPC et sa supply chain, c’est l’Europe. La France n’a plus les moyens. Développer un calculateur exaflops coûte entre 5 et 10 milliards de dollars. Pour que Teratec poursuive sa mission, il faut donc l'inscrire dans le contexte européen, qui, Dieu merci, est dynamique. C'est pourquoi nous sommes impliqués dans le projet EuroHPC. Nous sommes candidat pour en être le centre de compétences HPC pour la France, et pour participer au projet Fortissimo, dont le but est d’aider les entreprises à utiliser le HPC.

La Commission nous a également demandé de structurer les souhaits des utilisateurs. Nous allons fonder, avec le laboratoire HLRS de l’université de Stuttgart, une association de droit européen qui réunira tous les industriels utilisateurs et qui pourra être force de proposition pour les futurs superordinateurs d’EuroHPC. Ils pourront faire de la R&D, et nous examinerons comment ils pourront effectuer des calculs commerciaux sur les équipements d’EuroHPC, moyennant finance.

La question de la souveraineté est prégnante en ce moment, notamment en matière de composants...
Oui, il est important que l’Europe ait une capacité de conception et de fabrication de processeurs. Ces technologies ont une dimension stratégique, et sans cela nous serons à la merci des autres. Le projet EPI [European Processor Initiative, ndlr] doit répondre à ce besoin, et ses équipes techniques avancent bien, avec une première tapeout prévue cette année. Cependant je pense que le projet manque de financement, et j'appelle de tous mes vœux à ce que les États y investissent plus de fonds. Il faudrait au moins 100 millions d'euros dans l'immédiat.

Réagir

* Les commentaires postés sur L’Usine Digitale font l’objet d’une modération par l’équipe éditoriale.

 
media