Recevez chaque jour toute l'actualité du numérique

x

Philippe Vannier : "La course à la puissance de calcul est devant nous"

Seul constructeur européen de supercalculateurs, Bull constitue un maillon essentiel de la filière de la simulation en France. Philippe Vannier, son PDG, promet la montée de la puissance de calcul pour répondre aux besoins de l’industrie.
Twitter Facebook Linkedin Flipboard Email
×

Philippe Vannier : La course à la puissance de calcul est devant nous
Philippe Vannier : "La course à la puissance de calcul est devant nous" © pascal guittet

L'Usine Digitale - La France compte des champions dans la simulation. Y a-t-il un talent national particulier dans ce domaine ?

Philippe Vannier - Peu de pays dans le monde concentrent les talents nécessaires à la maîtrise de l’intégralité de la filière de la simulation. Ceci passe d’abord par la construction de machines de calcul. Ensuite par les logiciels de modélisation, puis par les utilisateurs. Seuls quatre pays disposent de l’ensemble de ces compétences : les États-Unis, le Japon, la Chine et la France. Avec sa capacité à développer des composants et à les intégrer dans des systèmes de calcul, Bull joue un rôle essentiel dans cet écosystème. Pour être pertinent dans ce domaine, il est important d’avoir une proximité forte entre constructeurs de machines, éditeurs de logiciels et utilisateurs. C’est cette proximité-là qui fait que vous pouvez progresser. Créer un supercalculateur seul n’a pas de sens. Vous le concevez par rapport à un usage ou à un logiciel de simulation.

Doit-on cette position à la qualité de l’école française des maths ?

Je pense que la France est un pays qui a toujours innové dans la technologie. Et l’innovation sans modélisation devient quasiment impossible. Nos capacités d’innovation ont créé un besoin en modélisation, et maintenant les moyens de calcul-simulation créent de l’innovation. La boucle se referme en quelque sorte. Et comme dans notre pays il y a une forte proximité entre concepteurs d’outils de simulation et utilisateurs, on a un cercle vertueux d’innovation.

Les usages suivent-ils la montée de la puissance de calcul ?

La puissance brutale de calcul n’a pas d’utilité, si ce n’est de dire que vous avez la machine la plus puissante au monde. La machine doit être calibrée pour répondre aux besoins de l’utilisateur à l’instant T. Actuellement, les besoins des utilisateurs augmentent très vite. Nous poursuivons la demande en fournissant des machines de plus en plus puissantes. Dans cette course, nous allons deux fois plus vite que la loi de Moore. Quand on regarde l’évolution de la puissance des supercalculateurs depuis 1993, on constate une multiplication par un facteur 8 tous les trois ans, contre un facteur 4 pour la loi de Moore dans les processeurs. Les besoins de puissance de calcul sont donc là. Il ne faut pas aller plus vite, car vous ne trouverez pas d’utilisateurs, mais il faut quand même tenir le rythme.

Justement, quels sont les besoins exprimés par les utilisateurs ?

Les besoins diffèrent selon quatre grands domaines d’utilisation : l’industrie, les sciences de la Terre, la médecine, et le traitement d’image. Le pétrole est l’un des plus gros consommateurs de simulation. À 10 petaflops, on découvre des réservoirs qu’on soupçonne tout juste à 1 petaflops, mais qu’on ne sent pas du tout à 50 téraflops. Or 10 petaflops, c’est la machine la plus puissante en 2013, 1 petaflops celle du CEA en 2010 et 50 téraflops la machine du CEA en 2005. Un ou deux forages pétroliers suffisent à financer une machine.

Cette évolution rapide pousse-t-elle les industriels à reporter leur équipement, comme pour les PC dans le grand public ?

Il y a une différence fondamentale entre les usages personnels et professionnels. Avoir un PC deux fois plus puissant ne vous servirait à rien. Vous n’allez pas taper, lire vos e-mails ou écouter la musique deux fois plus vite. D’ailleurs, est-ce que vous connaissez la puissance du processeur dans votre iPad ? Ce n’est pas le sujet. Car la vraie limitation c’est vous. Dans les supercalculateurs, si vous donnez à un industriel une machine deux fois plus puissante, il l’utilisera. La limitation aujourd’hui réside plutôt dans la capacité de faire dans une enveloppe donnée de prix. Que ce soit dans l’aéronautique, le pétrole ou les prévisions météo, si l’on peut acheter une machine deux fois plus puissante pour le même coût, on le fera et on utilisera toute sa capacité.

Les logiciels de simulation suivent-ils cette course à la puissance ?

Vous mettez le doigt sur un sujet important. Il faut que toute la chaîne avance à la même vitesse. Si vous avez uniquement la machine qui va deux fois plus vite, cela ne servirait à rien. Il faut que la chaîne logicielle suive. Selon une étude de 2011, plus de la moitié des utilisateurs interrogés disent ne pas utiliser plus de 120 cœurs de processeurs en parallèle. La limitation vient de leurs algorithmes de modélisation. C’est là que l’on voit un gap entre les capacités des machines et celles des logiciels.

Qu’est-ce qui freine le plus cette évolution ?

Côté machines, c’est principalement la consommation d’énergie. Si on avait quelqu’un d’assez riche pour nous acheter une machine 1 000 fois plus puissante que celles que nous livrons aujourd’hui, on saurait la faire. Sauf que l’on ne saurait pas l’alimenter. Un petaflops en 2010 consomme à peu près 5 MW. Si vous voulez faire une machine de 1 exaflops, ce qui est l’objectif en 2020 au niveau mondial, vous ne pouvez pas faire 1 000 fois 5 MW, car cela fait 5 GW, la puissance de trois centrales nucléaires. Impossible. L’enjeu est de faire un facteur 1 000 dans la puissance tout en faisant un facteur 5 dans la consommation d’énergie. C’est un objectif très compliqué à atteindre. Deuxième sujet : le nombre de cœurs de processeurs à gérer en parallèle. Sur une machine en 2010, on est dans la classe des 100 000 cœurs en parallèle. Sur celle en 2020, on sera dans la classe des 100 millions de cœurs en parallèle. Et là, on a un véritable enjeu de logiciel de modélisation.

De quelle puissance de calcul les industriels s’équipent-ils aujourd’hui ?

La taille moyenne des machines que nous vendons aujourd’hui aux industriels fait typiquement une cinquantaine de téraflops et coûte quelques millions d’euros. C’est la machine du CEA en 2005, qui était à l’époque la plus puissante en Europe. Les plus gros industriels du CAC 40 tels qu’Airbus ou Total ont des machines de classe petaflopique et visent la classe de l’exaflops. Mais une frange importante de sociétés achète des machines de la génération juste avant. Entre-temps, le prix de ces machines a été divisé par un facteur 10 à 15. Car quand on fait deux fois plus vite que la loi de Moore, le prix reste le même.

Vous avez un projet de calcul dans le cloud. Est-ce un moyen de démocratiser le calcul intensif ?

Nous avons une solution de calcul dans le cloud qui s’appelle Extreme factory. Elle est utilisée par des PME pour tous leurs besoins de simulation et par des grands groupes pour le délestage des pointes de charge lors, par exemple, du développement de nouveaux produits. Cette plate-forme se veut un modèle d’expérimentation avant de passer à un modèle industriel avec la création d’une société ad hoc, NumInnov, grâce à la participation de l’État dans le cadre des investissements d’avenir. C’est un projet important auquel nous croyons beaucoup. Il faut juste le lancer au moment où la phase de maturité est atteinte. Pas avant, car les machines de calcul deviennent très vite obsolètes. Le marché est mûr dans le traitement de données massives, mais pas encore dans la simulation.

Vous ne voyez rien qui puisse freiner ce développement ?

Non. Nous sommes devant un potentiel de développement infini. Sur les prochaines décennies, les besoins vont croître de façon linéaire. Je ne vois pas d’arrêt. De la mise à disposition des machines et des logiciels viendront des nouveaux usages. J’en suis certain.

Le plan de filière sur le calcul intensif vise à développer le made in France. Est-ce possible ?

Je suis persuadé que le made in France, ou du moins le conçu en France, est important. Prenez l’exemple de notre serveur haut de gamme Bullion. C’est le serveur le plus puissant au monde. Jusqu’à aujourd’hui, il n’y a pas de produit concurrent capable de fournir plus de la moitié de sa puissance. Quelle est la clé de cette performance ? C’est un composant particulier que nous avons développé et qui fait toute la différence. Grâce à ce composant, qui sert de chef d’orchestre, on arrive à combiner jusqu’à 16 sockets et 128 cœurs de processeurs. Ces serveurs lancés en 2012 sont essentiels aux applications de big data, de grosses bases de données et de business intelligence. Vous mettez une couche logicielle dessus et vous obtenez une machine capable de traiter un volume énorme de données. En 2013, ses ventes ont explosé de 70 %.

Propos recueillis par Thibaut de Jaegher et Ridha Loukil

Réagir

* Les commentaires postés sur L’Usine Digitale font l’objet d’une modération par l’équipe éditoriale.

 
media