Actualité web & High tech sur Usine Digitale

Recevez chaque jour toute l'actualité du numérique

x

Simuler le cerveau, décrypter l'univers et le climat... : des projets de recherche XXL

La simulation prend une part grandissante dans les grands programmes scientifiques. Qu’il s’agisse d’élucider des questions théoriques ou de répondre à des problèmes de santé publique.
Twitter Facebook Linkedin Flipboard Email
×

Simuler le cerveau, décrypter l'univers et le climat... : des projets de recherche XXL
Simuler le cerveau, décrypter l'univers et le climat... : des projets de recherche XXL © D. R.

On se demande parfois s’il est indispensable de faire tourner des ordinateurs surpuissants pour savoir s’il pleuvra demain. Mais quand il s’agit de prévoir le réchauffement climatique, la hausse des températures et ses effets à l’échelle mondiale pour le prochain siècle, alors plus personne, ou presque, n’en conteste l’utilité. L’ampleur et l’enjeu de la tâche justifient que l’on mobilise pour cela les supercalculateurs les plus puissants de la planète et des centaines de chercheurs. Mais la météo et le climat ne sont plus les seuls domaines emblématiques du calcul scientifique massif. De nombreuses disciplines sont consommatrices de supercalcul, souvent parce que la simulation permet la pratique d’expérimentations virtuelles difficiles ou impossibles à réaliser autrement. C’est le cas du projet européen Humain brain, qui compte sur la simulation pour optimiser le traitement des maladies neurologiques. La préparation du futur réacteur de fusion nucléaire Iter exige des physiciens une pratique intensive de la physique virtuelle en attendant le prototype. Enfin, les astrophysiciens qui veulent comprendre la structure de l’univers à l’aide de la simulation ne travaillent pas directement pour notre confort futur. En revanche, leurs travaux contribuent à définir les supercalculateurs de demain.

Comprendre l'activité cérébrale

C’est le projet de simulation le plus ambitieux jamais lancé. Celui de reproduire, sur ordinateur, la complexité d’un cerveau humain. Il fait partie d’Humain brain project (HBP), doté de 1 milliard d’euros sur dix ans, et codirigé par l’École polythechnique fédérale de Lausanne (EPFL) et l’université de Heidelberg (Allemagne). Objectif : élucider le fonctionnement de notre cerveau. Avec des retombées attendues en neurosciences, en médecine et en informatique. Les expériences "in silico" [ndlr. soit au moyen de modèles informatiques] permettront aux neurochercheurs d’approfondir leurs connaissances des fonctions cérébrales. Les médecins pourront, eux, utiliser des simulations du cerveau pour reconstituer des maladies, rechercher leur origine et définir le bon traitement. Quant à l’informatique, qui joue un rôle clé dans ces études, elle devrait profiter de nouvelles architectures d’ordinateurs qui rendraient alors réalisables des tâches aujourd’hui impossibles.

Des labos à la pointe

Institute for advanced simulation, Jülich (Allemagne)
School of computer science, université de Manchester (Royaume-Uni)
Kirchhoff-Institut für physik, université de Heidelberg (Allemagne)

 

Pour tous ces bénéfices, le consortium HBP (80 partenaires) a lancé plusieurs sous-projets en parallèle. Le premier consiste à construire pas à pas, en intégrant en continu les données issues de la recherche en biologie, une plate-forme logicielle qui simule la structure et le comportement d’un cerveau, en recourant aux supercalculateurs. Le but est d’identifier les architectures neuronales responsables de fonctions spécifiques et de faire le lien entre ces mécanismes et certaines maladies neurologiques ou psychiatriques. Le HBP ne part pas de zéro. Il marche sur les pas du projet Blue brain, mené par l’EPFL, qui a effectué en 2012 une simulation portant sur un million de neurones et un milliard de synapses. Soit l’équivalent du cerveau… d’une abeille.

Le nouveau programme se fixe pour premier objectif le cerveau d’un rat, soit 21 millions de neurones ! Quant au cerveau humain, ce sont 86 milliards de neurones qu’il faudra modéliser… Dans un premier temps, Le HBP devrait utiliser les supercalculateurs disponibles en Europe, avant de bâtir ses propres moyens de calcul au centre de recherche de Jülich (Allemagne) : 50 petaflops pour 2017-2018, puis une machine exaflops (soit 1 000 petaflops) prévue pour 2021-2022. Dernière ambition du projet, la conception et la construction de deux ordinateurs dits "neuromorphiques". Des machines dont le fonctionnement ne ressemblera en rien à celui des calculateurs traditionnels, qui sont composés de processeurs et de mémoires, car elles tenteront de reproduire physiquement les réseaux de neurones du cerveau humain.

Déchiffrer la structure de l'Univers

Difficile d’aller plus loin. Le Dark energy universe simulation-Full universe run (Deus-FUR), projet piloté par le laboratoire univers et théories (Luth), de l’Observatoire de Paris, a simulé tout l’univers observable, du big bang à nos jours. Et les chiffres laissent rêveur. Les simulations réalisées mettaient en jeu 550 milliards de particules, chacune dotée d’une masse équivalente à celle de notre Galaxie, dans un cube de 93 milliards d’années-lumière de côté. Ce programme tente de répondre à une question fondamentale de la cosmologie : pourquoi l’expansion de l’univers est-elle en accélération ? Selon cette théorie, 95 % de l’univers est constitué de composants invisibles, la matière et l’énergie noires. Et c’est cette mystérieuse énergie noire qui serait responsable de l’expansion accélérée. Comprendre ce qu’elle est permettrait d’appréhender la structure de l’univers (la répartition des galaxies), et inversement.

Des labos à la pointe

Laboratoire univers et théories (Luth), Observatoire de Paris (France)
Argonne national laboratory, département de l’Énergie (États-Unis)
Max Planck Institut für astrophysik (Allemagne)

 

Trois simulations ont été réalisées, selon trois modèles différents, sur le supercalculateur Curie du CEA. Au total, 1,5 petaoctet de données a été engendré, qu’il s’agit maintenant d’interpréter. Les chercheurs veulent savoir quel est le meilleur modèle pour la compréhension de l’énergie noire, et quelles seraient les conséquences d’une telle découverte sur la théorie cosmologique. D’autres laboratoires avaient auparavant effectué ce type de simulation, à plus petite échelle, notamment au Korea institute for advanced study et à l’institut Max Planck d’astrophysique (Allemagne). Aux États-Unis, six laboratoires, pilotés par l’Argonne national laboratory, ont lancé, en mars 2013, un programme de trois ans qui traque l’énergie noire à l’aide de simulations sur les plus puissants ordinateurs disponibles.

Toutes les équipes s’efforcent d’optimiser les codes de calcul pour les adapter aux ordinateurs qui vont les exécuter. "Dans des projets comme ceux-là, ce n’est pas seulement un problème de puissance de calcul : il faut simultanément se préoccuper de la gestion de la mémoire et des données, des entrées-sorties…", explique Jean-Michel Alimi, directeur de recherche au CNRS, et responsable de Deus. Mais il devient très difficile de faire évoluer un code quand on veut changer la modélisation physique, ou quand il faut adapter le programme aux nouvelles architectures des supercalculateurs. Aujourd’hui, les chercheurs doivent concevoir des codes en prenant garde à bien séparer la modélisation des aspects proprement informatiques. Par ailleurs, les résultats de ces simulations doivent également servir aux projets d’observation spatiale, eux aussi en quête de l’énergie noire. Qu’ils soient menés à partir de télescopes terrestres, comme la Dark energy survey, programme international lancé en septembre 2013 au Chili, ou à partir de satellites, comme le projet Euclid de l’Agence spatiale européenne, dont le lancement est prévu en 2020 par une fusée Soyouz.

Prévoir le changement climatique

En septembre 2013, le premier volet du cinquième rapport du Groupe d’experts intergouvernemental sur l’évolution du climat (Giec) a confirmé les prévisions sur le réchauffement climatique jusqu’à la fin du siècle. Selon les scénarios envisagés, la hausse de température pourrait atteindre 5 °C, tandis que le niveau des océans monterait de 25 cm à presque 1 mètre (pour la vision pessimiste). L’impact significatif des activités humaines sur cette évolution a été confirmé. Ces conclusions s’appuient sur les mesures et observations réalisées dans le monde. Et sur des simulations numériques à l’échelle de la planète. Le défi est mondial, et une vingtaine de groupes de recherche tentent de le relever. Les chercheurs mettent au point des modèles physiques des différents éléments agissant sur le climat : l’atmosphère, les continents, les océans, la banquise… et, bien sûr, l’humain qui engendre des gaz à effet de serre et des aérosols. Ces modèles sont ensuite assemblés, couplés, et assistés par des supercalculateurs pour produire des données sur l’évolution des températures, des précipitations… Si le développement des différents modèles se fait en ordre dispersé (il en existe une quarantaine), les experts mondiaux se sont en revanche mis d’accord sur la façon de les tester. Ainsi, le programme Coupled model intercomparison project (CMIP5) a permis de comparer les résultats obtenus par tous ces modèles sur les mêmes "exercices" de simulation.

Des labos à la pointe

Institut Pierre-Simon Laplace (France)
Max Planck institut für meteorologie (Allemagne)
Hadley centre for climate prediction and research (Royaume-Uni)
National center for atmospheric research (États-Unis)
Geophysical fluid dynamics laboratory, Princeton (États-Unis)

 

Deux systèmes climatiques sont développés en parallèle dans l’Hexagone, l’un par Météo France, l’autre par l’Institut Pierre-Simon Laplace (IPSL). L’objectif général des tests comparatifs est d’améliorer la fiabilité des résultats de simulation et, à terme, de faire converger les différents modèles. C’est ce qui se passe aujourd’hui pour les phénomènes d’écoulements, régis par les lois de la mécanique des fluides. Les difficultés – et les divergences – sont bien plus vives quand il s’agit de modéliser d’autres éléments (transfert radiatif, chimie…) ou pour ce qui se produit à plus petite échelle, en dessous du maillage choisi pour les calculs, qui découpe l’atmosphère en unités de quelques dizaines de kilomètres de côté. "Les tests menés dans le cadre du CMIP permettent d’écarter certains modèles jugés non pertinents pour tel ou tel phénomène, mais pas de définir le meilleur", précise Jean-Louis Dufresne, responsable du centre de modélisation du climat de l’IPSL. Toutes les équipes s’efforcent de réduire l’incertitude qui pèse sur le résultat des simulations, même si la nature chaotique du climat empêche de l’éliminer complètement. Par ailleurs, les programmes de simulation eux-mêmes doivent être actualisés pour exploiter les nouvelles architectures d’ordinateurs massivement parallèles.

Élucider une composante du virus HIV

Une avancée dans la recherche contre le sida ! La structure de la capside, la coque qui protège le matériel génétique du virus et s’ouvre pour le libérer dans une cellule, a pu être entièrement reproduite par des chercheurs de l’université de l’Illinois à Urbana-Champaign (UIUC). Un assemblage de 1 300 protéines, représentant 64 millions d’atomes. C’est l’une des plus grandes simulations réalisées au niveau des atomes. De cette capside, on ne connaissait que des parties, observées expérimentalement par tomographie, résonance magnétique nucléaire… Élucider sa structure complète doit servir à mieux comprendre les mécanismes d’action du virus et à élaborer de nouvelles techniques pour le combattre.

Des labos à la pointe

Département de physique, université UIUC, (États-Unis)
Département de biologie structurale, université de Pittsburgh, avec le
National center for supercomputing applications (États-Unis)

 

Pour cela, les chercheurs ont dû attendre la génération de supercalculateurs dont la puissance dépasse le petaflops, tel l’ordinateur Blue waters du National center for supercomputing applications (NCSA), l’un des plus puissants au monde. L’équipe américaine a conçu une simulation qui s’appuie sur les données expérimentales des composants de la capside pour construire le modèle complet. En effet, les études précédentes avaient révélé que les protéines s’organisaient sous forme d’hexagones et de pentagones. Mais il restait à déterminer la structure optimale pour la construction d’une coque fermée. Aujourd’hui, notamment pour reproduire des phénomènes dynamiques tels que la formation ou le comportement de la capside, les chercheurs vont avoir besoin d’une plus grande puissance de calcul. Jusqu’ici, ils n’ont simulé que des périodes de quelques microsecondes, alors que les processus biologiques concernés se déroulent sur plusieurs secondes, voire des minutes…

Préparer l'énergie du futur

Un mélange de noyaux atomiques et d’électrons, dont la température atteint 150 millions de degrés au centre et qui est parcouru de tourbillons… Plusieurs équipes dans le monde travaillent à modéliser le comportement de ce milieu hors norme, à savoir un plasma, dont l’obtention est nécessaire pour déclencher la réaction de fusion entre le deutérium et le tritium, deux isotopes de l’hydrogène. Cette réaction sera peut-être la source d’une énergie potentiellement infinie à partir de 2040. Iter, le futur réacteur expérimental de fusion nucléaire, est déjà en construction à Cadarache (Bouches-du-Rhône). Mais les physiciens doivent apprendre à maîtriser le milieu de la réaction. Les expérimentations sur les tokamaks, machines où sont confinés les plasmas, ont permis de progresser.

Des labos à la pointe

CEA-Inria (France)
École polytechnique fédérale de Lausanne (Suisse)
Max Planck institute für plasmaphysik (Allemagne)

 

Car la simulation a son rôle à jouer dans le démarrage d’Iter, dont l’enceinte à plasma sera dix fois plus grande que celle du plus grand tokamak existant. En 2012, l’équipe française du CEA-Inria, qui utilise le code de calcul Gysela, a reproduit des turbulences dans le plasma. Un point clé pour l’efficacité du futur réacteur, car ces turbulences sont responsables des pertes de chaleur entre le cœur et les bords du magma. Une première, réalisée au prix de certaines simplifications, et sur un volume de plasma 25 fois inférieur à celui d’Iter ! Les calculs ont été effectués sur l’ordinateur Curie du Très grand centre de calcul du CEA, à Bruyères-le-Châtel. La recherche porte désormais sur la modélisation de la physique du plasma et sur l’utilisation optimale des architectures parallèles des superordinateurs. But : s’affranchir des simplifications et modéliser l’ensemble de l’enceinte d’Iter. Des simulations réalisées sur 450 000 cœurs de processeurs sont déjà programmées. Les machines prévues pour 2020 devraient, elles, en aligner plus de 1 million.

Thierry Lucas

 
media
Suivez-nous Suivre l'Usine Digitale sur twitter Suivre l'Usine Digitale sur facebook Suivre l'Usine Digitale sur Linked In RSS Usine Digitale