Actualité web & High tech sur Usine Digitale

Recevez chaque jour toute l'actualité du numérique

x

"En météo, tout repose sur la simulation", explique de DGA de Météo France

Entretien La qualité des prévisions dépend de la puissance de calcul dont nous disposons, explique le directeur général adjoint de Météo France, Olivier Gupta.

Twitter Facebook Linkedin Flipboard Email
×

En météo, tout repose sur la simulation, explique de DGA de Météo France
Olivier Gupta, directeur général adjoint de Météo France.

L'Usine Digitale : Quel rôle Météo France a-t-il joué dans la COP 21 ?

Olivier Gupta : Il faut nous replacer à notre juste place. La COP 21 était d’abord une négociation politique et stratégique. Notre intervention s’est faite en préparation de la COP, car les équipes de recherche de Météo France contribuent au rapport du Giec et c’est sur cette base que s’appuient les négociations politiques. Nous avons contribué au cinquième rapport en fournissant des simulations réalisées par le modèle Arpège-Climat, le même modèle que pour la prévision météorologique, mais paramétré pour le climat. Ce sont deux faces d’une même science. Nous avons aussi été à l’initiative d’un certain nombre d’événements en marge de la COP 21. Notamment d’un hackathon, le C3 Challenge, qui s’est déroulé tout au long de 2015. Il y a aussi eu une conférence scientifique à l’Unesco en juillet, le train du climat avec la SNCF, dont l’un de nos ingénieurs est à l’origine, et nous avions prévu des opérations pour les scolaires, mais qui ont été annulées par mesure de sécurité.

 

Quel rôle joue la simulation dans la prévision météorologique aujourd’hui ?

Un rôle central et de plus en plus important. La prévision météorologique et climatologique se fonde sur la simulation de l’atmosphère. Les gens croient souvent que la prévision météo est faite sur la base de statistiques : comparaison du temps passé, de la situation et déduction par analogie du temps qu’il fera demain. C’est une idée répandue mais fausse. Depuis des décennies, tout repose sur la simulation. En conséquence, la qualité des prévisions dépend de la puissance de calcul dont nous disposons. Cette puissance impacte directement la finesse du maillage du territoire et le raffinement des équations de l’atmosphère. L’autre paramètre essentiel, ce sont les algorithmes, qui sont plus ou moins efficaces pour résoudre les équations et ingérer les observations qui initialisent le modèle. Car une grande partie du temps de calcul n’est pas consacrée à la prévision elle-même, mais à cette initialisation. Il faut intégrer les nouvelles observations intelligemment, car elles ne couvrent pas toute la grille. Nous faisons un mix entre observations et dernières prévisions du modèle, puis nous pondérons. Tout l’art consiste à choisir la bonne pondération pour que l’état initial soit le plus proche possible de la réalité, autrement il va très vite diverger. Toute une part de la recherche est la mise au point de ces algorithmes.

 

Qui travaille sur ces modèles ?

C’est le centre de recherche de Météo France, à Toulouse. Il emploie 300 personnes, soit 10 % de l’effectif. Pour les modèles, nous travaillons en forte collaboration avec l’étranger, notamment avec le Centre européen de prévision météo à moyen terme (CEPMMT). C’est une organisation intergouvernementale. Nous codéveloppons un modèle d’atmosphère à l’échelle du globe, dont Arpège et le modèle européen IFS sont deux déclinaisons. Cette collaboration nous permet, avec une équipe de taille modeste, d’avoir un effet de levier important et d’obtenir de très bons résultats. Sur les modèles à aire limitée, nous sommes leaders du consortium Aladin, qui rassemble douze pays d’Europe, trois du Maghreb ainsi que la Turquie. Ce consortium développe des modèles à maille fine pour les prévisions à 24 heures.

 

Vous attaquez-vous à des domaines plus spécifiques ?

Tout à fait. L’une de nos équipes, à Grenoble, est chargée de la simulation du manteau neigeux pour la prévision du risque d’avalanche. C’est aussi l’un de nos rôles. Elle s’intéresse à l’atmosphère, mais également à la mécanique de l’empilement des couches de neige, à la manière dont celles-ci sont configurées par le vent, aux possibilités de glissement… Un modèle spécifique a été développé dans cette optique. Nous nous consacrons par ailleurs à des travaux en pointe sur la modélisation du climat urbain. L’une de nos unités modélise les spécificités d’une ville. Elle aide les décideurs locaux à évaluer la nécessité de végétaliser les toitures, de blanchir les chaussées et d’humidifier les sols et chaussées, et peut simuler les conséquences de ces actions sur la température, notamment lors de canicules. C’est une problématique territoriale de plus en plus importante pour lutter contre le réchauffement climatique. Certains de nos chercheurs s’occupent de leur côté de la qualité de l’air. D’autres sont chargés de la simulation de la surface des sols, car il faut modéliser les transferts, l’humidité, la végétation, l’imperméabilisation. Nous simulons aussi l’océan superficiel – les vagues et la houle. Nous réalisons des rétrotrajectoires pour calculer les dérives d’épaves ou de polluants (hydrocarbures). Nos unités de recherche sont mixtes, rattachées à la fois à Météo France et au CNRS. Cela nous garantit une bonne connexion avec le milieu universitaire.

 

Quels moyens techniques mettez-vous en œuvre ?

Le supercalculateur que nous louons à Bull depuis 2014 se trouve à Toulouse. Sa puissance crête s’élève à un petaflops. L’une de nos missions est d’acheter au meilleur prix une puissance de calcul adaptée à nos besoins, aux modèles que nous utilisons, à leur fréquence… Cette puissance nous a permis d’élaborer des modèles de prévision immédiate, à quelques heures d’échéance, avec un zoom sur la France. Nous réalisons aussi de la prévision d’ensemble à maille fine. Nous faisons tourner le modèle à plusieurs reprises en modifiant légèrement les conditions initiales pour étudier les différents scénarios. Désormais, nous pouvons le faire pour le modèle fin et plus seulement pour le global. Notre contrat court jusqu’au début de 2019. À mi-parcours, le supercalculateur sera mis à jour et passera à environ 5 petaflops. La machine est scindée en deux unités. L’une est dédiée à la chaîne opérationnelle, tandis que l’autre sert aux travaux de recherche sur la ­simulation du climat et sur la mise au point de la future chaîne opérationnelle météo. Il faut tester les modèles un an avant de les déployer. Comme nous avons un impératif de continuité de service, la demi-machine de recherche peut basculer automatiquement en production pour que le service reste opérationnel. De plus, les demi-configurations sont séparées physiquement de quelques kilomètres afin de garantir le service en cas d’accident. Un système de stockage, lui aussi régulièrement mis à jour, est associé à ce supercalculateur. Nous avons atteint 40 petaoctets de stockage cette année et nous arriverons fin 2017 à une centaine de petaoctets.

 

Pourquoi louer au lieu d’acheter ?

Le renouvellement s’effectuant tous les cinq à six ans, cela ne change pas grand-chose. C’est plutôt une question de formalisme. Nous sommes passés à la location il y a dix ans environ, comme nos homologues. Nous achetons seulement la puissance de calcul. La machine est située chez nous, nous fournissons l’alimentation et les fluides de refroidissement, mais il s’agit d’un contrat de location.

 

Quels sont les axes de développement de Météo France en matière de simulation ?

Il y a quatre axes de progrès en matière de simulation des phénomènes atmosphériques. D’abord, prendre en compte de plus en plus d’observations. Beaucoup de données proviennent désormais des satellites, avec de nouveaux instruments. Notre premier travail, très complexe, est d’inventer les algorithmes. Ensuite, nous devons initialiser le modèle intelligemment, en conciliant l’observation et les résultats du modèle précédent. Les algorithmes d’assimilation de données représentent un gros chantier qui exige de choisir la technique la plus prometteuse. Notre troisième axe de développement concerne la physique, les équations du modèle. Il faut mieux modéliser, compte tenu des expériences grandeur nature qu’on peut faire.

 

Tout un pan de la recherche consiste à sonder ce qu’il se passe dans les nuages. Nous utilisons des avions instrumentés pour mieux comprendre des phénomènes comme les épisodes cévenols. Cela nous aide à améliorer nos équations. Enfin, le quatrième axe de progrès a trait à la résolution. Le modèle global est à 7,5?km de résolution. Le modèle à maille fine, sur la métropole étendue (Europe de l’Ouest et Afrique du Nord), est à 1,3?km de résolution. Quand on franchit certains caps de résolution, de nouvelles problématiques apparaissent. Par exemple, si les pentes deviennent trop brutales, il faut modifier les grilles de calcul et les schémas numériques. En complément, notre code doit être de mieux en mieux optimisé par rapport aux architectures matérielles. L’un de nos grands travaux en cours s’attache à la « scalabilité » des modèles, à leur adaptation aux architectures massivement parallèles. C’est un facteur de non-dégradation et de gain. Nous travaillons pour cela avec le CEPMMT et le Centre européen de recherche et de formation avancée en calcul scientifique (Cerfacs), situé sur notre site, à Toulouse, et auquel nous sommes associés.

Réagir

* Les commentaires postés sur L’Usine Digitale font l’objet d’une modération par l’équipe éditoriale.

 
media
Suivez-nous Suivre l'Usine Digitale sur twitter Suivre l'Usine Digitale sur facebook Suivre l'Usine Digitale sur Linked In RSS Usine Digitale