Actualité web & High tech sur Usine Digitale

Recevez chaque jour toute l'actualité du numérique

x

Simuler l'environnement : un savoir-faire français

Air soufflé par une climatisation, tempête, catastrophe industrielle majeure… Les laboratoires français sont passés experts dans la simulation de notre environnement. Démonstration.
Twitter Facebook Linkedin Flipboard Email
×

Simuler l'environnement : un savoir-faire français
Simuler l'environnement : un savoir-faire français © À Bordeaux, le supercalculateur Ramsès assure en temps réel la prévention contre les inondations et le contrôle des stations d’épuration.

A l’heure où les premières conséquences des changements climatiques sont palpables, y compris en France, la simulation prend une part toujours plus importante dans la protection de notre environnement et dans la lutte contre le réchauffement. Optimisation des infrastructures humaines et des ressources en eau et en énergie, prévision de l’érosion du littoral face à la montée des océans, anticipation des cataclysmes, modélisation des phénomènes de pollution… Le calcul est sur tous les fronts de la protection de l’environnement. Et les experts français, chez EDF, Suez, Veolia, au CNRS, à l’Institut national de recherche en informatique et en automatique (Inria), au Centre scientifique et technique du bâtiment (CSTB) ou à l’Institut de radioprotection et de sûreté nucléaire (IRSN), sont souvent à la pointe de l’innovation grâce à des solutions originales.

 

Se protéger des aléas climatiques

En décembre 2015, l’accord mondial signé lors de la COP 21 a fixé de nouveaux objectifs aux nations afin de limiter les rejets de CO2 dans l’atmosphère. De nombreux pays font déjà face aux changements climatiques. La France, et notamment son littoral, n’est pas épargnée, comme le souligne Antoine Rousseau, chercheur à l’Inria et responsable de l’équipe Lemon (Littoral, environnement, modèles et outils numériques). "Il existe trois risques littoraux : les tempêtes et tsunamis, les risques d’érosion, et enfin les inondations, explique-t-il. Il nous faut donc à la fois concevoir des modèles mathématiques pour comprendre ce qui se passe à long terme, mais aussi des outils de simulation “temps réel” de gestion du risque afin d’être capable de faire évacuer à temps telle ou telle zone submersible."

 

Xynthia, la simulation passe au tribunal
En février 2010, la tempête Xynthia, conjuguée à un haut coefficient de marée, a provoqué la rupture de plusieurs digues et des inondations en Vendée, causant la mort de 29 personnes, malgré l’alerte lancée par Météo France. « Le Bureau de recherches géologiques et minières (BRGM) a été actif dans la proposition d’explications physiques de l’événement dans les rapports fournis aux autorités. Ces évaluations se sont appuyées en grande partie sur des simulations numériques », souligne FabTexterice Dupros, le responsable calcul de l’établissement. De leur côté, les assureurs Maif, AXA et Maaf ont financé le projet de recherche Johanna, qui a permis de recouper les données de simulation avec les déclarations de sinistre. Un modèle a été établi entre les données de submersion marine (hauteur d’eau, vitesse du courant) à très haute résolution et les dégâts sur le bâti. Un modèle qui aidera à faire des choix en termes de matériau de construction ou d’aménagements afin de prévenir au mieux les conséquences de telles catastrophes.
Pas si simple. Chaque processus mis en œuvre, que ce soit pour les vents, les courants ou les mouvements du sol, est très complexe. Leurs équations nécessitent de nombreux calculs. Sans parler de la difficulté de coupler ces simulations entre elles, alors que chacun des processus évolue à une vitesse qui lui est propre. Ainsi, l’érosion résulte de l’interaction entre l’eau et les sédiments quand le fond marin joue sur les courants côtiers et réciproquement. "Un courant évolue en quelques heures alors que les modifications des fonds sableux interviennent au bout de quelques mois ou de quelques années. D’un point de vue mathématique, coupler des phénomènes reste très compliqué", observe Antoine Rousseau. Mais pas impossible. Via un programme financé par l’Agence nationale de la recherche (ANR), des chercheurs de son équipe ont aidé à limiter l’ensablement de la zone de Sète (Hérault). C’est au moyen de leurs codes de calcul que des "chaussettes géotextiles" ont été disposées sur le fond marin afin de modifier les courants et de limiter le phénomène d’érosion du littoral.

 

Précieuse pour anticiper les évolutions à moyen et long termes de notre environnement, la simulation est vitale lorsqu’il s’agit de faire face à une catastrophe naturelle. L’équipe Lemon travaille en étroite collaboration avec l’université de Montpellier sur la modélisation en temps réel des ­scénarios d’inondation de la ville, en vue de créer des outils utilisables par la préfecture ou les pompiers lors les ­évacuations. "La problématique est de savoir s’il faut une prévision grossière mais très rapide ou attendre afin ­d’améliorer la qualité de la prévision. C’est un compromis à trouver. Les mathématiques ont un rôle à jouer afin d’améliorer le modèle, à temps de calcul constant, et donc la qualité de la prévision", assure le chercheur.

 

Suez Environnement s’intéresse aussi à cette problématique de simulation opérationnelle. "En cas d’orage, nous devons gérer cette quantité d’eau qui arrive soudainement dans le réseau", explique Bertrand Vanden Bossche, le pilote du portefeuille R & D des activités smart solutions. Son équipe a commencé à mettre en place dans la région parisienne des modèles de calcul extrêmement complexes associant les données météorologiques et l’analyse des images radar de Météo France. "Cela nous permet de calculer la lame d’eau, c’est-à-dire le volume qui va se déverser sur notre réseau. Les hauteurs d’eau dans les bassins de stockage et dans les réseaux nous étant connues, nous pouvons alors organiser la bonne stratégie de pompage pour ne pas envoyer plus d’eau aux stations de traitement des eaux usées qu’elles ne peuvent en accepter. Le tout en essayant d’éviter de rejeter dans le milieu naturel des eaux potentiellement polluées", détaille l’expert. À Bordeaux, Suez est allé encore plus loin. Là, ce sont des algorithmes qui règlent la hauteur des vannes et lancent le pompage pour absorber le mieux possible les eaux de pluie.

 

Mieux exploiter les ressources naturelles

La simulation est aussi un moyen d’agir sur les causes du réchauffement en aidant les grands pays industriels à réduire leurs émissions de CO2, notamment par la montée en puissance des énergies renouvelables dans le mix énergétique, en travaillant à l’amélioration de leur rentabilité. Car le photovoltaïque, l’éolien, l’hydrolien et les nouvelles sources d’énergie nécessitent de lourds investissements. Les cinq champs d’éoliennes offshore dont la construction a été autorisée au large des côtes françaises représenteront un investissement de 7?milliards d’euros. Définir de manière fiable le productible d’une installation – c’est-à-dire estimer au plus juste sa production sur l’ensemble de sa durée de vie – est donc capital. "Calculer les productibles éoliens sur les vingt à vingt-cinq ans que durera leur exploitation implique d’avoir des modèles sophistiqués, en statistique et en dynamique pour comprendre l’interaction du vent sur le site d’implantation", explique Pierre-Guy Thérond, le directeur des nouvelles technologies d’EDF Énergies Nouvelles.

 

Pour y parvenir, l’énergéticien délaisse de plus en plus les modèles de simulation les plus simples – qui s’appuient sur une ­hypothèse laminaire – pour aller vers des équations de ­mécanique des fluides de type Navier-Stokes (ou CFD, pour calcul de dynamique des fluides), des modèles jusqu’ici ­utilisés en aéronautique. L’expert motive ce choix, pourtant bien plus coûteux en termes de puissance de calcul. "Des modèles CFD permettent de bien mieux approcher les effets de turbulence. En zone complexe, c’est-à-dire lorsque le terrain est très tourmenté, avec des mouvements de vent complexes et des vortex autour des éoliennes, ­l’hypothèse laminaire n’est plus suffisante", ­souligne-t-il. Il est ainsi possible d’optimiser le placement des éoliennes par rapport au relief, mais aussi entre elles afin que le sillage des ­premières, face au vent, ne grève le rendement de celles placées derrière.

 

L’eau est elle aussi une ressource naturelle qui doit être optimisée. L’élévation des températures moyennes conjuguée à l’augmentation de la population mondiale, qui s’élèvera à 8?milliards d’individus en 2025, va entraîner une chute de près d’un tiers de la quantité d’eau disponible par habitant sur la planète. Une tendance qui n’épargnera pas la France. Les agriculteurs du sud du pays sont déjà frappés chaque été par des restrictions sur les pompages dans les cours d’eau. La simulation a, là aussi, un rôle à jouer, comme l’a démontré le consortium Astuce & Tic, qui a étudié l’évolution de la nappe phréatique de la plaine de Crau. Au sud des Alpilles, le triangle formé par Arles, Salon-de-Provence et Fos-sur-Mer recouvre une nappe phréatique de première importance pour la région. Une nappe soumise aux contraintes climatiques, mais aussi à une forte pression démographique. Fabienne Trolard, directrice de recherche à l’Inra, a pu évaluer l’impact du réchauffement climatique et du développement économique sur la zone. Ses calculs ont montré que la combinaison de la réduction de 14 % des prairies, de la baisse de 30 % des volumes d’eau d’irrigation et d’un accroissement de 30 % des prélèvements d’eau potable allait entraîner une baisse de la nappe phréatique de l’ordre de 1,5 à 13?mètres, selon les points étudiés. Une information clé qui doit guider les politiques dans leurs choix d’aménagement de la zone.

 

Les exploitants de réseaux de distribution d’eau sont eux aussi directement confrontés à la nécessité de protéger la ressource en eau, notamment des pollutions qui en menacent la qualité. Suez Environnement travaille ainsi sur des ­simulations de la diffusion de polluants dans les sols, afin d’évaluer l’impact des engrais agricoles sur les nappes souterraines.

 

Améliorer la conception des infrastructures

Si la simulation est un moyen de mieux exploiter les énergies renouvelables, elle peut également être utilisée pour bâtir mieux et pour limiter la consommation énergétique des bâtiments. "Nous avons développé un code de simulation baptisé Mathis (Modélisation de l’aéraulique, de la thermique et de l’hygrométrie instationnaire d’un bâtiment), explique Maxime Roger, le directeur climatologie, aérodynamique, pollution et épuration du CSTB. Il ne s’agit pas d’un code de mécanique des fluides classique comme on en utilise pour modéliser le vent, mais d’un code nodal où chaque pièce d’un bâtiment est représentée sous la forme de nœuds. Chaque nœud est interconnecté avec des modèles représentant des bouches d’aération et autres accessoires du système. Il est ainsi possible de représenter la ventilation, l’hygrométrie et d’autres paramètres à l’échelle du bâtiment, sur une année, en tenant compte de très nombreux scénarios d’usage." Le CSTB considère que cette approche simplifiée de la simulation facilitera son adoption par les architectes et les bureaux d’études, notamment pour la prise en compte de la réglementation thermique RT 2012.

 

L'hydrolienne D10 de Sabella tourne aussi au numérique
Elle a été immergée en juin?2015, puis raccordée au réseau électrique de l’île d’Ouessant (Finistère) en novembre?2015. D10 est la première hydrolienne conçue par la start-up Sabella à être testée en vraie grandeur. Pour en déterminer l’emplacement, la start-up a fait appel à Artelia, la société d’engineering qui a modélisé les fonds autour de l’île. « Une représentation des courants a été réalisée à partir des relevés bathymétriques et des mesures du courant. Le site d’installation a été précisément choisi en fonction de ces données, de la houle et en raison de sa planéarité », confie Erwann Nicolas, le responsable des études mécaniques de Sabella. Pour dimensionner la structure et les aubes de l’hydrolienne, Sabella s’est encore une fois appuyé sur le calcul. Et a fait appel à HydrOcean pour la simulation CFD nécessaire à la conception détaillée de la nacelle et des aubes en carbone. Les ingénieurs ont notamment étudié la tenue mécanique et vibratoire de l’arbre et des pales, mais aussi la fatigue de la turbine.
Mais le recours aux calculs CFD reste indispensable pour simuler des phénomènes plus complexes, par exemple pour étudier l’impact d’un bâtiment ou d’une infrastructure sur son environnement. Le coût d’accès aux capacités de calcul ayant chuté, simuler le vent sur un ouvrage en tenant compte des bâtiments environnants sur plusieurs centaines de mètres n’est plus un problème. Les modèles numériques les plus évolués servent aussi à simuler des phénomènes comme la pluie. "Nous savons modéliser une pluie battante dans un stade ou dans des espaces semi-ouverts, à l’image des centres commerciaux partiellement couverts d’une canopée ", explique Sylvain Aguinaga, le chef de la division modélisation numérique du CSTB. Reproduire en soufflerie la dispersion des gouttes d’eau à l’échelle réduite n’est pas possible et seule la simulation numérique permet d’anticiper ce type de phénomène. "Nos clients, les bureaux d’études et les architectes, savent, grâce à des scénarios de concomitance pluie - vent, si les gradins ou les coursives seront sous la pluie. On peut alors proposer, en amont de la construction, des modifications de géométrie sur l’ouvrage pour limiter ces phénomènes", poursuit-il.

 

Les simulations de microclimats autour d’un édifice sont de plus en plus sophistiquées. Le Centre de recherche méthodologique d’architecture (Cerma), un laboratoire du CNRS ­intégré au Centre de recherche nantais architectures urbanités, a mis au point le logiciel de simulation solaire Solene. Celui-ci dessine les ombres que va tracer un ouvrage au sol, calcule la durée d’ensoleillement de chaque point d’une scène 3 D et estime l’éclairement naturel direct à l’extérieur ou dans une pièce d’un bâtiment. Si ces outils sont aujourd’hui classiques dans la palette des architectes ou des bureaux d’études, Solene évolue et intègre de plus en plus de facteurs complexes. L’impact des zones gazonnées, des bassins ou des arbres placés aux alentours de l’ouvrage est désormais intégré au calcul. De plus, il est possible de coupler le logiciel avec un outil de simulation de fluides comme ceux de l’éditeur Fluent, afin de réaliser des calculs thermo-aérauliques du bâtiment. En simulant ce microclimat local, on peut estimer au plus juste le confort extérieur et intérieur qu’offrira la construction à ses usagers et éviter qu’un bâtiment tel que la tour 20 ­Fenchurch Street, récemment élevée à Londres, n’éblouisse les promeneurs ou ne fasse fondre les plastiques des ­véhicules garés devant sa façade !

 

Lutter contre la pollution

Si la simulation des phénomènes naturels concentre beaucoup de ressources, c’est aussi le cas des effets de l’activité humaine. Consulter les cartes de pollution des grandes métropoles au même titre que l’on consulte les prévisions météo n’a aujourd’hui plus rien d’exceptionnel. Vivien ­Mallet, chercheur à l’Inria, souligne les progrès réalisés depuis les années?1980 en termes de prévision. "Le rapprochement entre les observations réalisées au moyen de réseaux de capteurs et la simulation est une contribution majeure à l’amélioration des prévisions météorologiques. Sur la qualité de l’air notamment, où l’incertitude de la prévision est souvent grande", explique-t-il. C’est la raison pour laquelle les chercheurs qui travaillent sur l’amélioration des modèles multiplient les installations de nouveaux capteurs. Les données des stations météo et de la qualité de l’air, comme celles d’Airparif, déjà complétées par l’imagerie satellite, sont de plus en plus souvent établies par l’internet des objets. À Lyon, des détecteurs de pollution communicants ont été installés sur les tramways et on devrait en retrouver sur les lampadaires de l’éclairage public dans toujours plus de villes françaises. Autant de sources de données qui vont alimenter les modèles numériques et rendre plus fiables les prévisions de pollution. Même nos téléphones portables peuvent faire office de capteurs, comme c’est le cas avec l’application SoundCity qui mesure la pollution sonore dans les villes grâce aux mobiles.

 

SoundCity écoute la ville grâce aux smartphones
Développée dans le cadre de l’initiative Inria CityLab sur la ville connectée, l’application SoundCity exploite le micro des smartphones afin de réaliser des mesures de bruit tout au long de la journée. « L’application donne aux gens une idée de leur exposition à titre individuel, et les données sont utilisées pour corriger les cartes de bruit au niveau de la ville, explique Vivien Mallet, chercheur à l’Inria. La difficulté majeure vient de la faible qualité des relevés effectués car les conditions de mesure sont, par définition avec une application mobile, très changeantes. » L’objectif du projet est aussi de progresser sur le sujet de la combinaison entre simulation numérique et observation via des capteurs mobiles de qualité médiocre. Pour l’heure, l’application communique environ 1?million de mesures tous les 4 jours, mais 2 à 3 % seulement sont exploitables pour corriger les cartes de bruit. "Nous espérons que, grâce à cette collecte participative, nous pourrons corriger et affiner nos simulations et nos prévisions."
Très utile pour anticiper de quelques heures un niveau de pollution atmosphérique, la simulation est aussi un outil d’assistance en cas d’événement catastrophique. On sait simuler la façon dont se répandrait sur Paris une bombe sale qui exploserait place de l’Hôtel-de-Ville. En fonction de la météo, on saura dans quels arrondissements sonner l’alerte. De même, la construction de nouvelles installations pétrochimiques fait l’objet de simulations numériques afin de visualiser quel serait l’impact d’un rejet de gaz toxiques dans l’atmosphère. Lors de l’accident de Fukushima, l’Institut de radioprotection et de sûreté nucléaire (IRSN) a ainsi été capable de réaliser des prévisions opérationnelles afin de savoir si la population allait être exposée ou pas à l’émission de radionucléides."Pour y parvenir de manière fiable, il faut des données météorologiques de bonne qualité", prévient Vivien ­Mallet.

 

Un panache de fumées radioactives se déplace selon la direction des vents et, si celui-ci se déplace vers la terre ou vers la mer, le risque n’est pas le même pour les populations. "Les prévisions météorologiques peuvent être très incertaines, notamment lorsque les vents sont faibles. Lors de l’accident de Fukushima, les Japonais ont eu recours à la simulation opérationnelle afin de prévoir où irait le panache et de décider du moment où ils pourraient rejeter des gaz dans l’atmosphère pour empêcher l’explosion de l’enceinte. Ce que nous voulons faire aujourd’hui, c’est non seulement être capable de calculer où ira le panache, mais aussi quelle confiance accorder à cette prévision. On veut quantifier l’incertitude des modèles afin de prendre les meilleures décisions possibles", explique Vivien Mallet. Voilà bien l’enjeu de la simulation numérique : aider les hommes à prendre les meilleures décisions pour préserver leur environnement. Toutes ces équations, développées dans les laboratoires français, y contribuent.

Réagir

* Les commentaires postés sur L’Usine Digitale font l’objet d’une modération par l’équipe éditoriale.

2 commentaires

Varenne
15/04/2016 10h09 - Varenne

Excellent dossier. Merci ! La tendance à la complexification mathématiques et algorithmique (pour plus de "réalisme") des modèles de simulation de systèmes eux-mêmes complexes est quelque chose de tout à fait remarquable aujourd'hui. Je me permets de signaler ici que cette tendance est exposée, exemplifiée et analysée dans notre livre collectif papier (et numérique) par plus d'une cinquantaine de chercheurs et ingénieurs contributeurs : Modéliser & simuler, Tomes 1 et 2, Matériologiques, Paris : Tome 1, 2013 : http://materiologiques.com/sciences-philosophie-2275-9948/115-modeliser-simuler-epistemologies-et-pratiques-de-la-modelisation-et-de-la-simulation-tome-1-9782919694372.html et Tome 2, 2014 : http://materiologiques.com/modelisations-simulations-systemes-complexes-2425-5661/187-modeliser-simuler-epistemologies-et-pratiques-de-la-modelisation-et-de-la-simulation-tome-2-9782919694723.html

Répondre au commentaire | Signaler un abus

Antoine
12/04/2016 22h01 - Antoine

Excellent article. Précision au sujet des géotextiles : ce travail est antérieur à l'existence de LEMON. Il est à porter principalement au crédit de collègues de l'Université de Montpellier. Notamment P. Azerad, F. Bouchette et B. Mohammadi.

Répondre au commentaire | Signaler un abus

 
media
Suivez-nous Suivre l'Usine Digitale sur twitter Suivre l'Usine Digitale sur facebook Suivre l'Usine Digitale sur Linked In RSS Usine Digitale