De l’expérience à la simulation

Dans un temps très ancien, il y a encore une cinquantaine d’années, avant que l’ordinateur ne perce, pour mettre à l’épreuve les diverses théories et obtenir des résultats on utilisait une chose qui désormais pourrait presque paraître étrange. Cette chose, c’était l’Expérience.
Pour vérifier l’aérodynamisme et la portance des avions, pour tester des bombes, pour fabriquer des ponts, pour mettre au point des moteurs, l’étape essentielle de tous ces développements était l’expérimentation sur un prototype ou sur une maquette. On connaît les relations permettant de passer d’une maquette à un prototype taille réel en mécanique des fluides par exemple (l’aérodynamisme est compris à l’intérieur).

Le but principal de l’expérience est de valider des calculs ou des théories établies préalablement. Cette utilisation est bien entendue toujours d’actualité mais elle a beaucoup évolué. Avant, pour construire une voiture, le constructeur automobile développait avant la mise en industrialisation un nombre de prototypes hallucinants car il y avait toujours des défauts à corriger, les corrections pouvant entraîner d’autres défauts… On faisait également énormément de crash-test ou ce genre de tests. Désormais, nos mains comptent assez de doigts pour compter le nombre de prototypes nécessaires avant industrialisation. Pourquoi ? Parce qu’on a des ordinateurs ? Oui, mais pas seulement, surtout parce que la modélisation et la simulation numérique ont fait des progrès gigantesques.

La simulation permet d’économiser beaucoup de temps, d’argent et permet de faire des choses qui n’étaient même pas soupçonnables par le passé. Elle est utilisée dans tous les domaines scientifiques, de la science fondamentale aux sciences du comportement et à la biologie en passant par les sciences de l’ingénieur. Toutes les technologies et théories sont désormais issues de simulations, je dis bien TOUTES. Je crois bien que dans 80% des sujets de thèses pour les élèves doctorants, il y a le mot « simulation » qui apparaît. La simulation est un outil incontournable. Si un scientifique vous dis qu’il ne fait pas de simulation, soit c’est un théoricien pur sang, soit c’est un fou, soit c’est un menteur. Evidemment, pour faire une simulation numérique, il faut un modèle. D’où l’importance de la modélisation avant la simulation. Maintenant, les algorithmes de résolutions numériques sont très performants, on en trouve pour tous les goûts et toutes les disciplines, donc pour faire une bonne simulation il faut un bon modèle ! Mais un modèle c’est quoi au juste ?

Un modèle permet de caractériser un système ou un processus de manière explicite grâce à des équations. Ce modèle peut être physique, c’est-à-dire qu’il est issu d’une théorie et que les différents paramètres possèdent des unités physiques qui signifient quelque chose de réel. La deuxième possibilité c’est que le modèle soit purement mathématique. C’est-à-dire que les paramètres des équations ne possèdent pas de connotations réelles, c’est un modèle issu d’observations que l’on a faites, pas d’une théorie utilisant des équations physiques. Il existe aussi d’autres types de modèle comme la logique floue et les réseaux de neurones très en vogues en ce moment…

En général, ce ne sont pas des équations algébriques mais des équations différentielles qu’il faut résoudre. De plus ces équations sont valables à un instant « t ». Si on veut étudier leurs évolutions dans le temps, par exemple pendant 5min avec une précision de 0,1seconde, il faut les résoudre 3000 fois !

Une fois le modèle en poche, on simule ! Evidemment un calcul peut vite devenir très gourmand et l’ordinateur, aussi puissant qu’il soit, est en réalité vite dépassé. C’est pour cela qu’il faut bien conditionner les problèmes, savoir la précision que l’on souhaite et qu’il faut utiliser des algorithmes peu gourmands en temps en calcul. Certaines résolutions qui à première vue peuvent paraître presque anodines, peuvent demander 1500 Milliers d’années de calcul avec l’ordinateur le plus puissant du monde. Alors que des problèmes hyper complexes arrivent à être résolus en 1h sur un PC standard… Tout cela pour dire que cela n’est pas souvent très intuitif. Le plus difficile je dirais que c’est identifier le problème :

  • Qu’est ce que je veux connaître ?
  • Quelle précision je souhaite ?
  • Une simulation dans le temps (dynamique) ou à un instant précis (statique) ?
  • Quel modèle utiliser ?
  • Qu’est-ce qu’il faut prendre en compte ?
  • Quels sont les paramètres pertinents ?
  • Quel algorithme utiliser, quel logiciel ?

A la question  « Qu’est ce qu’il faut prendre en compte ? », eh bien dans l’idéal,
tout, mais c’est évidemment impossible. Par exemple quand on veut simuler la température dans un moteur, on va dire que la température extérieure est de 25°C, on ne va pas inclure dans le modèle la météo pour avoir la température du jour…

 Le marché du logiciel possède une vaste gamme de simulateurs spécialisés le plus souvent par domaine et par technique de simulation. Une technique très en vogue et très répandue s’appelle la méthode des éléments finis. Le principe est très simple. On dessine le machin qu’on veut simuler (un morceau de carbone, une voiture, un moteur, une pompe, une aile d’avion…)  on le découpe en triangle (en 2D) ou en tétraèdres (3D), on définit les équations physiques valables (équations électromagnétiques, équations de mécanique des fluides selon les choses qui nous intéressent….), ce que l’on veut calculer (force, température, débit, déformation…), on fixe des conditions sur les limites (température extérieure, le liquide ne peut pas traverser ce mur…) et on appuie sur « play » pour voir le résultat. Genre on peut simuler un bidule à l’aide de ce machin en bidouillant un peu tout ce bazar en moins d’une heure pour un problème de base et obtenir un résultat très satisfaisant, c’est super bien fait ! Evidemment, la simulation et tout le tralala, c’est rapide ce qui est lent, c’est tout ce qu’il y a avant…

 

Voici maintenant les exemples de simulations les plus connus:

La météo, bien entendu est la simulation par excellence qui demande des ressources informatiques gigantesques. Les modèles, très complexes, doivent prendre en compte plusieurs milliers de mesures de températures, de pressions, de vents… faites dans la journée et dans les jours précédents pour anticiper le temps de demain, voir de la semaine. Tout le monde se sera aperçu qu’il y a encore des progrès à faire. Mme Météo a souvent tort mais tend à s’améliorer !!
Evidemment quand on fait une simulation de réacteur nucléaire, on peut attendre le résultat pendant une semaine de calcul mais pas en météo. S’il faut attendre le samedi pour avoir le temps qu’il faisait le lundi d’avant (mais avec des données antérieures à ce lundi), la météo n’a plus grand intérêt ! Donc en météo, les simulations se comptent en heures et les machines doivent donc être très puissantes en temps de calcul et en stockage de données. Mais la météo interagit aussi directement avec les simulations de notre bonne vieille planète bleue.

La Défense. Ce secteur est également très friand de simulation. Depuis l’arrêt des essais nucléaires en France en 1996 (Rappelez-vous donc Mururoa avec Chichi), la France a décidé de continuer sa « dissuasion nucléaire » par des simulations ! Je n’approuve pas trop ce domaine de Recherche, mais c’est malheureusement un des plus actifs, et c’est surtout celui qui a le plus d’argent (on vit dans un monde de cinglés) donc je ne peux pas faire l ‘impasse. Le CEA (Commissariat à l’Energie Atomique) vient d’ailleurs d’acquérir un super-calculateur nommé Tera-10 (60 mille milliards d’opérations à la seconde), entre autre pour ce secteur. Le CEA simule donc les futures bombes (bombe A, bombe H…) sur des PC. C’est quand même mieux que de le faire en vrai pour voir si ça marche, même si le résultat final est toujours le même. Mais évidemment, ces simulations doivent être vérifiées d’une manière ou d’une autre. C’est pour cela que le CEA a entrepris la conception et construction de plusieurs expériences permettant de vérifier les modèles et les résultats obtenus séparément. Je parle de l‘expérience Mégajoule près de Bordeaux et de leur machine AIRIX pour la radiographie. Les résultats peuvent également être confrontés aux expériences faites dans le passé pour voir si l’on peut retracer ce qui s’et passé avec précision…

La Recherche Nucléaire évidemment exploite de gigantesques calculateurs dans le but de simuler le fonctionnement de la matière mais également pour la conception de réacteurs nucléaires. Je le répète, la recherche nucléaire se rapporte à l’étude des constituants de la matière (ou anti-matière) : les particules. Ça ne veut pas dire « centrale nucléaire » ou « bombe Atomique » forcément (c’est juste inclus dedans).

Donc dans l’étude des particules, on peut simuler le comportement de ces petites boules d’énergie avant de passer à l’expérience. L’expérience, elle, est aujourd’hui primordiale pour vérifier les modèles et les simulations. Ces expériences se font dans des accélérateurs de particules où l’on va même jusqu’à accélérer des grosses particules (des protons, soit 1800 fois plus lourds qu’un pauvre petit électron) dans un anneau qui fait 27km de circonférence à 100mètres sous terre entre la France et la Suisse. Je parle bien évidemment du LHC (Large Hadron Collider) du CERN (Organisation Européenne pour la Recherche Nucléaire) à Genève qui rentrera normalement en fonctionnement en 2007. Avant cela, il a fallu un nombre de simulations hallucinant et les résultats fournis par l’accélérateurs entraîneront encore de multiples simulations dans tous les domaines de la physique fondamentale pour pouvoir aider les astrophysiciens et notre connaissance de la matière qui n’est toujours pas complète.

Concernant les réacteurs nucléaires de demain, ils sont entièrement simulés sur ordinateur avant de fonctionner. Mais ces simulations sont avant tout faites pour la recherche fondamentale pour mieux appréhender le comportement de la matière dans des situations extrêmes. Les recherches et les simulations sur les plasmas sont par exemple un atout pour la connaissance des réacteurs nucléaires.

L’astrophysique et la cosmologie n’existeraient pas sans simulations. Leurs objectifs est de fournir des modèles de notre univers pour pouvoir retracer son passé, son évolution et son futur avec précision. Pour cela, il faut bien évidemment des simulateurs. Un modèle tout seul donne un comportement mais pas un résultat. En gros, le simulateur est le « shaker » dans lequel on place notre modèle de l’Univers, nos conditions initiales et nos paramètres. Ensuite on le secoue très fort et il nous fournir l’évolution des étoiles, des galaxies et tutti quanti sur plusieurs milliards d’années. Ces disciplines s’intéressent aussi aux objets cosmiques telles que les étoiles, les galaxies, les quasars et autres objets bizarroïdes. Les simulations permettent de tester des théories avec leurs modèles pour voir si les observations sont conformes à ce que fournissent les simulations. De nombreuses simulations de notre étoile le soleil sont faites pour mieux comprendre son fonctionnement par exemple.

Des matériaux sont désormais issus de simulations numériques. Avant de concevoir un matériau, on va modéliser sa structure atomique et le simuler pour obtenir comme résultats ses propriétés mécaniques, optiques, électriques, électroniques et même chimiques. Evidemment on ne peut pas prendre en compte tous les atomes en tenant compte de leurs rapidité, ce serait trop fastidieux :  un millième de millimètre cube contient près de cent milliards d’atomes et chaque atome peut osciller à environ un millième de milliardième de seconde. On dilate ces paramètres pour obtenir un modèle plus grossier (on regroupe les atomes identiques par exemple) et les simulations nous donnent alors des résultats pertinents en un temps raisonnable. On peut ainsi améliorer de nombreux matériaux utilisés en électronique (semi-conducteurs), en optique ou dans le bâtiment (simulation des différents bétons par exemple).

L’automobile et l’aéronautique utilisent la simulation pour réduire les coûts et augmenter les performances, optimiser tout ce qui est possible. Chez PSA, on fait des crash-tests numériques, les constructeurs d’avions et de fusées testent sur ordinateur les comportements de leurs avions en situation extrême, trop dangereux à réaliser en réalité. Tout cela sans compter toutes les simulations numériques préalables pendant la conception mécanique. Bref, du manche à
balai aux ailes en passant par le matériel électronique et les moteurs, tout est simulé avant de construire le moindre prototype et d’effecteur le moindre test. Le décollage impeccable du nouveau Jumbo d’Airbus, l’A380, cette année est une preuve de la fiabilité des simulations. Dans cet avion, tout a été simulé de A à Z, ce qui a permis sa construction en un temps record et son succès au premier décollage. Le pilote ayant fait le premier décollage raconte que la sensation de pilotage faite en simulateur était extrêmement fidèle à la réalité, ce qui était rarement le cas avant. On a même fait un essai d’atterrissage automatique sans intervention humaine 35 jours après le premier décollage (on avait déjà tout simulé avant) alors que normalement ce genre de test se fait plusieurs années après. Faire décoller plus de 500 tonnes avec quatre moteurs et 80m d’envergure tout en respectant toutes les normes de sécurité voyageurs, c’était encore impossible il y a quelques années.

La Biologie également simule tout ce qui bouge
et est vivant !

La gestion des risques est maintenant assujettie à la simulation pour prévenir d’éventuels dangers et connaître leurs répercussions. Par exemple pour la propagation d’une épidémie au sein d’une population. Il existe désormais des modèles extrêmement réalistes. Il y a même eu des simulations numériques sur le crash d’un avion type A320 sur une centrale nucléaire. Modélisation du béton de la centrale, explosion de l’avion, chaleurs et température…

Mais dans l’avenir ce ne sera peut être pas des simulations numériques les plus performantes, mais des simulations analogiques… Je ferai un article sur ce sujet de plus en plus en vogue, sans parler des futurs ordinateurs quantiques qui pourraient être prometteurs…

Pour plus d’informations, des compléments et des détails :

La Recherche N°393 Janvier 2006, supplément spécial CEA : Le calcul haute
performance

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.