Archives mensuelles : novembre 2009

Les premières collisions du LHC

Les premières collisions du LHC sont au rendez-vous !


Les premières collisions dans les 4 détecteurs du LHC le 23 novembre 2009
(CERN)

C’est un succès pour le LHC : aujourd’hui, 23 novembre 2009 à 14h22, les premières collisions proton-proton ont eu lieu à l’Organisation Européenne pour la Recherche Nucléaire (CERN) dans le plus puissant accélérateur de particules du monde : le LHC. Ces collisions sont le fruit de plus de 15 ans de travail de plusieurs milliers de techniciens, ingénieurs et physiciens répartis aux quatre coins du monde.

Les péripéties du LHC

Je vous rappelle que les premiers faisceaux de protons ont circulé dans le LHC à partir du 10 Septembre 2008 mais que 9 jours plus tard, un incident sur une interconnexion électrique s’est produit. L’accélérateur a été fortement endommagé sur environ 3 km et 1 an de réparation a été nécessaire aux équipes du CERN. De plus, le système de protection des aimants a été amélioré de manière à ce que cet évènement ne se reproduise pas à l’avenir.

 Redémarrage progressif du LHC

Durant les mois d’octobre et novembre, tous les indicateurs du LHC sont progressivement passés du rouge au vert, signifiant que toute la machine était prête à recevoir des faisceaux de particules pour les faire entrer en collisions. Les différents réglages ont été ajustés ces dernières semaines de manière à
commencer la campagne de collisions pour 2010 en toute sérénité sans prendre de risque.

Ecran général de contrôle de la cryogénie du LHC.   Tout est vert : le LHC est à 1,9 K (-271 °C)

Récapitulatif du redémarrage 2009 :

  • Le 8 octobre, tout le LHC était à nouveau froid : les 9000 aimants supraconducteurs répartis sur l’anneau de 27 km ont atteint la température cryogénique de 1,9 K (-271°C), nécessaire pour le fonctionnement de l’accélérateur.
  • Les particules ont fait leur réapparition à l’entrée du LHC le 23 octobre.
  • Le 19 novembre, les 1572 circuits supraconducteurs étaient tous vérifiés et testés pour permettre la circulation des faisceaux de particules dans toute la machine jusqu’à 3,5 TeV.
  • Le 20 novembre, des faisceaux ont fait plusieurs tours complets du LHC dans le sens horaire et antihoraire à l’énergie d’injection (soit 0,45 TeV).
  • Le 23 novembre, les 2 faisceaux circulaient en même temps en sens inverse pendant plusieurs heures entrainant les premières collisions dans les détecteurs ATLAS et CMS puis dans les détecteurs ALICE et LHCb.


Image du faisceau traversant un BPM (moniteur de position du faisceau) dans le sens horaire le 21 novembre

 Les détecteurs vont prendre du service

Les quatre expériences du LHC (dénommées ATLAS, CMS, ALICE et LHCb) ont donc pu « voir » leurs premières vraies collisions. Jusqu’à présent, tous ces détecteurs se contentaient de détecter les particules cosmiques qui les traversaient pour se calibrer et se paramétrer. La phase à avenir est principalement une phase de réglage final pour la machine mais également pour tous les détecteurs avant de passer aux choses sérieuses. On a beaucoup entendu
dans les couloirs du CERN aujourd’hui : « les physiciens vont enfin avoir des évènements pour faire de la physique ! ».


Détecteur CMS le 7 Novembre 2009 ayant détecté les énergies déposées par les  particules résultantes d’une éjection du faisceau de particules juste avant le détecteur lors de la phase de redémarrage de la machine (splash events). Photons, électrons ou positrons en rouge, hadrons (protons, neutrons, pions) en bleu et muons en jaune et magenta.

 Aujourd’hui est un évènement capital dans l’histoire du CERN et du LHC. Ces premières collisions ont été réalisées à une énergie de 0,9 TeV (1 TeV = 1 tera-électronvolts = 1000 milliards d’électronvolts), ce qui est une basse énergie pour le LHC mais une énergie colossale tout de même (le plus puissance
accélérateur du monde avant le LHC était le Tevatron, capable de réaliser des collisions à 1 TeV).

 Les détecteurs vont donc véritablement entrer en fonctionnement pour venir détecter, enregistrer et analyser en 3 dimensions les 600 millions de collisions générés à chaque seconde dans la machine. L’ensemble des 4 détecteurs devraient produire environ 15 millions de Giga Octets de données par an (soit une pile de CD de 20 km de haut). Toutes ces données permettront ensuite aux physiciens de confirmer ou d’infirmer leurs théories en fonction des statistiques observées lors de ces collisions.

 Le programme 2010 du LHC

Une fois les différents instruments de mesure bien calibrés, l’objectif est de monter l’énergie des faisceaux de particules à 1 TeV assez rapidement puis d’arriver progressivement aux 3,5 TeV pour la fin 2010, c’est-à-dire provoquer des collisions à 7 TeV (2 faisceaux à 3,5 Tev en collision = 7 TeV au centre de masse). Cette énergie correspond à la moitié de la  puissance théorique maximale que le LHC peut atteindre (collisions prévues à 14 TeV) mais les physiciens espèrent pouvoir récolter suffisamment de données lors de cette première phase de collisions à moindre puissance pour pouvoir faire de la « physique » et venir confirmer certaines théories comme le fameux mécanisme de Higgs permettant d’attribuer une masse aux différentes particules dans le cadre du modèle standard de la physique des particules.

 Le directeur général du CERN disait à ce propos au mois d’aout 2009 que « Nous avons choisi le chiffre de 3,5 TeV parce que cela permet aux opérateurs du LHC d’acquérir l’expérience du fonctionnement de la machine en toute sécurité tout en ouvrant une nouvelle région de découvertes pour les
expériences ».

 Aujourd’hui, le LHC vient de commencer une nouvelle aventure pour la science.

 

Simulation de la désintégration d’un boson de Higgs en 4 muons (traces jaunes) par l’expérience ATLAS

Les Equations Différentielles Partielles

Le titre peut paraitre barbare et ennuyeux au premier abord, mais il ne faut pas se décourager par un titre ayant l’air trop savant, car nul besoin d’avoir fait Math Sup pour comprendre à quoi servent les Equations Différentielles Partielles, EDP en abréviation.



Simulation du bruit dans un moteur d’avion à réaction (Comsol)

Les dérivées partielles

De nombreuses disciplines de la physique ont pour mission de décrire des phénomènes de transport et de propagation. Pour décrire de tels phénomènes, il paraît naturel de vouloir décrire l’évolution de certaines grandeurs physiques dans le temps et dans l’espace.

– Les phénomènes de transport  illustre le transport de grandeurs physiques via le déplacement de matière. Exemple : on souhaite décrire l’évolution temporelle et la répartition spatiale de la vitesse du sang à travers le réseau vasculaire lors des ramifications des artères et des vaisseaux sanguins.



Vitesse du sang lors de ramifications (simulation personnelle)

– Les phénomènes de propagation sont quant à eux responsables de la propagation de grandeurs physiques sans qu’il y ai nécessairement de transport de matière. Exemple : on souhaite décrire l’évolution de la température dans une barre de métal chauffée à une extrémité (propagation de la chaleur dans le métal). Les phénomènes ondulatoires comme le son, la lumière ou les vagues des océans sont également des phénomènes de propagation. Ces propagations peuvent avoir besoin d’un milieu pour se propager (le son dans l’air, les vagues dans l’eau) ou pas (la lumière dans le vide).



Vous aurez compris que les EDP permettent de décrire ces phénomènes. Le principe est en somme assez simple. Une EDP est une équation dans laquelle il y a des dérivées partielles qui représentent l’évolution de grandeurs physiques en fonction d’autres. Par exemple, la dérivée partielle de la température (T) par rapport au temps (t) se note de la manière suivante (prononcez « D rond T sur D rond t ») :


Si cette dérivée partielle est égale à 2, cela signifie qu’à chaque seconde (dt = 1s), la température augmente de 2 °C (dT=2°C).  En 10 secondes, la température aura donc augmentée de 20°C. On peut faire de même dans une direction de l’espace : prenons par exemple la variation de la température
dans la barre de métal selon la direction horizontale appelée x (prononcez « D rond T sur D rond x ») :

Si cette dérivée partielle est égale à -25, cela signifie qu’à chaque mètre (dx=1m), la température diminue de 25 °C (dT = -25°C). Si la barre mesure 5 mètres de long, il y aura une différence de 125°C entre le bout chauffé et l’extrémité de la barre.

Les champs d’application

Voici une petite liste (non exhaustive) des disciplines qui utilisent les EDP comme support mathématique avec un exemple d’équation différentielle partielle dans chaque domaine:

  •  La mécanique des fluides : décrit l’écoulement des fluides (équations de Navier-Stockes)
  • La mécanique des structures : étudie la déformation des matériaux sous contraintes mécaniques (équations de la résistance des matériaux).
  • La thermodynamique : décrit les transferts de chaleurs (équation de Fourier)
  • L’électromagnétisme : décrit la propagation de la lumière (équation de Maxwell)
  • La gravitation : décrit les champs gravitationnels (équations de la relativité générale d’Einstein)
  • La mécanique quantique : décrit l’évolution de particules non relativistes (équation de Schrödinger)
  • La biologie: décrit l’évolution de populations d’individus (équation de diffusion et de réaction)

 

Les équations de Navier-Stockes

Unes des EDP les plus connues sont les équations de Navier-Stockes qui datent du 19ème siècle. Elles permettent de décrire l’écoulement des fluides, c’est-à-dire des gaz et des liquides. Elles sont utilisées pour décrire de très nombreux phénomènes très divers comme les mouvements de l’air dans l’atmosphère, les courants océaniques, les profils aérodynamiques des avions, l’écoulement dans les tuyères de lanceurs spatiaux, la circulation sanguine, l’écoulement d’eau dans une conduite ou encore la circulation d’hélium à température cryogénique pour refroidir un accélérateur de particules (c’est cette dernière application qui a motivée une partie de ma thèse).

 

Ecoulements supersoniques dans une tuyère de lanceur spatial à partir des équations de Navier-Stockes (Onera)

 Les équations de Navier-Stockes sont composées de 3 équations (dites bilan massique, bilan des moments et bilan énergétique). On peut les représenter de la manière suivante selon les 3 dimensions de l’espace (x1, x2 et x3) et du temps (t) :

Si quelqu’un trouve une solution à ces équations, merci de me la faire parvenir par email car c’est un problème à 1 million de dollars ! En effet, l’institut Clay basé à Cambridge a formulé 7 problèmes pour le nouveau millénaire et il offre 1 million de dollars à qui trouve un de ces 7 problèmes dont l’équation de Navier-Stokes fait partie. A ce jour, un problème a déjà été résolu : la conjecture de Poincaré résolue en 2003 par le mathématicien russe Grigori Perelman. Pour
voir l’énoncé précis à résoudre pour Navier-Stokes : http://www.claymath.org/millennium/Navier-Stokes_Equations/navierstokes.pdf

 Simuler des Equations Différentielles Partielles

Les équations différentielles partielles sont généralement très complexes à résoudre ou alors elles possèdent des solutions pour des cas bien particuliers, généralement simples et non exploitables. De plus, ces équations sont le plus souvent non-linéaires car la somme des causes n’induit pas une simple
addition des effets et l’analyse des différents phénomènes physiques est rendue complexe.

 Dans la majorité des grandes installations industrielles, de nombreux problèmes d’ingénierie nécessitent la résolution de telles équations et l’expérimentation est généralement limitée. La simulation numérique constitue alors le seul moyen d’appréhender ces systèmes pour les étudier, les concevoir et les optimiser.

 La modélisation

La première étape de la simulation est la démarche de modélisation qui consiste à mettre sous forme d’équations mathématiques les phénomènes qui nous intéressent. Si la démarche de modélisation à partir des équations de la physique est choisie, il en résulte généralement des EDP non-linéaires.
Contre toutes attentes, il ne suffit pas d’injecter ces équations dans un ordinateur pour obtenir des résultats. Un modèle se bâtit au fur et à mesure pour prendre en compte de plus en plus de phénomènes et ce n’est jamais un modèle unique qui est développé mais une multitude de modèles ayant différents degrés de complexité.

 De plus, les équations de la physique possèdent toujours un cadre de validité et la question de savoir si une équation physique est applicable à un problème précis doit toujours être posée et évaluée méticuleusement. Par exemple, la théorie de la gravitation de Newton peut être utilisée pour étudier la
chute d’une pomme sur Terre mais cette théorie devient inefficace pour étudier le mouvement de certains objets célestes où la théorie de la relativité générale d’Einstein doit être considérée. Il est donc primordial avant tout travail d’identifier clairement les paramètres et les phénomènes pertinents pour l’application considérée et de faire un choix d’équations approprié.

 De plus, la démarche de modélisation doit faire face à deux problèmes d’interaction :

  • Le couplage entre plusieurs phénomènes physiques (thermodynamique et mécanique des fluides par exemple)
  • Le couplage entre plusieurs échelles (phénomènes microscopiques et macroscopiques)

 En effet, dans la réalité, les phénomènes de différentes disciplines peuvent interagir ensemble : par exemple, pour étudier une cuve d’électrolyse d’aluminium (procédé industriel assez classique), la mécanique des fluides et l’électromagnétisme interagissent donnant ainsi naissance à une autre
discipline qui porte le doux nom de magnéto-hydro-dynamique. Dans ce cas, les EDP interagissent entre elles, ce qui entraine encore de la complexité!! On parle désormais de modélisation multiphysique permettant de coupler les différents phénomènes entre eux et c’est un domaine de recherche actif qui sert les ingénieurs au quotidien.

 

Le calcul scientifique

La deuxième étape essentielle de la simulation est la méthode de calcul scientifique pour résoudre numériquement un ensemble d’EDP. La puissance de calcul des ordinateurs n’a cessé d’augmenter durant les dernières décennies et des outils avancés de modélisation et de simulation numérique ont énormément progressé. Lorsque des systèmes complexes n’ayant pas de solutions analytiques devaient être étudiés sans l’informatique, il était nécessaire de construire des prototypes, des maquettes et de procéder ensuite à des mises à l’échelle. Il fallait procéder empiriquement pour comprendre, améliorer et optimiser ces systèmes. De nos jours, les outils informatiques modernes de modélisation nous permettent de simuler le comportement dynamique de systèmes complexes.

 La méthode de calcul la plus connue pour simuler de telles équations est la méthode des éléments finis qui
consiste à découper les objets étudiés en de petits éléments (des triangles par exemple en 2D ou des cubes en 3D) et de résoudre les EDP dans chaque petit élément à intervalles de temps régulier. Dans ce cas, on parle de discrétisation des EDP, c’est-à-dire qu’on les « casse » en des milliers de petites équations simples que les ordinateurs savent résoudre. Ce sont les résultats de ces simulations que vous pouvez souvent apercevoir dans des magazines ou des publicités. Maintenant vous pourrez vous dire que tous ces petits carrés colorés
sont les résultats de milliers de petites équations obtenues à partir d’équations aux dérivées partielles !



Discrétisation en éléments finis d’un moteur asynchrone en vu de la simulation de son champ électromagnétique (simulation personnelle)

Pour avoir un aperçu de toutes les applications possibles, je vous conseille de regarder le site de Comsol  qui édite un logiciel de simulation basé sur les éléments finis : http://www.comsol.fr/showroom/

Une carte des blogs du C@fé des Sciences

Le C@fé des sciences est une communauté de blogs scientifiques en français.
Le blog La Science pour Tous est membre du c@fé depuis 2 ans environ. En 3 ans d’existence, le c@fé a intégré 22 blogs à partir d’une sélection rigoureuse où chaque nouvelle demande a été examinée par les membres du c@fé et approuvée ou non par vote.

 Le C@fé agrège les billets de tous les membres sur sa page principale et donne une liste alphabétique des différents blogs mais il n’y a pas de vue globale des blogs par catégorie, d’où l’idée de faire une carte interactive des blogs du c@fé.

Pour voir la carte en plus grand format, cliquez ici.

Les tendances

Il est toujours délicat d’affecter une catégorie à un blog car la majorité des blogs scientifiques abordent de nombreux sujets parfois divers. Cependant, les auteurs ont toujours des préférences qui se retrouvent dans leurs billets et on peut alors attribuer aux différents blogs une tendance générale. Les différentes tendances sélectionnées sont les suivantes :

  • Sciences et Vie de la Terre : dans cette section, les blogs peuvent parler de biologie, de génétique, d’évolution mais également de zoologie ou de climatologie et d’environnement.
  • Math/Physique : cette étiquette regroupe les blogs qui parlent de mathématiques et de physique ainsi que de leurs applications technologiques et de leur histoire.
  • Actualités : certains blogs sont spécialisés dans les faits scientifiques d’actualité. Ils sont souvent tenus par des journalistes (scientifiques ou non).
  • Sciences Humaines : les Sciences Humaines et Sociales ont également leur place au c@fé des sciences mais sont encore peut représentées.
  • Sciences générales : les blogs qui parlent de tous les sujets scientifiques sans réelle dominance sont classés ici.

On peut également voir sur la carte que certains blogs sont proches de 2 continents car ils sont un peu entre 2 thématiques comme le blog de Tom Roud, Dr Goulu ou le Webinet des curiosités.

J’attends vos commentaires et suggestions pour améliorer cette carte dans l’avenir !