Archives pour la catégorie Phys. Particules/Quantique

De l’antimatière pour propulser une fusée dans l’espace?

Au mois de novembre 2010, une équipe du CERN avait réussi à mettre de l’antimatière en boite  pendant quelques fractions de secondes et au mois de mars 2011 c’est pendant 20 minutes que les physiciens ont capturé de l’antihydrogène dans un piège…

antimatière-1L’antimatière a toujours interpellé les auteurs de science-fiction depuis sa découverte dans les années 30 étant donné que l’énergie produite par la rencontre de matière et d’antimatière est colossale. Voilà une nouvelle qui relance l’idée de savoir si l’antimatière pourrait un jour être utilisée pour la propulsion spatiale comme dans Star Trek.

antimatière-2Mesurer l’énergie

L’énergie se mesure en Joule mais cette unité n’est pas très commode et peu représentative. Pour avoir une unité de mesure plus parlante et pour comparer les énergies facilement, on parlera plutôt en kilogramme équivalent pétrole ou « kep » qui correspond à l’énergie calorifique que l’on peut extraire d’un kilogramme de pétrole. Pour information, 1 kg de pétrole permet de produire 42 millions de Joules sous forme de chaleur lorsqu’on le brûle (combustion). Pour se rendre compte de ce que cela représente, un européen moyen consomme en moyenne 10 kep par jour.

 uss enterprise

L’USS Enterprise de Star Trek fonctionne à l’antimatière.

A titre de comparaison, la fission nucléaire exploitée dans nos centrales nucléaires permet de récupérer environ 10 000 kep par kilogramme d’uranium, soit une concentration énergétique bien supérieure qu’avec la combustion du pétrole. De même, la fusion thermonucléaire qui se produit dans les étoiles et qui pourrait être à long terme une nouvelle source d’énergie pour l’homme sur Terre (voir (voir ITER) permet de récupérer environ 15 millions de kep dans un kilogramme de mélange Deutérium-Tritium.

Et l’antimatière alors ? Selon la célèbre formule E=mc² d’Einstein, 1 kg de matière contient potentiellement 90 millions de milliards de Joules, soit 2 milliards de kep, ce qui correspond à une densité d’énergie 2 milliards de fois supérieure au pétrole et 200 000 fois supérieure à l’uranium avec la fission nucléaire de nos centrales.

Petit résumé des équivalents énergétiques:

  • 1 kg de bois (par combustion) = 0,3 kep
  • 1 kg de charbon (par combustion) = 0,7 kep
  • 1 kg de fioul (par combustion) = 0,95 kep
  • 1 kg d’essence (par combustion) = 1,05 kep
  •  1 kg d’uranium naturel (par fission nucléaire) = 10 000 kep
  • 1 kg de Deutérium-Tritium (par fusion thermonucléaire) = 15 millions de kep
  •  1 kg d’antimatière (par annihilation matière-antimatière) = 2 milliards de kep

Exploiter l’antimatière

Pour comprendre ce qu’est l’antimatière, je vous invite à lire un de mes billets précédents sur l’antimatière mise en boite au CERN.

Sur le papier, la solution de l’antimatière pour notre avenir énergétique parait bien évidemment la meilleure. Mais deux grands problèmes se posent (et pas des moindres) :

  • Comment créer des quantités suffisantes d’antimatière sans dépenser trop d’énergie
  • Comment stoker l’antimatière

Aujourd’hui, l’antimatière est créée dans des accélérateurs de particules en quantité infime et il faut dépenser beaucoup (mais alors beaucoup) plus d’énergie que ce que la quantité d’antimatière pourrait produire. En bref, ce n’est absolument pas rentable. De plus, pour la stocker, il faut fabriquer un piège bien particulier pour maintenir l’antimatière en lévitation dans le vide car le moindre contact avec de la matière ordinaire l’annihile instantanément.

Pour vous rendre compte des ordres de grandeurs, dans un kilogramme d’hydrogène, il y a environ 602 millions de milliards de milliards d’atomes. Il faudrait donc créer autant d’antihydrogènes pour pouvoir faire 1 kilogramme d’antimatière. Or, quand une expérience du CERN annonce avoir réussi à confiner de l’antimatière pendant 16 minutes, ce n’est pas 1 kilogramme mais seulement 309 antiatomes ! L’énergie pouvant être extraite de ces 309 antiatomes est de l’ordre d’un millième de milliardième de milliardième de kep (1.10-15 kep), soit rien du tout. Je précise que pour accomplir cet exploit, on a dû consommer une énergie colossale en comparaison à ces quelques antiatomes…

CERN AlphaL’expérience alpha du CERN qui a capturé 309 antihydrogènes pendant 1000 secondes. © CERN.

Le CERN a produit a peu près un milliardième de gramme d’antimatière durant ces 10 dernières années pour un coût estimé de plusieurs centaines de millions d’euros. On voit bien que cette solution n’est aujourd’hui absolument pas envisageable comme source d’énergie.

Une fusée qui carbure à l’antimatière

Pour propulser une fusée, la problématique est différente car on ne cherche pas à faire de l’énergie la moins chère possible sans polluer mais à embarquer un minimum de carburant pour un maximum de puissance. L’antimatière se relève alors être une excellente candidate. Pour mieux vous rendre compte, une mission vers la planète Mars doit embarquer environ 250 tonnes de carburant conventionnel (hydrogène et oxygène liquides) pour un voyage de presqu’une année alors que 10 milligrammes d’antimatière seraient suffisants pour aller sur mars en 1 mois seulement selon la NASA [source]. Toujours selon la NASA, un coût de 250 millions de dollars serait suffisant pour produire ces 10 milligrammes d’antimatière (sous forme de positrons) avec les technologies actuelles. Dans ce cas, cette solution pourrait être envisagée mais tout de même coûteuse.

NASA schema

Schéma de principe du moteur à antimatière pensé par la NASA pour aller sur Mars. © NASA.

En fait, les « moteurs à antimatière » actuellement à l’étude n’utilisent pas forcément directement l’énergie d’annihilation matière/antimatière pour la propulsion mais exploitent les rayonnements énergétiques (appelés rayons gamma) qui sont produits lors de la rencontre matière/antimatière. Ce rayonnement permet alors de chauffer un fluide comme l’hydrogène. Cependant, il faut tout de même fabriquer cette antimatière avant sur Terre et l’embarquer dans ce moteur et cela est encore loin d’être possible avec les technologies actuelles mais sûrement pas impossible à long terme. Affaire à suivre.

Pour aller plus loin:

Endeavour vient d’emmener AMS-02 dans l’espace

Aujourd’hui à 14h56 heure française, le détecteur AMS-02 vient de quitter la Floride à bord du dernier décollage de la navette spatiale américaine Endeavour.

 endeavour

Décollage de la navette Endeavour cette après-midi avec le détecteur AMS à son bord. © NASA.

AMS-02 est un détecteur de particules de 8,5 tonnes élaboré par une collaboration internationale regroupant 56 instituts originaires de 16 pays ainsi que La NASA, plusieurs agences spatiales et le CERN (Organisation Européenne pour la Recherche Nucléaire). La construction du détecteur aura durée 12 ans (depuis 1999) et coûté 1,5 Milliards en dollars. AMS sera arrimé à la station spatiale internationale ISS à 300 km d’altitude et devrait fonctionner pendant une dizaine d’années avant de revenir sur Terre vers 2020 lorsque la station internationale sera démantelée.

 AMS cern

Le détecteur AMS lors de son assemblage au CERN en Juillet 2010. © CERN.

 A quoi ça sert ?

La mission d’AMS a pour objectif principal de découvrir si l’Univers renferme de l’antimatière. En effet, la théorie du Big-bang indique que l’Univers doit contenir autant de matière que d’antimatière alors que les astronomes n’observent que de la matière, d’où le mystère : où est passé l’antimatière ?? (Voir un de mes billets précédent sur l’antimatière). Pou cela, AMS embarque une série de détecteurs capables d’identifier avec certitude de l’antimatière, plus précisément des anti-héliums (des antiatomes d’hélium contenant 2 antiprotons, 2 anti-neutrons et 2 positrons) qui pourraient être issus d’une « anti-étoile », voir d’une « anti-galaxie ». AMS-01 qui s’était envolé à bord de Discovery en 1998
avait déjà cherché ces atomes d’anti-héliums mais AMS-02 doit conforter ce résultat avec une sensibilité accrue qui permettrait définitivement aux astrophysiciens de faire une croix sur l’existence d’antimatière dans l’Univers.

Un autre aspect de la mission AMS est la découverte éventuelle de matière noire. Un autre problème des astrophysiciens est le manque de matière dans l’Univers (décidément, que de problèmes pour ces astrophysiciens !). Une des théories candidates pour expliquer ce manque serait une petite particule appelée neutralino que le détecteur AMS pourrait également détecter (en fait, le détecteur ne détecterai par directement cette particule mais le produit de collision
entre ces particules).

Le dernier volet d’AMS est d’apporter une meilleure connaissance sur les rayons cosmiques. De nombreux phénomènes, parfois très énergétiques et violents, ont lieues dans l’espace et génère des particules très énergétiques qu’on appelle rayons cosmiques et qui voyagent à travers l’Univers. Ces rayons cosmiques bombardent ainsi la Terre de manière constante. Cependant, lorsque ces rayons cosmiques arrivent dans l’atmosphère terrestre, ils se désintègrent en de multiples particules moins énergétiques et nous ne recevons sur Terre que les produits de désintégration de ces particules. Heureusement que notre atmosphère nous protège car ces rayons cosmiques peuvent être dangereux
pour l’homme et représente un danger réel pour les astronautes, plus particulièrement s’ils sont exposé sur de longues périodes comme lors d’un éventuel voyage habité sur Mars. AMS devrait donc permettre de mieux comprendre ces rayons cosmiques sur de longues durées.

Gerbe

Chaine de désintégration d’un proton énergétique dans l’atmosphère (rayon cosmique)

Comment ça marche ?

AMS signifie « Alpha Magnetic Spectrometer », car ce détecteur de particules est en fait un spectromètre alpha équipé d’un aimant générant un important champ magnétique. Un spectromètre, c’est en fait un instrument capable de séparer le spectre de différents rayonnements et on parle de spectromètre alpha car ce détecteur s’intéresse à des particules alpha (hélium ou anti-hélium) issues de certaines réactions nucléaires.

Le champ magnétique est généré par un aimant permanent de 0,15 Tesla (3000 fois le champ magnétique terrestre) permettant de dévier les particules chargées de manière à séparer matière et antimatière ainsi que pour calculer le moment des particules (leur masse multipliée par leur vitesse). La solution d’utiliser un aimant supraconducteur refroidi avec de l’hélium superfluide à 1,8 K (-271 °C) a été étudiée mais finalement abandonnée à cause de tests non concluants.

 AMS sc

L’aimant supraconducteur de AMS-02 au CERN qui ne sera finalement pas utilisé. © CERN.

AMS est constitué d’une dizaine de sous-détecteurs ayant chacun un rôle précis. Il y en a un pour détecter les électrons et les positrons (TRD), un avertisseur de rayons cosmiques (ToF), un détecteur permettant de tracer les trajectoires des particules chargées (Tracker), un détecteur pour mesurer la vitesse des particules (RICH), un autre pour mesurer l’énergie des électrons, positrons et rayons gammas (ECAL). A cela s’ajoute un « anti coincidence counter » (ACC) permettant de sélectionner seulement les particules intéressantes ainsi que des systèmes d’alignement et de positionnement (TAS, Star Tracker et GPS).

ams rivelatori

AMS : un ensemble d’une dizaine de sous-détecteurs. © AMS.

 L’ensemble des données des différents sous-détecteurs permet ensuite d’identifier avec certitudes les différentes particules ayant traversées les différentes couches. Le principe est un peu le même qu’un détecteur de particules « classique » tels ceux que l’on peut voir dans les accélérateurs de particules comme au CERN mais celui là est conçu pour pouvoir fonctionner dans l’espace et pour résister à la violence d’un décollage de fusée, ce qui impose des contraintes très fortes sur ce petit bijou
technologique.

IL n’y a plus qu’à attendre  qu’AMS soit fixé à la Station Spatiale Internationale et commence son travail de mesure qui sera minute par minute suivi par l’ensemble de la collaboration depuis une salle de contrôle () pein construite) dédiée à AMS-02 au CERN (à cent de mètres de mon bureau d’ailleurs). J’essaierai d’en reparler dans 10 ans sur ce blog.

L’antimatière mise en boite au CERN

La semaine dernière, l’expérience ALPHA du CERN annonçait avoir pour la première fois « piégé » de l’antimatière, mais au fait, c’est quoi l’antimatière ?

alpha antimatter

Atomes d’anti-hydrogènes non capturés s’annihilant sur la surface interne du piège ALPHA au CERN le 10 Novembre 2010. © CERN.

Un peu d’histoire

Jusqu’en 1930, le monde des physiciens était exclusivement fait de matière. Cette matière était composée de petites « briques élémentaires » appelées particules et portant des noms étranges comme électrons, photons ou protons (voir mon billet sur le bestiaire des particules pour plus de détails).

C’est alors que le physicien Paul Dirac, pour résoudre une équation de physique, postulat qu’il devait exister une autre particule, identique à l’électron, mais ayant une charge électrique opposée. En effet, l’électron a une charge électrique négative, alors que l’équation de Dirac possède une solution supplémentaire correspondant à une « particule jumelle » positive. Cette nouvelle particule hypothétique fut baptisée positron (plus tard renommée antiélectron) et fut découverte rapidement en 1932 en analysant les rayons cosmiques venant de l’univers.

Dirac

Paul Dirac en 1933, « inventeur » du positron, la première antiparticule

Cette théorie fut ensuite généralisée à toutes les particules que nous connaissons et l’ensemble de ces nouvelles particules furent nommée antimatière. Cependant, il faudra attendre 1955 pour découvrir l’antiproton et 1995 pour créer le premier antiatome au
CERN.

Je tiens à préciser à ce sujet que la paternité du positron revient toujours à Paul Dirac alors que Jean Becquerel, le fil d’Henri Becquerel, avait déjà postulé l’existence d’électrons positifs en 1908 dans un article (Jean Becquerel. «Sur les électrons positifs», Radium (Paris) 5, 1908, pp. 193-200).

Matière Vs Antimatière

Ca ressemble à de la matière, ça a le gout de la matière mais ce n’est pas de la matière : c’est de l’antimatière !

Comme on l’a vu, la différence qui caractérise l’antimatière est la charge électrique opposée, ce qui veut dire que si on fait passer une particule et son antiparticule dans un champ magnétique, les 2 particules sont déviées dans des directions opposées. Outre cette propriété, les antiparticules ont la même masse et le même comportement physique que leur homologue de matière.
positron-electron
Electrons et positrons sont déviés dans des directions opposées dans un champ magnétique. © Noémie.

Comme les charges sont opposées, matière et antimatière s’attirent mutuellement (les particules positives attirent les particules négatives et vice-versa). Lorsque matière et antimatière se rencontrent, elles se désintègrent pour se transformer en énergie pure selon la célèbre formule d’Einstein E=mc² : la matière est convertie intégralement en énergie sous forme de photons (rayonnement gamma).

Fabriquer de l’antimatière

Pour fabriquer des antiparticules en labo, il « suffit » d’avoir un accélérateur de particules assez puissant. Le fait de projeter des particules accélérées à grande énergie sur des cibles métalliques permet de transformer l’énergie cinétique des particules en couple particule/antiparticule : encore E=mc² mais ici l’énergie se transforme en masse (ce processus est ainsi réversible).

Le problème des physiciens n’est pas de « fabriquer » de l’antimatière mais de la « conserver » pour la manipuler et l’observer. A cause des grandes énergies mise en jeu, les antiparticules créées vont pratiquement à la vitesse de la lumière et si elles rencontrent une particule de matière, elles s’annihilent !

Pour contrer ce problème, il faut littéralement freiner l’antimatière pour pouvoir l’étudier, ce n’est donc plus accélérateur qu’il faut mais un décélérateur ! Le décélérateur du CERN s’appelle AD (antiproton decelerator) et mesure 188 m de circonférence. AD permet de diminuer l’énergie d’antiprotons de 3000 MeV à 5 MeV (leur énergie est divisée par 600), ce qui veut dire que les antiprotons sont ralentit au tiers de la vitesse de la lumière.

Fabriquer des antiatomes

Fabriquer des antiparticules est une chose mais les physiciens veulent aller plus loin pour comprendre l’antimatière et pour cela, il faut fabriquer des antiatomes, c’est-à-dire un antinoyau formé d’antiprotons et d’antineutrons avec des positrons qui tournent autour.

En 1995, le CERN a ainsi créé les premiers atomes d’antihydrogènes (le plus simple des antiatomes, composé d’un antiproton et d’un positron qui tourne autour). Neuf antiatomes ont été créés pendant 40 milliardièmes de seconde avant de se désintégrer. L’exploit a été réitéré par la suite aux USA plusieurs centaines de fois mais ces antiatomes étaient toujours trop volatiles, se désintégrant quasi instantanément et ne permettant aucune étude approfondie.

  LEAR

Le décélérateur LEAR (Low Energy Antiproton Ring) au CERN ayant fabriqué les premiers antihydrogènes en 1995. © CERN

Pour stabiliser cette antimatière et l’étudier à la loupe, l’idéal serait de la ralentir jusqu’à l’immobiliser (la piéger). Il faut comprendre que plus une particule est énergétique, plus elle est agitée et donc « chaude ». Les physiciens doivent alors refroidir l’antimatière le plus possible. Pour cela, les antiprotons sont envoyés à travers de fines feuilles de métal et à travers des pièges électromagnétiques appelés pièges de Penning. Ainsi, on arrive à refroidir les antiprotons à environs -269°C (4 kelvins). On procède de même avec des positrons et on met l’ensemble (antiprotons + positrons) dans une espèce de bouteille électromagnétique jusqu’à ce que le positron (positif) se mette à tourner autour de l’antiproton (négatif) pour former un antihydrogène. C’est ce que vient de réussir L’expérience ALPHA du CERN. Voir une animation comment attraper un antihydrogène (en anglais).

alpha trap

Piège de l’expérience ALPHA au CERN ayant capturé un antihydrogène. © CERN

Pourquoi étudier l’antimatière ?

Pour étudier l’antimatière, les physiciens étudient de près ce qu’ils appellent la symétrie CPT (Charge-Parité-Temps). Lors d’une réaction particulière sur une particule, cette même réaction doit être observée sur son antiparticule mais de manière symétrique. Dans le théorème CPT, tout est inversé : la charge (positif Vs négatif), la parité (droite Vs gauche) et le temps (le temps doit s’écouler à l’envers). Un monde composé
d’antimatière serait l’image de notre monde à travers un miroir.

Le problème, c’est que l’univers n’est pas aussi symétrique qu’il n’y parait. En effet, si matière et antimatière étaient strictement identiques (en dehors de la charge électrique), nous ne serions pas là selon la théorie du Big-bang qui stipule qu’à l’origine, matière et antimatière ont du être créées en même temps et en quantité égale (toujours le E=mc², la matière est toujours créée en quantité égale avec de l’antimatière). Un raisonnement simple aboutit donc sur la non-existence de notre Univers car matière et antimatière  auraient du s’attirer juste après le Big-bang pour s’annihiler et fin de l’histoire… La réalité semble tout autre : nous sommes bien là et notre univers semble être composé quasi exclusivement de matière, seuls quelques phénomènes physiques dans le cosmos génèrent de l’antimatière mais en quantité infime et cette antimatière est rapidement annihilée en touchant de la matière ordinaire. Conclusion : les astronomes et les cosmologistes ont perdu la moitié de l’Univers !!

 proton nono

Un proton et un antiproton. © Noémie.

Ce qui peut expliquer cette observation étrange est que matière et antimatière ne sont pas si symétriques que cela : on parle alors de violation de symétrie. Les symétries entre matière et antimatière sont parfois non respectées et pourraient expliquer pourquoi toute l’antimatière a disparue aujourd’hui au profit de la matière. Les accélérateurs de particules ont déjà mis en évidence certaines de ces violations de symétries et ces recherches sont toujours très actives aujourd’hui car il est très difficile d’étudier l’antimatière qui est très volatile.

Applications de l’antimatière ?

La réaction d’annihilation entre matière et antimatière est la plus puissante que la physique connaisse mais il faut relativiser (sans mauvais jeu de mot): c’est inexploitable actuellement pour fabriquer une bombe à antimatière comme le laisse suggérer le roman de Dan Brown Anges et Démons. Si vous prenez  10 milliards de protons et 10 milliards antiprotons, l’énergie équivalente qu’ils pourraient dégager serait d’environ 1 Joule… soit assez d’énergie pour soulever une pomme de 1 mètre… Pour faire une bombe, il faudrait fabriquer beaucoup plus d’antimatière que la science est capable de produire et il faudrait dépenser une énergie supérieure à la
consommation d’énergie mondiale.

De toute manière, l’énergie mise en jeu pour « fabriquer » de l’antimatière sera toujours nettement supérieure à ce que l’annihilation matière/antimatière peut dégager donc aucune source énergétique de ce côté-là…

Cependant, l’antimatière a déjà trouvée une application dont vous avez peut être déjà entendu parler en imagerie médicale : La Tomographie par Emission de Positons (TEP). En Effet, les positrons sont utilisés en imagerie médicale pour obtenir des images d’organes en 3 dimensions en cancérologie, neurologie et cardiologie.

LHC : Objectif 2010 atteint

La semaine dernière, le CERN annonçait fièrement que le LHC avait atteint ses objectifs pour 2010 : la machine a délivré 2 inverse picobarns aux différents détecteurs, or, la plupart des gens n’ont jamais entendu le mot « picobarn » de leur vie… La raison est simple: peu de gens sont physiciens des particules !

 CMS event

Collision proton-proton dans le détecteur CMS du LHC le 9 Juillet 2010. © CERN.

 Je n’appartiens pas non plus à la catégorie des physiciens des particules, néanmoins j’entends souvent ces mots au CERN lors de communiqués officiels comme celui-ci.  J’ai donc cherché à savoir ce que se cachait derrière ces mots abscons pour nous autres, les personnes « normales ».

Le Barn

Le barn est tout simplement une unité de surface étant de l’ordre de la section géométrique du noyau d’un atome. En gros, vous prenez le noyau d’un atome (ayant un rayon d’environ 10-12 cm), vous le coupez en deux et la surface de cette coupe est environ égale à 1 barn, soit 0,00000000000000000000001cm², ou plus simplement 10-24 cm². Par exemple, le noyau d’un atome d’uranium (un des plus gros noyaux) possède une section géométrique de 1,5 barn.

Section efficace et géométrique

Le problème c’est que lorsqu’on observe des réactions nucléaires (interactions entre les noyaux des atomes), ou des collisions de particules entres elles ou contre des cibles, les atomes paraissent avoir une section plus grande ou plus faible selon les phénomènes observés. Pour rendre compte de ce problème, les physiciens ont alors introduit une section dite efficace, plus significative que la section géométrique réelle des noyaux des atomes. La section efficace d’un noyau, représentée par la lettre grecque sigma, n’est pas constante pour une particule donnée et est finalement assez peu dépendante de la taille réelle du noyau mais varie significativement selon sa vitesse et le type de réaction ou collision.

Cette section efficace rend compte de la probabilité d’interaction d’une particule pour une réaction précise (une collision, une réaction nucléaire, etc). Plus la section efficace est élevée, plus la réaction étudiée a des chances de se réaliser. Par exemple, la section efficace de l’absorption d’un neutron lent dans la matière est supérieure à 1000 barns alors que la section efficace des phénomènes étudiés dans les collisions des accélérateurs de particules comme le LHC est de l’ordre du picobarn (10-12 barn), voir du femtobarn (10-15 barn).  Un femtobarn, c’est comme si les noyaux étaient un million de milliards de fois plus petits (et dieu sait s’ils sont déjà petits).

Autant dire que les accélérateurs recherchent des évènements extrêmement rares à observer dans une collision. Prenons le cas du LHC et du fameux boson de Higgs tant recherché. Nous ne connaissons pas encore sa masse exacte, si elle existe, mais on peut toutefois calculer la section efficace de différents phénomènes pouvant lui donner naissance dans le LHC. La figure ci-dessous nous dit que la section efficace du boson de Higgs pourrait se situer entre 10 picobarns et 0,1 femtobarn selon les différents phénomènes possibles si sa masse est comprise entre 300 GeV et 1000 GeV. Autrement dit: Il faut enregistrer au moins dix milles milliards de collisions pour avoir
la chance de voir un Higgs !!!

 Higgs Crosssection

Sections efficaces possibles pour la production d’un boson de Higgs dans le LHC en fonction de la masse de ce dernier. Dan Green, Fermilab (2005)

 La luminosité

On aura donc compris la chose suivante: ce qui intéresse les accélérateurs de particules, c’est de produire le plus de collisions possibles.

Pour évaluer cette capacité, on calcule une grandeur appelée luminosité. Le principe en est simple : compter le nombre de particules qui se croisent dans un cm² à chaque seconde. Ainsi, la luminosité est calculée par la formule suivante :
Eq luminosite

avec f la fréquence de croisement des paquets de particules, n le nombre de particules par paquet et A la section géométrique du faisceau de particules. Dans le cas du LHC, au point nominal, on obtient :

Eq lum LHC

Ce grand chiffre signifie que dix millions de milliards de milliards de milliards de particules se croisent dans un centimètre carré toute les secondes dans le LHC…

Luminosité intégrée

Le paramètre intéressant à calculer par la suite est naturellement la luminosité intégrée qui correspond à la luminosité accumulée dans le temps (c’est-à-dire la luminosité multipliée par le temps de collision de la machine). Si on reprend le cas du LHC au point de fonctionnement maximum, en 90 secondes, la machine peut ainsi fournir une luminosité intégrée de 1,3*1034 * 90 = 1036 cm-2. Pour plus de facilité, on convertit ce chiffre en barn inverse (1 b-1 = 1024 cm-2), on obtient alors une luminosité intégrée de 1012 b-1 = 1 pb-1, soit un inverse picobarn pour 90 secondes de collision dans le
LHC.

ATLAS lum

Le 10 août dernier, un détecteur de particules du LHC, ATLAS, annonçait avoir franchis la barre de 1 inverse picobarn. © ATLAS.

Etat des lieux du LHC

En ce mois d’octobre, le LHC a accumulé 2 inverse picobarns depuis sa mise en route fin mars 2010 car la machine ne fonctionne pas encore à sa luminosité maximale. Cependant, cette machine fonctionne de mieux en mieux : entre mars et août, le LHC avait fournit environ 1 inverse picobarn alors que  la semaine dernière, il lui a fallu seulement 13h pour fournir un autre inverse picobarn (la luminosité maximale était de 1032, soit 100 inverse microbarns par seconde). A titre de comparaison, il a fallu 2 ans au Tevatron  pour atteindre cette luminosité (l’autre grand accélérateur de particules aux
Etats-Unis).

L’objectif du LHC pour 2010 a ainsi été accompli en ce mois d’octobre (2 inverse picobarns). Pour 2011, la machine doit atteindre un total de 1 inverse femtobarn, soit 500 fois plus. Il ne faut pas oublier que la plupart des particules recherchées par les détecteurs du LHC sont  produites par ,des collisions ayant une section efficace entre 1 picobarn et 1 femtobarn, il faudra donc attendre que cette quantité de données soit dépassée pour pouvoir annoncer des résultats sérieux. A suivre en 2011…

 LHC_lumi-copie-1.jpg

Etat du LHC en ce dimanche 24 octobre au soir : les détecteurs ont une luminosité d’environ 100 inverse microbarn par seconde chacun.

Charpak et sa chambre à fils

Georges Charpak nous a quitté cette semaine et je veux lui rendre hommage, à lui et à sa fameuse chambre à fils inventée au CERN en 1968.

 charpak cern

Georges Charpak au CERN derrière une chambre proportionnelle multifilaire (© CERN 1973)

 L’homme

Georges Charpak fut un des symboles d’intégration pour la France. Immigré polonais dans les années 30, il devint résistant pendant la seconde guerre mondiale et fut déporté dans le camp de concentration de Dachau. Il survécut et rentra en France à la libération où il fut naturalisé français en 1946 et intègra l’école des Mines. Il fit ensuite son doctorat de physique avec Frédéric Joliot-Curie, rentra au CNRS puis au CERN (Organisation Européenne pour la Recherche Nucléaire à Genève) en 1963. En 1968, il inventa sa
fameuse chambre à fils et obtint le prix Nobel de physique en 1992. C’est ce que j’appelle un succès d’intégration pour la France qui devrait rester une terre d’accueil et
d’éducation comme l’a si souvent dit Charpak.

Georges Charpak était apprécié de tous et était un homme modeste mais engagé dans la Science et dans la société où il luttait contre les armes nucléaires et supportait de nombreux projets d’éducation avec son projet la main à la pâte. Je ne vais pas vous faire une biographie complète ici mais pour ceux qui veulent mieux connaitre cet homme de science, je vous suggère cette vidéo de 20 minutes faite l’année dernière à l’occasion de son 85ème anniversaire au CERN où Charpak nous raconte rapidement sa vie : http://cdsweb.cern.ch/record/1167500.

 Avant Charpak : les chambres à bulles

Jusque dans les années 70, la physique des particules se faisait « à la main » dans le sens où les collisions de particules issues des accélérateurs étaient principalement réalisées dans des chambres à bulles.

Une chambre à bulles consiste à remplir de liquide une enceinte close. On utilisait généralement de l’hydrogène liquide qui était maintenu en dessous de -253°C pour rester liquide. On faisait en sorte de réaliser les collisions devant ces chambres où les particules laissaient de petites bulles dans leurs sillages.

bulle trajectoire

Production de jets de particules dans la première chambre a bulles a hydrogène liquide du CERN ; elle ne mesurait que 30 cm de diamètre (©CERN 1970).

On prenait alors des photos de ces bulles pour identifier la trajectoire des différentes particules. Par la suite, la courbure des trajectoires et la densité des bulles permettaient d’identifier les différentes particules. Evidemment, toutes ces mesures se faisaient à la main sur des tables de projection où les différentes photos pouvaient défiler rapidement.  La plus grande chambre à bulles du CERN, BEBC (Big European Bubble Chamber) qui
mesurait 3,7 m de diamètre et 4 m de haut a fourni durant sa vie 6,3 millions de photographies (3 000 km de film) analysées entre 1973 et 1984 par près de 600 chercheurs dans le monde.

analyse bulles

A gauche : Installation de BEBC, la plus grande chambre à bulles du CERN (© CERN 1971). A droite : femmes analysant à la main les trajectoires de particules des chambres à bulles sur des tables de projection (© CERN 1962).

 Charpak : la chambre à fils

A la fin des années 60, les premiers systèmes électroniques à base de transistors apparaissent et font miroiter des possibilités gigantesques en termes de traitement automatique des données: c’est le balbutiement de l’informatique. Or, les physiciens des hautes énergies réalisent de grandes expériences produisant de très nombreuses données encore difficiles à traiter comme avec les chambres à bulles.

En 1968, Georges Charpak qui était chercheur au CERN invente  alors  un nouveau genre de détecteur de particules qui allait tout simplement révolutionner l’avenir de la physique des particules : la chambre proportionnelle multifilaire, ou plus simplement la chambre à fils, pour laquelle Charpak sera récompensé par le prix Nobel de physique en 1992.

Le principe est en somme relativement simple et facile à concevoir. Une enceinte (chambre) est remplie d’un gaz noble (comme de l’Argon) puis des fils électriques parallèles sont tendus à l’intérieur de manière à faire une sorte de maillage dans un plan.
L’extrémité des fils est ensuite connectée à un générateur de tension électrique à une borne positive (anodes) et des plaques conductrices sont intercalées entre les plans des
fils et sont reliées à une borne négative (cathodes).

 chambre fil

Principe général d’une chambre à fils (© CERN).

 Lorsqu’une particule chargée (c’est-à-dire portant une charge électrique comme un électron ou un muon) traverse la chambre, cette particule ionise le gaz noble (elle « casse » des atomes de gaz en électrons chargés négativement et en ions chargés
positivement). Les électrons sont alors attirés par les anodes (reliés à une borne positive) et les ions par les cathodes (reliés à une borne négative). Au bout de l’anode, on place un
amplificateur pour permettre la mesure du courant électrique engendré par le déplacement des électrons dans le fil. La mesure de courant sur chaque fil peut être par la suite analysée dans un ordinateur afin de reconstruire la trajectoire de la particule comme avec une chambre à bulles mais de manière automatique.

Ce nouveau type de détecteur a permis de multiplier par un facteur 1000 la vitesse de traitement des données par rapport aux chambres à bulles où il fallait compter « à la main » les particules.

Les chambres à fil aujourd’hui

Le dernier accélérateur de particules du CERN dénommé Large Hadron Collider, ou LHC, permet de produire pas moins de 40 millions de collisions par seconde pendant plusieurs heures. Ces collisions sont réalisées au centre de 4 gigantesques détecteurs. Les détecteurs du LHC utilisent différentes techniques dont des chambres à fils pour détecter des particules chargées comme les muons.

Toutes les collisions du LHC sont  triées automatiquement par des systèmes électroniques puis analysées et reconstruites en 3 dimensions par des systèmes informatiques mobilisant plus de 100 000 processeurs répartis sur 170 centres de calcul dans 34 pays à travers le monde. A chaque seconde, le LHC fournit ainsi autant de données que la grande chambre à bulles BEBC aurait pu fournir pendant 60 ans d’exploitation.

muon-Alice

A gauche : Vérification d’une chambre à fils permettant de détecter des muons pour l’expérience ALICE du LHC  (© CERN 2004). A droite : premiers muons détectés par les chambres à fils de l’expérience ALICE lors des premières collisions dans le LHC (© CERN 2009).

  Le principe de la chambre à fils a trouvé d’autres applications en dehors de la physique des particules comme en imagerie médicale. En effet, une méthode très innovante basée sur le principe des chambres à fils permet aujourd’hui de reconstruire en 3D  la colonne vertébrale et le bassin d’un patient avec une précision inégalée (voir ce
lien pour plus de détails).

rachis-3D

Image en 3D de la colonne vertébrale d’un patient issue du système Radiologique Ultra Basse Dose Eos mis au point à partir des travaux de Charpak sur les chambres à fils (© AP-HP)

Univers de Particules : Nouvelle expo au CERN

Une nouvelle exposition permanente intitulée « Univers de Particules » vient d’ouvrir ses
portes au public dans le Globe du CERN. Je viens d’en faire la visite pour vous…

expo_interieur1.jpg

Depuis maintenant 6 ans, la Confédération Helvétique (ou la Suisse si vous préférez) a fait don du « Palais de l’équilibre », ancien pavillon de l’Expo’02 de Neuchâtel, au CERN (l’Organisation Européenne pour la Recherche Nucléaire située à Genève). Ce globe entièrement construit en bois et mesurant près de 27m de haut et 40m de diamètre a alors été renommé « Globe de la Science et de l’Innovation ». Le Globe constitue à présent un des symboles du CERN par son imposante présence le long de la route et visible la nuit à plusieurs kilomètres grâce à son éclairage nocturne.

 univ_particules.jpg

Le Globe de La Science et de l’Innovation du CERN

Le Globe accueillait jusqu’à présent des expositions temporaires au rez-de-chaussée et une salle était disponible à l’étage pour toutes sortes d’évènements scientifiques comme des conférences, des rencontres, des débats et des animations scientifiques autour de la physique des particules et des accélérateurs.

Depuis le 1er juillet, l’exposition « Univers de Particules » est désormais permanente au rez-de-chaussée, exposition bien évidemment gratuite, comme toutes les activités de vulgarisation scientifique du CERN. Cette nouvelle exposition plonge le visiteur dans une atmosphère féérique ou des sphères changeant de couleurs apparaissent dans l’obscurité du Globe. J’ai commencé par m’assoir dans des « fauteuil-œufs » et écouter des physiciens m’expliquer ce qu’est la masse et l’antimatière ou comment notre Univers évolue et fonctionne.

expo_interieur3.jpg

En continuant mon itinéraire j’ai vu des « morceaux » de détecteurs de particules avec des explications sur leur fonctionnement et comment le CERN a construit et assemblé ces véritables cathédrales High-Tech.

Un peu plus loin, on découvre une table interactive sur le LHC, le plus grand accélérateur de particules du monde qui constitue le dernier projet du CERN. Cette table permet de comprendre son fonctionnement et ses étonnantes caractéristiques qui en font la machine la plus complexe jamais construite par l’homme. On peut ouvrir et fermer différents panneaux explicatifs et les faire défiler ou se les « envoyer » à travers la table à la manière d’un écran de i-phone géant !!

expo interieur2

La Table interactive du LHC permet de découvrir le plus grand accélérateur de particules du monde

 On trouve également une chambre à étincelles qui produit des étincelles rouges à chaque fois que certains rayons cosmiques passent à travers et différentes autres sphères interactives au sujet du LHC et de ses objectifs de recherche.

En résumé, je vous conseille d’y aller faire un tour si vous passer dans le coin de Genève, à savoir que cette exposition est bien complémentaire à l’autre exposition permanente du CERN « Microscosm » située juste en face du Globe.

Références

Collisions à 7 TeV dans le LHC au CERN

Après 20 ans d’attente de la part des physiciens, le plus puissant accélérateur de particules du monde, le LHC, vient de faire ses premières collisions à 7 TeV
(Tera électronvolt), c’est un moment historique dans l’histoire de la physique des hautes énergies mais ca veut dire quoi et surtout : ca sert à quoi ?

ATLAS_7TeV.png

Mardi 20 mars 2010, 12h58 : une collision à 7 TeV dans le détecteur ATLAS ©CERN

 A quoi sert le LHC ?

Le but du LHC (Large Hadron Collider) et des expériences du CERN
(
Organisation Européenne pour la Recherche Nucléaire) est d’approfondir les connaissances de l’homme sur l’origine de l’Univers et sur son fonctionnement ainsi que de mieux appréhender les lois de la nature pour mieux répondre à plusieurs questions fondamentales. Ici, la science ressemble plus à de la philosophie qu’à de la recherche permettant d’améliorer notre cadre de vie. Ceci s’appelle de la recherche fondamentale… Certains chercheurs peuvent parfois paraitre un peu « mystiques » par leur allure, leurs idées et leur attitude mais ils font bel et bien avancer nos connaissances et notre compréhension du monde qui nous entoure !

JohnEllis
John Ellis, un des plus grands physiciens du CERN (nobélisable) 
habillé par les 4 termes du lagrangien du modèle standard de la physique des particules.

Les physiciens espèrent répondre à de nombreuses questions grâce aux futures données produites par les expériences du LHC. La première attente est la découverte de particules super-symétriques (SUSY) pouvant permettre l’explication d’une partie de la masse manquante dans l’univers ainsi que de détecter le fameux boson de
Higgs
expliquant la masse des particules. L’étude des différences entre matière et antimatière ainsi que la découverte de dimensions supplémentaires sont également au programme de recherche.

Cependant, pour effectuer ces recherches fondamentales, le CERN doit mettre en œuvre d’innombrables nouvelles technologies de pointes en relation avec l’industrie. Le meilleur exemple est l’invention du Web au CERN à la fin des années 80 pour gérer les informations venant des expériences de la physique des particules ! En plus des très nombreuses innovations en technologies de l’information pour gérer les milliards de données produites par le LHC (les systèmes d’acquisition de données, la grille de calcul planétaire, etc.), le LHC a littéralement dopé la recherche mondiale sur la supraconductivité et la cryogénie ainsi que leurs applications industrielles pendant les 15 dernières années. Le CERN fournit également des isotopes pour la médecine et contribue à la recherche en imagerie médicale et en thérapie contre les cancers à base d’hadrons (hadronthérapie), comme par exemple à travers le projet PARTNER. Le CERN a également une vocation de formation et d’éducation et accueille des milliers d’étudiants du monde entier chaque année dans tous les domaines de la science.

Il n’y a pas que l’énergie qui compte !

Les faisceaux sont désormais stables à 3,5 TeV, soit la moitié de l’énergie maximale que le LHC pourra délivrée (7 TeV), mais l’énergie n’est pas le seul paramètre à regarder. Pour l’instant les faisceaux sont encore peu intenses. Pour réaliser de « bonnes » collisions en très grand nombre, il faut également prendre en compte de très nombreux autres paramètres. Par exemple, la luminosité et l’intensité des faisceaux sont 2 autres paramètres clés (parmi beaucoup d’autres) car ils sont directement liés au nombre de collisions produites et donc à la chance de « voir » une nouvelle particule. En effet, certains évènements sont parfois si rares qu’il faut faire tourner ces gigantesques accélérateurs de particules pendant plusieurs dizaines d’années pour valider les différentes théories. Il faut donc produire le plus grand nombre de collisions possible en le moins de temps possible!

La luminosité d’un faisceau correspond au nombre de particules passant dans une section de 1 cm² à chaque seconde et l’intensité d’un faisceau correspond au nombre
total de protons qu’il contient. Aujourd’hui, seulement 2 paquets de particules par faisceau ont circulé (le LHC peut contenir jusqu’à 2808 paquets) et la luminosité maximale autour des 10
27 protons/cm².s avec 2*1010 protons par paquet (contre une luminosité de 1034 protons/cm².s et une intensité de 1011 protons par paquet pour le fonctionnement maximal du LHC).

stable_beams_3.5TeV.JPG

Ecran général de contrôle du LHC le 30 mars 2010 après les premières collisions à 7 TeV. On peut voir l’intensité des deux faisceaux  à 2*1010 protons chacun.

Pour augmenter cette luminosité, il faut augmenter le nombre de paquets et le nombre de protons par paquets ainsi que réduire au maximum le diamètre du faisceau. Les paquets peuvent faire quelques millimètres de diamètre mais sont focalisés juste avant les points de collisions et le LHC devrait pouvoir réduire ce diamètre jusqu’à 16 micromètres, soit 3 fois plus fin qu’un cheveu humain.

Le LHC marche bien !

Aujourd’hui, le LHC a démontré son efficacité et sa prise en main rapide par les équipes d’opération du CERN : seulement quelques mois ont été nécessaires pour « apprivoiser » cette machine unique au monde par sa taille et sa complexité. Désormais, l’opération à 3,5 TeV devient facilement reproductible.    

Les opérateurs vont continuer à avancer avec cette nouvelle machine et à augmenter petit à petit l’intensité des faisceaux pour fournir une meilleure luminosité aux expériences de manière à produire le plus de collisions possibles. Le LHC va à présent fonctionner de manière quasi-continue pendant 18 à 24 mois à une énergie de 3,5 TeV par faisceau (collisions à 7 TeV).

Après un arrêt d’environ un an est planifié pour effectuer de la maintenance et renforcer les systèmes de protections des aimants suite à quoi le LHC repartira pour atteindre sa puissance maximale de 7 TeV par faisceau (collisions à 14 TeV). On espère que cette machine fonctionnera pendant une vingtaine d’années pour faire avancer la science et surtout pour donner de nouvelles directions à la physique des particules et à la cosmologie qui sont actuellement dans certaines impasses et qui attendent de nouveaux résultats pour dépasser les modèles actuels.

Liens 

Les premières collisions du LHC

Les premières collisions du LHC sont au rendez-vous !


Les premières collisions dans les 4 détecteurs du LHC le 23 novembre 2009
(CERN)

C’est un succès pour le LHC : aujourd’hui, 23 novembre 2009 à 14h22, les premières collisions proton-proton ont eu lieu à l’Organisation Européenne pour la Recherche Nucléaire (CERN) dans le plus puissant accélérateur de particules du monde : le LHC. Ces collisions sont le fruit de plus de 15 ans de travail de plusieurs milliers de techniciens, ingénieurs et physiciens répartis aux quatre coins du monde.

Les péripéties du LHC

Je vous rappelle que les premiers faisceaux de protons ont circulé dans le LHC à partir du 10 Septembre 2008 mais que 9 jours plus tard, un incident sur une interconnexion électrique s’est produit. L’accélérateur a été fortement endommagé sur environ 3 km et 1 an de réparation a été nécessaire aux équipes du CERN. De plus, le système de protection des aimants a été amélioré de manière à ce que cet évènement ne se reproduise pas à l’avenir.

 Redémarrage progressif du LHC

Durant les mois d’octobre et novembre, tous les indicateurs du LHC sont progressivement passés du rouge au vert, signifiant que toute la machine était prête à recevoir des faisceaux de particules pour les faire entrer en collisions. Les différents réglages ont été ajustés ces dernières semaines de manière à
commencer la campagne de collisions pour 2010 en toute sérénité sans prendre de risque.

Ecran général de contrôle de la cryogénie du LHC.   Tout est vert : le LHC est à 1,9 K (-271 °C)

Récapitulatif du redémarrage 2009 :

  • Le 8 octobre, tout le LHC était à nouveau froid : les 9000 aimants supraconducteurs répartis sur l’anneau de 27 km ont atteint la température cryogénique de 1,9 K (-271°C), nécessaire pour le fonctionnement de l’accélérateur.
  • Les particules ont fait leur réapparition à l’entrée du LHC le 23 octobre.
  • Le 19 novembre, les 1572 circuits supraconducteurs étaient tous vérifiés et testés pour permettre la circulation des faisceaux de particules dans toute la machine jusqu’à 3,5 TeV.
  • Le 20 novembre, des faisceaux ont fait plusieurs tours complets du LHC dans le sens horaire et antihoraire à l’énergie d’injection (soit 0,45 TeV).
  • Le 23 novembre, les 2 faisceaux circulaient en même temps en sens inverse pendant plusieurs heures entrainant les premières collisions dans les détecteurs ATLAS et CMS puis dans les détecteurs ALICE et LHCb.


Image du faisceau traversant un BPM (moniteur de position du faisceau) dans le sens horaire le 21 novembre

 Les détecteurs vont prendre du service

Les quatre expériences du LHC (dénommées ATLAS, CMS, ALICE et LHCb) ont donc pu « voir » leurs premières vraies collisions. Jusqu’à présent, tous ces détecteurs se contentaient de détecter les particules cosmiques qui les traversaient pour se calibrer et se paramétrer. La phase à avenir est principalement une phase de réglage final pour la machine mais également pour tous les détecteurs avant de passer aux choses sérieuses. On a beaucoup entendu
dans les couloirs du CERN aujourd’hui : « les physiciens vont enfin avoir des évènements pour faire de la physique ! ».


Détecteur CMS le 7 Novembre 2009 ayant détecté les énergies déposées par les  particules résultantes d’une éjection du faisceau de particules juste avant le détecteur lors de la phase de redémarrage de la machine (splash events). Photons, électrons ou positrons en rouge, hadrons (protons, neutrons, pions) en bleu et muons en jaune et magenta.

 Aujourd’hui est un évènement capital dans l’histoire du CERN et du LHC. Ces premières collisions ont été réalisées à une énergie de 0,9 TeV (1 TeV = 1 tera-électronvolts = 1000 milliards d’électronvolts), ce qui est une basse énergie pour le LHC mais une énergie colossale tout de même (le plus puissance
accélérateur du monde avant le LHC était le Tevatron, capable de réaliser des collisions à 1 TeV).

 Les détecteurs vont donc véritablement entrer en fonctionnement pour venir détecter, enregistrer et analyser en 3 dimensions les 600 millions de collisions générés à chaque seconde dans la machine. L’ensemble des 4 détecteurs devraient produire environ 15 millions de Giga Octets de données par an (soit une pile de CD de 20 km de haut). Toutes ces données permettront ensuite aux physiciens de confirmer ou d’infirmer leurs théories en fonction des statistiques observées lors de ces collisions.

 Le programme 2010 du LHC

Une fois les différents instruments de mesure bien calibrés, l’objectif est de monter l’énergie des faisceaux de particules à 1 TeV assez rapidement puis d’arriver progressivement aux 3,5 TeV pour la fin 2010, c’est-à-dire provoquer des collisions à 7 TeV (2 faisceaux à 3,5 Tev en collision = 7 TeV au centre de masse). Cette énergie correspond à la moitié de la  puissance théorique maximale que le LHC peut atteindre (collisions prévues à 14 TeV) mais les physiciens espèrent pouvoir récolter suffisamment de données lors de cette première phase de collisions à moindre puissance pour pouvoir faire de la « physique » et venir confirmer certaines théories comme le fameux mécanisme de Higgs permettant d’attribuer une masse aux différentes particules dans le cadre du modèle standard de la physique des particules.

 Le directeur général du CERN disait à ce propos au mois d’aout 2009 que « Nous avons choisi le chiffre de 3,5 TeV parce que cela permet aux opérateurs du LHC d’acquérir l’expérience du fonctionnement de la machine en toute sécurité tout en ouvrant une nouvelle région de découvertes pour les
expériences ».

 Aujourd’hui, le LHC vient de commencer une nouvelle aventure pour la science.

 

Simulation de la désintégration d’un boson de Higgs en 4 muons (traces jaunes) par l’expérience ATLAS

Le Bestiaire des particules

La physique des particules est une science étrange et fascinante. Elle a pour mission de réaliser le bestiaire des particules qui nous entourent et d’expliquer les différents mécanismes entre particules qu’on appelle interactions. On trouve également la dénomination physique des hautes énergies pour parler de la physique des particules car la plupart de ces petites choses se désintègrent très vite et n’existent que pendant quelques pouillèmes de seconde lors de collisions à hautes énergies avant de se désintégrer. Ci-dessous : une particule en pleine action :



Il n’est pas chose aisée que d’établir une liste des particules de manière claire, même s’il existe des grandes familles. Pour les néophytes, voici quelques règles simples à retenir avant tout :


  1. Les particules élémentaires sont les constituants élémentaires de la matière qui nous entoure. A ce titre, elles sont insécables : on ne peut pas les diviser en de plus petites entités. Exemple : un électron.
  2. A chaque particule élémentaire est associée une antiparticule élémentaire de même masse et ayant presque les mêmes propriétés mais avec une charge électrique opposée. Exemple : un antiélectron (aussi appelé positron)
  3. Les particules élémentaires peuvent se regrouper pour former de nouvelles particules compositesExemple :  un proton est composé de quarks.
  4. Les atomes sont constitués de particules. Exemple : un atome d’hydrogène est composé d’un proton et d’un électron.
  5. Les molécules sont constituées d’atomes.  Exemple : une molécule d’eau (H2O) est composée d’un atome d’oxygène et de deux atomes d’hydrogène.
  6. Certaines particules sont stables, d’autres sont instables car elles se désintègrent très vite après leur création. Exemple :  l’électron est stable, le muon est instable.
  7. Il existe 4 forces d’interaction : la gravité, l’électromagnétisme, la force faible et la force forte. Pour plus de détails sur les interactions, voir le billet Vous avez dit force ?

Les particules élémentaires

La physique des particules possède un modèle théorique pour décrire les particules élémentaires qui porte le simple nom de modèle standard. A ce jour, toutes les particules du modèle standard ont été observées dans les accélérateurs de particules à l’exception d’une particule : le boson
de Higgs
, qui devrait être détectée dans l’avenir avec le nouvel accélérateur de particule du CERN, le LHC.

 Le modèle standard regroupe 25 particules élémentaires représentées dans le tableau ci-dessous (ainsi que leurs 25 antiparticules associées que je ne citerai pas pour raison de lisibilité). Il existe 2 grandes familles de particules élémentaires :

  • La famille des particules de matière : ce sont les fermions.
  • La famille des particules de champ qui sont des médiateurs et permettent de véhiculer une force d’interaction : les bosons de gauge.



Le modèle standard parle ensuite de 3 générations qui sont dues à la différence de masse entre les particules. La première génération rassemble les particules les plus légères qui sont stables et constituent la matière qui nous entoure alors que les générations 2 et 3 sont constituées de particules plus lourdes créées artificiellement sur Terre dans les accélérateurs de particules et qui se désintègrent rapidement.

 Il existe 12 fermions qui sont classés en 2 sous-familles :

6 leptons qui ne sont pas sensibles à l’interaction forte :

  • Première génération : l’électron et le neutrino électronique.
  • Deuxième génération : le muon et le neutrino muonique.
  • Troisième génération : le tauon et le neutrino tauonique.

6 quarks qui sont sensibles à toutes les interactions :

  • Première génération : quarks up et down.
  • Deuxième génération : quarks strange et charmed.
  • Troisième génération : quarks bottom (aussi appelé beauty) et top.

 

Il existe 13 bosons de gauge pour véhiculer 3 forces d’interaction ainsi que la masse aux différentes particules :

  • Le photon qui est le médiateur de la force électromagnétique.
  • Les bosons W+, W et Z0 qui véhiculent la force faible.
  • Les 8 gluons qui sont responsables de la force forte.
  • Le boson de Higgs qui conférerait leur masse aux particules (hypothétique).

 Il y a aussi une particule hypothétique appelée graviton qui serait le médiateur de la force gravitationnelle. Je le mentionne ici car cette particule me semble importante mais elle ne fait pas partie du modèle standard qui ne décrit pas les phénomènes gravitationnels. Il existe de nombreuses autres particules élémentaires hypothétiques dans les différentes théories des physiciens (parfois un peu tarabiscotées) mais aucune d’entre elles n’a jamais été détectée, je n’en
parlerai donc pas dans ce billet.

 Voila, vous connaissez à présent toutes les particules élémentaires du modèle standard qui permettraient d’expliquer toute la physique!!

 Les particules composites

 Des particules élémentaires peuvent se regrouper sous l’influence des différentes interactions pour former de nouvelles particules. Le meilleur exemple est le regroupement des quarks sous l’effet de la force forte, formant ainsi une nouvelle classe de particules composites appelées hadrons. Les hadrons se décomposent en 2 familles :

– Les mésons qui sont composés par un nombre pair de quarks et d’antiquarks. Il en existe à ce jour plus d’une dizaine dont, entre autres, les kaons et les pions.

– Les baryons qui sont composés de 3 quarks. On en dénombre plus d’une vingtaine mais les plus connus sont les protons (2 quarks up + 1 quark down) et les neutrons (2 quarks down + 1 quark up).

 La force forte agit comme un ressort sur les quarks : plus les quarks tentent de s’éloigner, plus la force forte augmente. Il est ainsi très difficile de séparer des quarks liés, et c’est pour cela que l’on a longtemps pensé que les protons et les neutrons étaient des particules élémentaires. Encore une fois, les différentes théories de la physique décrivent d’autres classes de hadrons, dit exotiques, dont je ne parlerai pas.

Les quasi-particules

 Par commodité, la physique peut faire appel au concept de particule pour décrire des phénomènes sans qu’une particule n’existe vraiment, on parle alors de quasi-particule. Une quasi-particule peut par exemple décrire un « manque de particule réelle », ce que l’on appelle un « trou » pour parler de l’absence d’un électron en électricité ou bien encore la propagation d’ondes dans des structures cristallines (phonon).

Illustrations : Noémie Thiéblemont et Alexandre Moraux, que je tiens tout particulièrement à remercier pour les différents dessins de particules présentés dans ce billet et qui permettront, je l’espère, à mieux se familiariser avec toutes ces petites particules ! C’est donc eux qu’il faut féliciter

L’électrodynamique quantique et les diagrammes de Feynman


Je
viens d’achever la lecture de lumière et matière, une histoire étrange de Richard P. Feynman qui porte sur l’explication d’une théorie qui porte le nom horrible d’électrodynamique quantique. Le nom de cette théorie peut faire peur et peu paraître extrêmement compliquée mais Feynman est sans doute l’un des meilleurs vulgarisateurs scientifiques que le 20ième siècle ait connu. Pour avoir une idée du personnage, vous pouvez consulter un billet précédent qui lui est consacré : Richard Feynman.

Feynman, le Pro de la vulgarisation « vraie »

Feynman sait de quoi il parle dans ce livre puisqu’il est l’un des pères de l’électrodynamique quantique et qu’il a obtenu le prix Nobel en 1965 pour ce travail. Le livre lumière et matière est en fait la retranscription de 4 conférences données par Feynman à l’Université de Californie à Los Angeles (UCLA) en 1985 qui étaient destinées au public le plus large possible. La démarche de vulgarisation adoptée par Feynman constitue un modèle pour ce blog, La Science pour Tous, qui vient de fêter ses 3 ans (j’ai écrit le premier billet le 24 Janvier 2006) et je me devais donc de saluer Richard Feynman ici ! Ce que j’apprécie particulièrement chez lui, c’est le fait qu’il vulgarise tout en expliquant clairement ce qu’il omet de mentionner et il essaye de ne faire aucune approximation. Voici un extrait de la première conférence qui résume bien sa démarche :

 « Ce que je vais vous raconter n’est autre que ce que nous enseignons aux étudiants qui sont en train de préparer une thèse de physique. Croyez-vous vraiment que je puisse vous expliquer tout cela de manière que vous le compreniez ? Non, ce n’est pas sérieux : vous n’allez certainement pas comprendre. Mais alors, direz vous, pourquoi vous donnez-vous tant de mal ? Pourquoi passer tant de temps devant nous, si c’est pour que nous ne comprenions rien à ce que vous allez dire ?

Précisément, je me suis fixé comme objectif que vous restiez ici à m’écouter. Car, pour ne rien vous cacher, les étudiants non plus n’y comprenne rien. Pourquoi ? Tout simplement parce que je n’y comprends rien moi-même. Personne d’ailleurs n’y comprend rien.

[…]

 La théorie de l’électrodynamique quantique nous fournit une description de la nature qui est absurde du point de vue du sens commun. Mais elle est en accord parfait avec l’expérience. J’espère donc que vous accepterez la nature telle qu’Elle est : absurde. »


On identifie bien dans cet extrait le « style » de Feynman lorsqu’il parle. C’est en partie ce style mêlé à son génie qui font des ouvrages de vulgarisation de Feynman des références internationales (particulièrement les fameux cours de physique de Feynman que la plupart des étudiants en physique ont lu).

Que permet l’électrodynamique quantique ?

L’électrodynamique quantique s’appelle ainsi car elle unifie la physique quantique et l’électromagnétisme (ce dernier étant l’unification de l’électricité et du magnétisme, voir un précédent billet La
nature de la lumière ou l’électromagnétisme
).

Pour faire court, l’électrodynamique quantique « permet de décrire tous les phénomènes du monde physique, à l’exclusion des effets gravitationnels […], et les phénomènes radioactifs». C’est-à-dire que tous les phénomènes entre la lumière et la matière sont explicables par cette théorie, en expliquant, entre autre, les interactions entre les photons (la lumière) et les électrons (la matière), d’où le titre du livre. Ceci peut paraître abstrait mais en réalité, tous les phénomènes que vous connaissez sont issus des interactions entre photons et électrons (sauf la gravité et la radioactivité). On peut citer tous les phénomènes optiques mais également la biologie ou la chimie. Des phénomènes qui peuvent vous paraître simples et que vous pensiez expliqués depuis longtemps ont en fait été définitivement expliqués par l’électrodynamique quantique comme la simple
réflexion et transmission de la lumière dans une lame de verre que Feynman explique merveilleusement bien dans le cadre de sa théorie.
Je ne vais pas rentrer dans les détails car Feynman le fait mieux que quiconque dans son livre mais j’aimerai simplement vous parler un peu des fameux diagrammes de Feynman qui permettent de représenter (et donc de comprendre) les  interactions entre particules.

Feynman et ses diagrammes

Feynman nous dit que pour « comprendre » l’électrodynamique quantique, vous avez besoin d’un crayon, d’une feuille de papier et de dessiner des petites flèches avec un peu de jugeote: c’est tout ! Le pari est plutôt ambitieux à première vue, surtout si le public n’a pas de formation universitaire en physique mais à mon avis, son pari a été tenu dans ce livre (il faut tout de même un peu de bagage scientifique mais le stricte minimum permet de tout comprendre).


Feynman nous explique donc sa théorie à l’aide de plusieurs types de diagrammes très faciles à construire avec quelques règles simples. Il commence par faire des petites flèches qui représentent des évènements: par exemple une flèche peut représenter un photon qui se déplace du point A à B ou
bien un photon qui se réfléchit sur une lame de verre. Chaque flèche possède une longueur propre représentant la probabilité de l’événement et la direction représente le temps interne du photon. Feynman nous explique que la flèche tourne comme un chronomètre et la vitesse du chronomètre de rotation dépend de la ‘couleur’ du photon (la direction est donc la phase de l’onde).
Toutes les petites flèches se multiplient entre elles pour calculer la probabilité d’un événement plus complexe comme la réflexion et la transmission dans une lame de verre épaisse. Sa démonstration est éloquente en résolvant des problèmes qui sont restés longtemps mystérieux et le tout avec une précision sans précédent.

Il poursuit avec un autre diagramme où l’on représente le déplacement d’électrons et de photons qui interagissent entre eux dans le temps et l’espace… Il est alors question d’émission et d’absorption des photons par les électrons (voir précédent billet sur le LASER où ces processus sont expliqués en détail). On peut voir sur le schéma ci-dessous deux modalités différentes pour un électron (ligne continue) d’émettre un photon (ligne ondulée) qui est ensuite absorbé par un autre électron.

Plus généralement, Feynman a inventé pour des questions pratiques un diagramme qui porte désormais son nom : les fameux diagrammes de Feynman. Ils sont aujourd’hui utilisés très largement dans ce que les physiciens appellent les théories quantiques des champs (dont l’électrodynamique quantique est issu) dans le but de réaliser des calculs plus facilement. Il suffit de faire un petit dessin dans lequel on relie des points (appelés vertex) qui constituent des « évènements » à l’aide de lignes représentant des particules. Ces lignes peuvent être continues, en zig-zag, ondulées etc. selon les particules considérées pour des raisons de
lisibilité. On peut donc représenter dans ces sortes de graphes des chaînes de désintégrations et s’en servir pour faire des calculs probabilistes. Les diagrammes de Feynman permettent donc de reconstituer des schémas de désintégrations de particules en d’autres. Vous avez sans doute entendu parler du célèbre Boson de Higgs que l’accélérateur de particule LHC au CERN doit mettre en évidence. Eh bien on peut construire le diagramme de Feynman correspondant à la désintégration de 2 gluons en un boson de Higgs, un quark top et un anti-quark top lors d’une collision dans le détecteur ATLAS du LHC. Voici le résultat (certes un peu complexe à comprendre) :


Vous savez également que les physiciens sont des petits rigolos et qu’ils ont un humour… spécial ! Un physicien du CERN, John Ellis (que l’on peut souvent voir le soir au resto du CERN), a donc nommé une certaine classe de diagrammes de Feynman comme étant des diagrammes Pingouins à cause de  leur forme… Jugez par vous-même :