Archives pour la catégorie Phys. Particules/Quantique

L’antimatière mise en boite au CERN

La semaine dernière, l’expérience ALPHA du CERN annonçait avoir pour la première fois « piégé » de l’antimatière, mais au fait, c’est quoi l’antimatière ?

alpha antimatter

Atomes d’anti-hydrogènes non capturés s’annihilant sur la surface interne du piège ALPHA au CERN le 10 Novembre 2010. © CERN.

Un peu d’histoire

Jusqu’en 1930, le monde des physiciens était exclusivement fait de matière. Cette matière était composée de petites « briques élémentaires » appelées particules et portant des noms étranges comme électrons, photons ou protons (voir mon billet sur le bestiaire des particules pour plus de détails).

C’est alors que le physicien Paul Dirac, pour résoudre une équation de physique, postulat qu’il devait exister une autre particule, identique à l’électron, mais ayant une charge électrique opposée. En effet, l’électron a une charge électrique négative, alors que l’équation de Dirac possède une solution supplémentaire correspondant à une « particule jumelle » positive. Cette nouvelle particule hypothétique fut baptisée positron (plus tard renommée antiélectron) et fut découverte rapidement en 1932 en analysant les rayons cosmiques venant de l’univers.

Dirac

Paul Dirac en 1933, « inventeur » du positron, la première antiparticule

Cette théorie fut ensuite généralisée à toutes les particules que nous connaissons et l’ensemble de ces nouvelles particules furent nommée antimatière. Cependant, il faudra attendre 1955 pour découvrir l’antiproton et 1995 pour créer le premier antiatome au
CERN.

Je tiens à préciser à ce sujet que la paternité du positron revient toujours à Paul Dirac alors que Jean Becquerel, le fil d’Henri Becquerel, avait déjà postulé l’existence d’électrons positifs en 1908 dans un article (Jean Becquerel. «Sur les électrons positifs», Radium (Paris) 5, 1908, pp. 193-200).

Matière Vs Antimatière

Ca ressemble à de la matière, ça a le gout de la matière mais ce n’est pas de la matière : c’est de l’antimatière !

Comme on l’a vu, la différence qui caractérise l’antimatière est la charge électrique opposée, ce qui veut dire que si on fait passer une particule et son antiparticule dans un champ magnétique, les 2 particules sont déviées dans des directions opposées. Outre cette propriété, les antiparticules ont la même masse et le même comportement physique que leur homologue de matière.
positron-electron
Electrons et positrons sont déviés dans des directions opposées dans un champ magnétique. © Noémie.

Comme les charges sont opposées, matière et antimatière s’attirent mutuellement (les particules positives attirent les particules négatives et vice-versa). Lorsque matière et antimatière se rencontrent, elles se désintègrent pour se transformer en énergie pure selon la célèbre formule d’Einstein E=mc² : la matière est convertie intégralement en énergie sous forme de photons (rayonnement gamma).

Fabriquer de l’antimatière

Pour fabriquer des antiparticules en labo, il « suffit » d’avoir un accélérateur de particules assez puissant. Le fait de projeter des particules accélérées à grande énergie sur des cibles métalliques permet de transformer l’énergie cinétique des particules en couple particule/antiparticule : encore E=mc² mais ici l’énergie se transforme en masse (ce processus est ainsi réversible).

Le problème des physiciens n’est pas de « fabriquer » de l’antimatière mais de la « conserver » pour la manipuler et l’observer. A cause des grandes énergies mise en jeu, les antiparticules créées vont pratiquement à la vitesse de la lumière et si elles rencontrent une particule de matière, elles s’annihilent !

Pour contrer ce problème, il faut littéralement freiner l’antimatière pour pouvoir l’étudier, ce n’est donc plus accélérateur qu’il faut mais un décélérateur ! Le décélérateur du CERN s’appelle AD (antiproton decelerator) et mesure 188 m de circonférence. AD permet de diminuer l’énergie d’antiprotons de 3000 MeV à 5 MeV (leur énergie est divisée par 600), ce qui veut dire que les antiprotons sont ralentit au tiers de la vitesse de la lumière.

Fabriquer des antiatomes

Fabriquer des antiparticules est une chose mais les physiciens veulent aller plus loin pour comprendre l’antimatière et pour cela, il faut fabriquer des antiatomes, c’est-à-dire un antinoyau formé d’antiprotons et d’antineutrons avec des positrons qui tournent autour.

En 1995, le CERN a ainsi créé les premiers atomes d’antihydrogènes (le plus simple des antiatomes, composé d’un antiproton et d’un positron qui tourne autour). Neuf antiatomes ont été créés pendant 40 milliardièmes de seconde avant de se désintégrer. L’exploit a été réitéré par la suite aux USA plusieurs centaines de fois mais ces antiatomes étaient toujours trop volatiles, se désintégrant quasi instantanément et ne permettant aucune étude approfondie.

  LEAR

Le décélérateur LEAR (Low Energy Antiproton Ring) au CERN ayant fabriqué les premiers antihydrogènes en 1995. © CERN

Pour stabiliser cette antimatière et l’étudier à la loupe, l’idéal serait de la ralentir jusqu’à l’immobiliser (la piéger). Il faut comprendre que plus une particule est énergétique, plus elle est agitée et donc « chaude ». Les physiciens doivent alors refroidir l’antimatière le plus possible. Pour cela, les antiprotons sont envoyés à travers de fines feuilles de métal et à travers des pièges électromagnétiques appelés pièges de Penning. Ainsi, on arrive à refroidir les antiprotons à environs -269°C (4 kelvins). On procède de même avec des positrons et on met l’ensemble (antiprotons + positrons) dans une espèce de bouteille électromagnétique jusqu’à ce que le positron (positif) se mette à tourner autour de l’antiproton (négatif) pour former un antihydrogène. C’est ce que vient de réussir L’expérience ALPHA du CERN. Voir une animation comment attraper un antihydrogène (en anglais).

alpha trap

Piège de l’expérience ALPHA au CERN ayant capturé un antihydrogène. © CERN

Pourquoi étudier l’antimatière ?

Pour étudier l’antimatière, les physiciens étudient de près ce qu’ils appellent la symétrie CPT (Charge-Parité-Temps). Lors d’une réaction particulière sur une particule, cette même réaction doit être observée sur son antiparticule mais de manière symétrique. Dans le théorème CPT, tout est inversé : la charge (positif Vs négatif), la parité (droite Vs gauche) et le temps (le temps doit s’écouler à l’envers). Un monde composé
d’antimatière serait l’image de notre monde à travers un miroir.

Le problème, c’est que l’univers n’est pas aussi symétrique qu’il n’y parait. En effet, si matière et antimatière étaient strictement identiques (en dehors de la charge électrique), nous ne serions pas là selon la théorie du Big-bang qui stipule qu’à l’origine, matière et antimatière ont du être créées en même temps et en quantité égale (toujours le E=mc², la matière est toujours créée en quantité égale avec de l’antimatière). Un raisonnement simple aboutit donc sur la non-existence de notre Univers car matière et antimatière  auraient du s’attirer juste après le Big-bang pour s’annihiler et fin de l’histoire… La réalité semble tout autre : nous sommes bien là et notre univers semble être composé quasi exclusivement de matière, seuls quelques phénomènes physiques dans le cosmos génèrent de l’antimatière mais en quantité infime et cette antimatière est rapidement annihilée en touchant de la matière ordinaire. Conclusion : les astronomes et les cosmologistes ont perdu la moitié de l’Univers !!

 proton nono

Un proton et un antiproton. © Noémie.

Ce qui peut expliquer cette observation étrange est que matière et antimatière ne sont pas si symétriques que cela : on parle alors de violation de symétrie. Les symétries entre matière et antimatière sont parfois non respectées et pourraient expliquer pourquoi toute l’antimatière a disparue aujourd’hui au profit de la matière. Les accélérateurs de particules ont déjà mis en évidence certaines de ces violations de symétries et ces recherches sont toujours très actives aujourd’hui car il est très difficile d’étudier l’antimatière qui est très volatile.

Applications de l’antimatière ?

La réaction d’annihilation entre matière et antimatière est la plus puissante que la physique connaisse mais il faut relativiser (sans mauvais jeu de mot): c’est inexploitable actuellement pour fabriquer une bombe à antimatière comme le laisse suggérer le roman de Dan Brown Anges et Démons. Si vous prenez  10 milliards de protons et 10 milliards antiprotons, l’énergie équivalente qu’ils pourraient dégager serait d’environ 1 Joule… soit assez d’énergie pour soulever une pomme de 1 mètre… Pour faire une bombe, il faudrait fabriquer beaucoup plus d’antimatière que la science est capable de produire et il faudrait dépenser une énergie supérieure à la
consommation d’énergie mondiale.

De toute manière, l’énergie mise en jeu pour « fabriquer » de l’antimatière sera toujours nettement supérieure à ce que l’annihilation matière/antimatière peut dégager donc aucune source énergétique de ce côté-là…

Cependant, l’antimatière a déjà trouvée une application dont vous avez peut être déjà entendu parler en imagerie médicale : La Tomographie par Emission de Positons (TEP). En Effet, les positrons sont utilisés en imagerie médicale pour obtenir des images d’organes en 3 dimensions en cancérologie, neurologie et cardiologie.

LHC : Objectif 2010 atteint

La semaine dernière, le CERN annonçait fièrement que le LHC avait atteint ses objectifs pour 2010 : la machine a délivré 2 inverse picobarns aux différents détecteurs, or, la plupart des gens n’ont jamais entendu le mot « picobarn » de leur vie… La raison est simple: peu de gens sont physiciens des particules !

 CMS event

Collision proton-proton dans le détecteur CMS du LHC le 9 Juillet 2010. © CERN.

 Je n’appartiens pas non plus à la catégorie des physiciens des particules, néanmoins j’entends souvent ces mots au CERN lors de communiqués officiels comme celui-ci.  J’ai donc cherché à savoir ce que se cachait derrière ces mots abscons pour nous autres, les personnes « normales ».

Le Barn

Le barn est tout simplement une unité de surface étant de l’ordre de la section géométrique du noyau d’un atome. En gros, vous prenez le noyau d’un atome (ayant un rayon d’environ 10-12 cm), vous le coupez en deux et la surface de cette coupe est environ égale à 1 barn, soit 0,00000000000000000000001cm², ou plus simplement 10-24 cm². Par exemple, le noyau d’un atome d’uranium (un des plus gros noyaux) possède une section géométrique de 1,5 barn.

Section efficace et géométrique

Le problème c’est que lorsqu’on observe des réactions nucléaires (interactions entre les noyaux des atomes), ou des collisions de particules entres elles ou contre des cibles, les atomes paraissent avoir une section plus grande ou plus faible selon les phénomènes observés. Pour rendre compte de ce problème, les physiciens ont alors introduit une section dite efficace, plus significative que la section géométrique réelle des noyaux des atomes. La section efficace d’un noyau, représentée par la lettre grecque sigma, n’est pas constante pour une particule donnée et est finalement assez peu dépendante de la taille réelle du noyau mais varie significativement selon sa vitesse et le type de réaction ou collision.

Cette section efficace rend compte de la probabilité d’interaction d’une particule pour une réaction précise (une collision, une réaction nucléaire, etc). Plus la section efficace est élevée, plus la réaction étudiée a des chances de se réaliser. Par exemple, la section efficace de l’absorption d’un neutron lent dans la matière est supérieure à 1000 barns alors que la section efficace des phénomènes étudiés dans les collisions des accélérateurs de particules comme le LHC est de l’ordre du picobarn (10-12 barn), voir du femtobarn (10-15 barn).  Un femtobarn, c’est comme si les noyaux étaient un million de milliards de fois plus petits (et dieu sait s’ils sont déjà petits).

Autant dire que les accélérateurs recherchent des évènements extrêmement rares à observer dans une collision. Prenons le cas du LHC et du fameux boson de Higgs tant recherché. Nous ne connaissons pas encore sa masse exacte, si elle existe, mais on peut toutefois calculer la section efficace de différents phénomènes pouvant lui donner naissance dans le LHC. La figure ci-dessous nous dit que la section efficace du boson de Higgs pourrait se situer entre 10 picobarns et 0,1 femtobarn selon les différents phénomènes possibles si sa masse est comprise entre 300 GeV et 1000 GeV. Autrement dit: Il faut enregistrer au moins dix milles milliards de collisions pour avoir
la chance de voir un Higgs !!!

 Higgs Crosssection

Sections efficaces possibles pour la production d’un boson de Higgs dans le LHC en fonction de la masse de ce dernier. Dan Green, Fermilab (2005)

 La luminosité

On aura donc compris la chose suivante: ce qui intéresse les accélérateurs de particules, c’est de produire le plus de collisions possibles.

Pour évaluer cette capacité, on calcule une grandeur appelée luminosité. Le principe en est simple : compter le nombre de particules qui se croisent dans un cm² à chaque seconde. Ainsi, la luminosité est calculée par la formule suivante :
Eq luminosite

avec f la fréquence de croisement des paquets de particules, n le nombre de particules par paquet et A la section géométrique du faisceau de particules. Dans le cas du LHC, au point nominal, on obtient :

Eq lum LHC

Ce grand chiffre signifie que dix millions de milliards de milliards de milliards de particules se croisent dans un centimètre carré toute les secondes dans le LHC…

Luminosité intégrée

Le paramètre intéressant à calculer par la suite est naturellement la luminosité intégrée qui correspond à la luminosité accumulée dans le temps (c’est-à-dire la luminosité multipliée par le temps de collision de la machine). Si on reprend le cas du LHC au point de fonctionnement maximum, en 90 secondes, la machine peut ainsi fournir une luminosité intégrée de 1,3*1034 * 90 = 1036 cm-2. Pour plus de facilité, on convertit ce chiffre en barn inverse (1 b-1 = 1024 cm-2), on obtient alors une luminosité intégrée de 1012 b-1 = 1 pb-1, soit un inverse picobarn pour 90 secondes de collision dans le
LHC.

ATLAS lum

Le 10 août dernier, un détecteur de particules du LHC, ATLAS, annonçait avoir franchis la barre de 1 inverse picobarn. © ATLAS.

Etat des lieux du LHC

En ce mois d’octobre, le LHC a accumulé 2 inverse picobarns depuis sa mise en route fin mars 2010 car la machine ne fonctionne pas encore à sa luminosité maximale. Cependant, cette machine fonctionne de mieux en mieux : entre mars et août, le LHC avait fournit environ 1 inverse picobarn alors que  la semaine dernière, il lui a fallu seulement 13h pour fournir un autre inverse picobarn (la luminosité maximale était de 1032, soit 100 inverse microbarns par seconde). A titre de comparaison, il a fallu 2 ans au Tevatron  pour atteindre cette luminosité (l’autre grand accélérateur de particules aux
Etats-Unis).

L’objectif du LHC pour 2010 a ainsi été accompli en ce mois d’octobre (2 inverse picobarns). Pour 2011, la machine doit atteindre un total de 1 inverse femtobarn, soit 500 fois plus. Il ne faut pas oublier que la plupart des particules recherchées par les détecteurs du LHC sont  produites par ,des collisions ayant une section efficace entre 1 picobarn et 1 femtobarn, il faudra donc attendre que cette quantité de données soit dépassée pour pouvoir annoncer des résultats sérieux. A suivre en 2011…

 LHC_lumi-copie-1.jpg

Etat du LHC en ce dimanche 24 octobre au soir : les détecteurs ont une luminosité d’environ 100 inverse microbarn par seconde chacun.

Charpak et sa chambre à fils

Georges Charpak nous a quitté cette semaine et je veux lui rendre hommage, à lui et à sa fameuse chambre à fils inventée au CERN en 1968.

 charpak cern

Georges Charpak au CERN derrière une chambre proportionnelle multifilaire (© CERN 1973)

 L’homme

Georges Charpak fut un des symboles d’intégration pour la France. Immigré polonais dans les années 30, il devint résistant pendant la seconde guerre mondiale et fut déporté dans le camp de concentration de Dachau. Il survécut et rentra en France à la libération où il fut naturalisé français en 1946 et intègra l’école des Mines. Il fit ensuite son doctorat de physique avec Frédéric Joliot-Curie, rentra au CNRS puis au CERN (Organisation Européenne pour la Recherche Nucléaire à Genève) en 1963. En 1968, il inventa sa
fameuse chambre à fils et obtint le prix Nobel de physique en 1992. C’est ce que j’appelle un succès d’intégration pour la France qui devrait rester une terre d’accueil et
d’éducation comme l’a si souvent dit Charpak.

Georges Charpak était apprécié de tous et était un homme modeste mais engagé dans la Science et dans la société où il luttait contre les armes nucléaires et supportait de nombreux projets d’éducation avec son projet la main à la pâte. Je ne vais pas vous faire une biographie complète ici mais pour ceux qui veulent mieux connaitre cet homme de science, je vous suggère cette vidéo de 20 minutes faite l’année dernière à l’occasion de son 85ème anniversaire au CERN où Charpak nous raconte rapidement sa vie : http://cdsweb.cern.ch/record/1167500.

 Avant Charpak : les chambres à bulles

Jusque dans les années 70, la physique des particules se faisait « à la main » dans le sens où les collisions de particules issues des accélérateurs étaient principalement réalisées dans des chambres à bulles.

Une chambre à bulles consiste à remplir de liquide une enceinte close. On utilisait généralement de l’hydrogène liquide qui était maintenu en dessous de -253°C pour rester liquide. On faisait en sorte de réaliser les collisions devant ces chambres où les particules laissaient de petites bulles dans leurs sillages.

bulle trajectoire

Production de jets de particules dans la première chambre a bulles a hydrogène liquide du CERN ; elle ne mesurait que 30 cm de diamètre (©CERN 1970).

On prenait alors des photos de ces bulles pour identifier la trajectoire des différentes particules. Par la suite, la courbure des trajectoires et la densité des bulles permettaient d’identifier les différentes particules. Evidemment, toutes ces mesures se faisaient à la main sur des tables de projection où les différentes photos pouvaient défiler rapidement.  La plus grande chambre à bulles du CERN, BEBC (Big European Bubble Chamber) qui
mesurait 3,7 m de diamètre et 4 m de haut a fourni durant sa vie 6,3 millions de photographies (3 000 km de film) analysées entre 1973 et 1984 par près de 600 chercheurs dans le monde.

analyse bulles

A gauche : Installation de BEBC, la plus grande chambre à bulles du CERN (© CERN 1971). A droite : femmes analysant à la main les trajectoires de particules des chambres à bulles sur des tables de projection (© CERN 1962).

 Charpak : la chambre à fils

A la fin des années 60, les premiers systèmes électroniques à base de transistors apparaissent et font miroiter des possibilités gigantesques en termes de traitement automatique des données: c’est le balbutiement de l’informatique. Or, les physiciens des hautes énergies réalisent de grandes expériences produisant de très nombreuses données encore difficiles à traiter comme avec les chambres à bulles.

En 1968, Georges Charpak qui était chercheur au CERN invente  alors  un nouveau genre de détecteur de particules qui allait tout simplement révolutionner l’avenir de la physique des particules : la chambre proportionnelle multifilaire, ou plus simplement la chambre à fils, pour laquelle Charpak sera récompensé par le prix Nobel de physique en 1992.

Le principe est en somme relativement simple et facile à concevoir. Une enceinte (chambre) est remplie d’un gaz noble (comme de l’Argon) puis des fils électriques parallèles sont tendus à l’intérieur de manière à faire une sorte de maillage dans un plan.
L’extrémité des fils est ensuite connectée à un générateur de tension électrique à une borne positive (anodes) et des plaques conductrices sont intercalées entre les plans des
fils et sont reliées à une borne négative (cathodes).

 chambre fil

Principe général d’une chambre à fils (© CERN).

 Lorsqu’une particule chargée (c’est-à-dire portant une charge électrique comme un électron ou un muon) traverse la chambre, cette particule ionise le gaz noble (elle « casse » des atomes de gaz en électrons chargés négativement et en ions chargés
positivement). Les électrons sont alors attirés par les anodes (reliés à une borne positive) et les ions par les cathodes (reliés à une borne négative). Au bout de l’anode, on place un
amplificateur pour permettre la mesure du courant électrique engendré par le déplacement des électrons dans le fil. La mesure de courant sur chaque fil peut être par la suite analysée dans un ordinateur afin de reconstruire la trajectoire de la particule comme avec une chambre à bulles mais de manière automatique.

Ce nouveau type de détecteur a permis de multiplier par un facteur 1000 la vitesse de traitement des données par rapport aux chambres à bulles où il fallait compter « à la main » les particules.

Les chambres à fil aujourd’hui

Le dernier accélérateur de particules du CERN dénommé Large Hadron Collider, ou LHC, permet de produire pas moins de 40 millions de collisions par seconde pendant plusieurs heures. Ces collisions sont réalisées au centre de 4 gigantesques détecteurs. Les détecteurs du LHC utilisent différentes techniques dont des chambres à fils pour détecter des particules chargées comme les muons.

Toutes les collisions du LHC sont  triées automatiquement par des systèmes électroniques puis analysées et reconstruites en 3 dimensions par des systèmes informatiques mobilisant plus de 100 000 processeurs répartis sur 170 centres de calcul dans 34 pays à travers le monde. A chaque seconde, le LHC fournit ainsi autant de données que la grande chambre à bulles BEBC aurait pu fournir pendant 60 ans d’exploitation.

muon-Alice

A gauche : Vérification d’une chambre à fils permettant de détecter des muons pour l’expérience ALICE du LHC  (© CERN 2004). A droite : premiers muons détectés par les chambres à fils de l’expérience ALICE lors des premières collisions dans le LHC (© CERN 2009).

  Le principe de la chambre à fils a trouvé d’autres applications en dehors de la physique des particules comme en imagerie médicale. En effet, une méthode très innovante basée sur le principe des chambres à fils permet aujourd’hui de reconstruire en 3D  la colonne vertébrale et le bassin d’un patient avec une précision inégalée (voir ce
lien pour plus de détails).

rachis-3D

Image en 3D de la colonne vertébrale d’un patient issue du système Radiologique Ultra Basse Dose Eos mis au point à partir des travaux de Charpak sur les chambres à fils (© AP-HP)

Univers de Particules : Nouvelle expo au CERN

Une nouvelle exposition permanente intitulée « Univers de Particules » vient d’ouvrir ses
portes au public dans le Globe du CERN. Je viens d’en faire la visite pour vous…

expo_interieur1.jpg

Depuis maintenant 6 ans, la Confédération Helvétique (ou la Suisse si vous préférez) a fait don du « Palais de l’équilibre », ancien pavillon de l’Expo’02 de Neuchâtel, au CERN (l’Organisation Européenne pour la Recherche Nucléaire située à Genève). Ce globe entièrement construit en bois et mesurant près de 27m de haut et 40m de diamètre a alors été renommé « Globe de la Science et de l’Innovation ». Le Globe constitue à présent un des symboles du CERN par son imposante présence le long de la route et visible la nuit à plusieurs kilomètres grâce à son éclairage nocturne.

 univ_particules.jpg

Le Globe de La Science et de l’Innovation du CERN

Le Globe accueillait jusqu’à présent des expositions temporaires au rez-de-chaussée et une salle était disponible à l’étage pour toutes sortes d’évènements scientifiques comme des conférences, des rencontres, des débats et des animations scientifiques autour de la physique des particules et des accélérateurs.

Depuis le 1er juillet, l’exposition « Univers de Particules » est désormais permanente au rez-de-chaussée, exposition bien évidemment gratuite, comme toutes les activités de vulgarisation scientifique du CERN. Cette nouvelle exposition plonge le visiteur dans une atmosphère féérique ou des sphères changeant de couleurs apparaissent dans l’obscurité du Globe. J’ai commencé par m’assoir dans des « fauteuil-œufs » et écouter des physiciens m’expliquer ce qu’est la masse et l’antimatière ou comment notre Univers évolue et fonctionne.

expo_interieur3.jpg

En continuant mon itinéraire j’ai vu des « morceaux » de détecteurs de particules avec des explications sur leur fonctionnement et comment le CERN a construit et assemblé ces véritables cathédrales High-Tech.

Un peu plus loin, on découvre une table interactive sur le LHC, le plus grand accélérateur de particules du monde qui constitue le dernier projet du CERN. Cette table permet de comprendre son fonctionnement et ses étonnantes caractéristiques qui en font la machine la plus complexe jamais construite par l’homme. On peut ouvrir et fermer différents panneaux explicatifs et les faire défiler ou se les « envoyer » à travers la table à la manière d’un écran de i-phone géant !!

expo interieur2

La Table interactive du LHC permet de découvrir le plus grand accélérateur de particules du monde

 On trouve également une chambre à étincelles qui produit des étincelles rouges à chaque fois que certains rayons cosmiques passent à travers et différentes autres sphères interactives au sujet du LHC et de ses objectifs de recherche.

En résumé, je vous conseille d’y aller faire un tour si vous passer dans le coin de Genève, à savoir que cette exposition est bien complémentaire à l’autre exposition permanente du CERN « Microscosm » située juste en face du Globe.

Références

Collisions à 7 TeV dans le LHC au CERN

Après 20 ans d’attente de la part des physiciens, le plus puissant accélérateur de particules du monde, le LHC, vient de faire ses premières collisions à 7 TeV
(Tera électronvolt), c’est un moment historique dans l’histoire de la physique des hautes énergies mais ca veut dire quoi et surtout : ca sert à quoi ?

ATLAS_7TeV.png

Mardi 20 mars 2010, 12h58 : une collision à 7 TeV dans le détecteur ATLAS ©CERN

 A quoi sert le LHC ?

Le but du LHC (Large Hadron Collider) et des expériences du CERN
(
Organisation Européenne pour la Recherche Nucléaire) est d’approfondir les connaissances de l’homme sur l’origine de l’Univers et sur son fonctionnement ainsi que de mieux appréhender les lois de la nature pour mieux répondre à plusieurs questions fondamentales. Ici, la science ressemble plus à de la philosophie qu’à de la recherche permettant d’améliorer notre cadre de vie. Ceci s’appelle de la recherche fondamentale… Certains chercheurs peuvent parfois paraitre un peu « mystiques » par leur allure, leurs idées et leur attitude mais ils font bel et bien avancer nos connaissances et notre compréhension du monde qui nous entoure !

JohnEllis
John Ellis, un des plus grands physiciens du CERN (nobélisable) 
habillé par les 4 termes du lagrangien du modèle standard de la physique des particules.

Les physiciens espèrent répondre à de nombreuses questions grâce aux futures données produites par les expériences du LHC. La première attente est la découverte de particules super-symétriques (SUSY) pouvant permettre l’explication d’une partie de la masse manquante dans l’univers ainsi que de détecter le fameux boson de
Higgs
expliquant la masse des particules. L’étude des différences entre matière et antimatière ainsi que la découverte de dimensions supplémentaires sont également au programme de recherche.

Cependant, pour effectuer ces recherches fondamentales, le CERN doit mettre en œuvre d’innombrables nouvelles technologies de pointes en relation avec l’industrie. Le meilleur exemple est l’invention du Web au CERN à la fin des années 80 pour gérer les informations venant des expériences de la physique des particules ! En plus des très nombreuses innovations en technologies de l’information pour gérer les milliards de données produites par le LHC (les systèmes d’acquisition de données, la grille de calcul planétaire, etc.), le LHC a littéralement dopé la recherche mondiale sur la supraconductivité et la cryogénie ainsi que leurs applications industrielles pendant les 15 dernières années. Le CERN fournit également des isotopes pour la médecine et contribue à la recherche en imagerie médicale et en thérapie contre les cancers à base d’hadrons (hadronthérapie), comme par exemple à travers le projet PARTNER. Le CERN a également une vocation de formation et d’éducation et accueille des milliers d’étudiants du monde entier chaque année dans tous les domaines de la science.

Il n’y a pas que l’énergie qui compte !

Les faisceaux sont désormais stables à 3,5 TeV, soit la moitié de l’énergie maximale que le LHC pourra délivrée (7 TeV), mais l’énergie n’est pas le seul paramètre à regarder. Pour l’instant les faisceaux sont encore peu intenses. Pour réaliser de « bonnes » collisions en très grand nombre, il faut également prendre en compte de très nombreux autres paramètres. Par exemple, la luminosité et l’intensité des faisceaux sont 2 autres paramètres clés (parmi beaucoup d’autres) car ils sont directement liés au nombre de collisions produites et donc à la chance de « voir » une nouvelle particule. En effet, certains évènements sont parfois si rares qu’il faut faire tourner ces gigantesques accélérateurs de particules pendant plusieurs dizaines d’années pour valider les différentes théories. Il faut donc produire le plus grand nombre de collisions possible en le moins de temps possible!

La luminosité d’un faisceau correspond au nombre de particules passant dans une section de 1 cm² à chaque seconde et l’intensité d’un faisceau correspond au nombre
total de protons qu’il contient. Aujourd’hui, seulement 2 paquets de particules par faisceau ont circulé (le LHC peut contenir jusqu’à 2808 paquets) et la luminosité maximale autour des 10
27 protons/cm².s avec 2*1010 protons par paquet (contre une luminosité de 1034 protons/cm².s et une intensité de 1011 protons par paquet pour le fonctionnement maximal du LHC).

stable_beams_3.5TeV.JPG

Ecran général de contrôle du LHC le 30 mars 2010 après les premières collisions à 7 TeV. On peut voir l’intensité des deux faisceaux  à 2*1010 protons chacun.

Pour augmenter cette luminosité, il faut augmenter le nombre de paquets et le nombre de protons par paquets ainsi que réduire au maximum le diamètre du faisceau. Les paquets peuvent faire quelques millimètres de diamètre mais sont focalisés juste avant les points de collisions et le LHC devrait pouvoir réduire ce diamètre jusqu’à 16 micromètres, soit 3 fois plus fin qu’un cheveu humain.

Le LHC marche bien !

Aujourd’hui, le LHC a démontré son efficacité et sa prise en main rapide par les équipes d’opération du CERN : seulement quelques mois ont été nécessaires pour « apprivoiser » cette machine unique au monde par sa taille et sa complexité. Désormais, l’opération à 3,5 TeV devient facilement reproductible.    

Les opérateurs vont continuer à avancer avec cette nouvelle machine et à augmenter petit à petit l’intensité des faisceaux pour fournir une meilleure luminosité aux expériences de manière à produire le plus de collisions possibles. Le LHC va à présent fonctionner de manière quasi-continue pendant 18 à 24 mois à une énergie de 3,5 TeV par faisceau (collisions à 7 TeV).

Après un arrêt d’environ un an est planifié pour effectuer de la maintenance et renforcer les systèmes de protections des aimants suite à quoi le LHC repartira pour atteindre sa puissance maximale de 7 TeV par faisceau (collisions à 14 TeV). On espère que cette machine fonctionnera pendant une vingtaine d’années pour faire avancer la science et surtout pour donner de nouvelles directions à la physique des particules et à la cosmologie qui sont actuellement dans certaines impasses et qui attendent de nouveaux résultats pour dépasser les modèles actuels.

Liens 

Les premières collisions du LHC

Les premières collisions du LHC sont au rendez-vous !


Les premières collisions dans les 4 détecteurs du LHC le 23 novembre 2009
(CERN)

C’est un succès pour le LHC : aujourd’hui, 23 novembre 2009 à 14h22, les premières collisions proton-proton ont eu lieu à l’Organisation Européenne pour la Recherche Nucléaire (CERN) dans le plus puissant accélérateur de particules du monde : le LHC. Ces collisions sont le fruit de plus de 15 ans de travail de plusieurs milliers de techniciens, ingénieurs et physiciens répartis aux quatre coins du monde.

Les péripéties du LHC

Je vous rappelle que les premiers faisceaux de protons ont circulé dans le LHC à partir du 10 Septembre 2008 mais que 9 jours plus tard, un incident sur une interconnexion électrique s’est produit. L’accélérateur a été fortement endommagé sur environ 3 km et 1 an de réparation a été nécessaire aux équipes du CERN. De plus, le système de protection des aimants a été amélioré de manière à ce que cet évènement ne se reproduise pas à l’avenir.

 Redémarrage progressif du LHC

Durant les mois d’octobre et novembre, tous les indicateurs du LHC sont progressivement passés du rouge au vert, signifiant que toute la machine était prête à recevoir des faisceaux de particules pour les faire entrer en collisions. Les différents réglages ont été ajustés ces dernières semaines de manière à
commencer la campagne de collisions pour 2010 en toute sérénité sans prendre de risque.

Ecran général de contrôle de la cryogénie du LHC.   Tout est vert : le LHC est à 1,9 K (-271 °C)

Récapitulatif du redémarrage 2009 :

  • Le 8 octobre, tout le LHC était à nouveau froid : les 9000 aimants supraconducteurs répartis sur l’anneau de 27 km ont atteint la température cryogénique de 1,9 K (-271°C), nécessaire pour le fonctionnement de l’accélérateur.
  • Les particules ont fait leur réapparition à l’entrée du LHC le 23 octobre.
  • Le 19 novembre, les 1572 circuits supraconducteurs étaient tous vérifiés et testés pour permettre la circulation des faisceaux de particules dans toute la machine jusqu’à 3,5 TeV.
  • Le 20 novembre, des faisceaux ont fait plusieurs tours complets du LHC dans le sens horaire et antihoraire à l’énergie d’injection (soit 0,45 TeV).
  • Le 23 novembre, les 2 faisceaux circulaient en même temps en sens inverse pendant plusieurs heures entrainant les premières collisions dans les détecteurs ATLAS et CMS puis dans les détecteurs ALICE et LHCb.


Image du faisceau traversant un BPM (moniteur de position du faisceau) dans le sens horaire le 21 novembre

 Les détecteurs vont prendre du service

Les quatre expériences du LHC (dénommées ATLAS, CMS, ALICE et LHCb) ont donc pu « voir » leurs premières vraies collisions. Jusqu’à présent, tous ces détecteurs se contentaient de détecter les particules cosmiques qui les traversaient pour se calibrer et se paramétrer. La phase à avenir est principalement une phase de réglage final pour la machine mais également pour tous les détecteurs avant de passer aux choses sérieuses. On a beaucoup entendu
dans les couloirs du CERN aujourd’hui : « les physiciens vont enfin avoir des évènements pour faire de la physique ! ».


Détecteur CMS le 7 Novembre 2009 ayant détecté les énergies déposées par les  particules résultantes d’une éjection du faisceau de particules juste avant le détecteur lors de la phase de redémarrage de la machine (splash events). Photons, électrons ou positrons en rouge, hadrons (protons, neutrons, pions) en bleu et muons en jaune et magenta.

 Aujourd’hui est un évènement capital dans l’histoire du CERN et du LHC. Ces premières collisions ont été réalisées à une énergie de 0,9 TeV (1 TeV = 1 tera-électronvolts = 1000 milliards d’électronvolts), ce qui est une basse énergie pour le LHC mais une énergie colossale tout de même (le plus puissance
accélérateur du monde avant le LHC était le Tevatron, capable de réaliser des collisions à 1 TeV).

 Les détecteurs vont donc véritablement entrer en fonctionnement pour venir détecter, enregistrer et analyser en 3 dimensions les 600 millions de collisions générés à chaque seconde dans la machine. L’ensemble des 4 détecteurs devraient produire environ 15 millions de Giga Octets de données par an (soit une pile de CD de 20 km de haut). Toutes ces données permettront ensuite aux physiciens de confirmer ou d’infirmer leurs théories en fonction des statistiques observées lors de ces collisions.

 Le programme 2010 du LHC

Une fois les différents instruments de mesure bien calibrés, l’objectif est de monter l’énergie des faisceaux de particules à 1 TeV assez rapidement puis d’arriver progressivement aux 3,5 TeV pour la fin 2010, c’est-à-dire provoquer des collisions à 7 TeV (2 faisceaux à 3,5 Tev en collision = 7 TeV au centre de masse). Cette énergie correspond à la moitié de la  puissance théorique maximale que le LHC peut atteindre (collisions prévues à 14 TeV) mais les physiciens espèrent pouvoir récolter suffisamment de données lors de cette première phase de collisions à moindre puissance pour pouvoir faire de la « physique » et venir confirmer certaines théories comme le fameux mécanisme de Higgs permettant d’attribuer une masse aux différentes particules dans le cadre du modèle standard de la physique des particules.

 Le directeur général du CERN disait à ce propos au mois d’aout 2009 que « Nous avons choisi le chiffre de 3,5 TeV parce que cela permet aux opérateurs du LHC d’acquérir l’expérience du fonctionnement de la machine en toute sécurité tout en ouvrant une nouvelle région de découvertes pour les
expériences ».

 Aujourd’hui, le LHC vient de commencer une nouvelle aventure pour la science.

 

Simulation de la désintégration d’un boson de Higgs en 4 muons (traces jaunes) par l’expérience ATLAS

Le Bestiaire des particules

La physique des particules est une science étrange et fascinante. Elle a pour mission de réaliser le bestiaire des particules qui nous entourent et d’expliquer les différents mécanismes entre particules qu’on appelle interactions. On trouve également la dénomination physique des hautes énergies pour parler de la physique des particules car la plupart de ces petites choses se désintègrent très vite et n’existent que pendant quelques pouillèmes de seconde lors de collisions à hautes énergies avant de se désintégrer. Ci-dessous : une particule en pleine action :



Il n’est pas chose aisée que d’établir une liste des particules de manière claire, même s’il existe des grandes familles. Pour les néophytes, voici quelques règles simples à retenir avant tout :


  1. Les particules élémentaires sont les constituants élémentaires de la matière qui nous entoure. A ce titre, elles sont insécables : on ne peut pas les diviser en de plus petites entités. Exemple : un électron.
  2. A chaque particule élémentaire est associée une antiparticule élémentaire de même masse et ayant presque les mêmes propriétés mais avec une charge électrique opposée. Exemple : un antiélectron (aussi appelé positron)
  3. Les particules élémentaires peuvent se regrouper pour former de nouvelles particules compositesExemple :  un proton est composé de quarks.
  4. Les atomes sont constitués de particules. Exemple : un atome d’hydrogène est composé d’un proton et d’un électron.
  5. Les molécules sont constituées d’atomes.  Exemple : une molécule d’eau (H2O) est composée d’un atome d’oxygène et de deux atomes d’hydrogène.
  6. Certaines particules sont stables, d’autres sont instables car elles se désintègrent très vite après leur création. Exemple :  l’électron est stable, le muon est instable.
  7. Il existe 4 forces d’interaction : la gravité, l’électromagnétisme, la force faible et la force forte. Pour plus de détails sur les interactions, voir le billet Vous avez dit force ?

Les particules élémentaires

La physique des particules possède un modèle théorique pour décrire les particules élémentaires qui porte le simple nom de modèle standard. A ce jour, toutes les particules du modèle standard ont été observées dans les accélérateurs de particules à l’exception d’une particule : le boson
de Higgs
, qui devrait être détectée dans l’avenir avec le nouvel accélérateur de particule du CERN, le LHC.

 Le modèle standard regroupe 25 particules élémentaires représentées dans le tableau ci-dessous (ainsi que leurs 25 antiparticules associées que je ne citerai pas pour raison de lisibilité). Il existe 2 grandes familles de particules élémentaires :

  • La famille des particules de matière : ce sont les fermions.
  • La famille des particules de champ qui sont des médiateurs et permettent de véhiculer une force d’interaction : les bosons de gauge.



Le modèle standard parle ensuite de 3 générations qui sont dues à la différence de masse entre les particules. La première génération rassemble les particules les plus légères qui sont stables et constituent la matière qui nous entoure alors que les générations 2 et 3 sont constituées de particules plus lourdes créées artificiellement sur Terre dans les accélérateurs de particules et qui se désintègrent rapidement.

 Il existe 12 fermions qui sont classés en 2 sous-familles :

6 leptons qui ne sont pas sensibles à l’interaction forte :

  • Première génération : l’électron et le neutrino électronique.
  • Deuxième génération : le muon et le neutrino muonique.
  • Troisième génération : le tauon et le neutrino tauonique.

6 quarks qui sont sensibles à toutes les interactions :

  • Première génération : quarks up et down.
  • Deuxième génération : quarks strange et charmed.
  • Troisième génération : quarks bottom (aussi appelé beauty) et top.

 

Il existe 13 bosons de gauge pour véhiculer 3 forces d’interaction ainsi que la masse aux différentes particules :

  • Le photon qui est le médiateur de la force électromagnétique.
  • Les bosons W+, W et Z0 qui véhiculent la force faible.
  • Les 8 gluons qui sont responsables de la force forte.
  • Le boson de Higgs qui conférerait leur masse aux particules (hypothétique).

 Il y a aussi une particule hypothétique appelée graviton qui serait le médiateur de la force gravitationnelle. Je le mentionne ici car cette particule me semble importante mais elle ne fait pas partie du modèle standard qui ne décrit pas les phénomènes gravitationnels. Il existe de nombreuses autres particules élémentaires hypothétiques dans les différentes théories des physiciens (parfois un peu tarabiscotées) mais aucune d’entre elles n’a jamais été détectée, je n’en
parlerai donc pas dans ce billet.

 Voila, vous connaissez à présent toutes les particules élémentaires du modèle standard qui permettraient d’expliquer toute la physique!!

 Les particules composites

 Des particules élémentaires peuvent se regrouper sous l’influence des différentes interactions pour former de nouvelles particules. Le meilleur exemple est le regroupement des quarks sous l’effet de la force forte, formant ainsi une nouvelle classe de particules composites appelées hadrons. Les hadrons se décomposent en 2 familles :

– Les mésons qui sont composés par un nombre pair de quarks et d’antiquarks. Il en existe à ce jour plus d’une dizaine dont, entre autres, les kaons et les pions.

– Les baryons qui sont composés de 3 quarks. On en dénombre plus d’une vingtaine mais les plus connus sont les protons (2 quarks up + 1 quark down) et les neutrons (2 quarks down + 1 quark up).

 La force forte agit comme un ressort sur les quarks : plus les quarks tentent de s’éloigner, plus la force forte augmente. Il est ainsi très difficile de séparer des quarks liés, et c’est pour cela que l’on a longtemps pensé que les protons et les neutrons étaient des particules élémentaires. Encore une fois, les différentes théories de la physique décrivent d’autres classes de hadrons, dit exotiques, dont je ne parlerai pas.

Les quasi-particules

 Par commodité, la physique peut faire appel au concept de particule pour décrire des phénomènes sans qu’une particule n’existe vraiment, on parle alors de quasi-particule. Une quasi-particule peut par exemple décrire un « manque de particule réelle », ce que l’on appelle un « trou » pour parler de l’absence d’un électron en électricité ou bien encore la propagation d’ondes dans des structures cristallines (phonon).

Illustrations : Noémie Thiéblemont et Alexandre Moraux, que je tiens tout particulièrement à remercier pour les différents dessins de particules présentés dans ce billet et qui permettront, je l’espère, à mieux se familiariser avec toutes ces petites particules ! C’est donc eux qu’il faut féliciter

L’électrodynamique quantique et les diagrammes de Feynman


Je
viens d’achever la lecture de lumière et matière, une histoire étrange de Richard P. Feynman qui porte sur l’explication d’une théorie qui porte le nom horrible d’électrodynamique quantique. Le nom de cette théorie peut faire peur et peu paraître extrêmement compliquée mais Feynman est sans doute l’un des meilleurs vulgarisateurs scientifiques que le 20ième siècle ait connu. Pour avoir une idée du personnage, vous pouvez consulter un billet précédent qui lui est consacré : Richard Feynman.

Feynman, le Pro de la vulgarisation « vraie »

Feynman sait de quoi il parle dans ce livre puisqu’il est l’un des pères de l’électrodynamique quantique et qu’il a obtenu le prix Nobel en 1965 pour ce travail. Le livre lumière et matière est en fait la retranscription de 4 conférences données par Feynman à l’Université de Californie à Los Angeles (UCLA) en 1985 qui étaient destinées au public le plus large possible. La démarche de vulgarisation adoptée par Feynman constitue un modèle pour ce blog, La Science pour Tous, qui vient de fêter ses 3 ans (j’ai écrit le premier billet le 24 Janvier 2006) et je me devais donc de saluer Richard Feynman ici ! Ce que j’apprécie particulièrement chez lui, c’est le fait qu’il vulgarise tout en expliquant clairement ce qu’il omet de mentionner et il essaye de ne faire aucune approximation. Voici un extrait de la première conférence qui résume bien sa démarche :

 « Ce que je vais vous raconter n’est autre que ce que nous enseignons aux étudiants qui sont en train de préparer une thèse de physique. Croyez-vous vraiment que je puisse vous expliquer tout cela de manière que vous le compreniez ? Non, ce n’est pas sérieux : vous n’allez certainement pas comprendre. Mais alors, direz vous, pourquoi vous donnez-vous tant de mal ? Pourquoi passer tant de temps devant nous, si c’est pour que nous ne comprenions rien à ce que vous allez dire ?

Précisément, je me suis fixé comme objectif que vous restiez ici à m’écouter. Car, pour ne rien vous cacher, les étudiants non plus n’y comprenne rien. Pourquoi ? Tout simplement parce que je n’y comprends rien moi-même. Personne d’ailleurs n’y comprend rien.

[…]

 La théorie de l’électrodynamique quantique nous fournit une description de la nature qui est absurde du point de vue du sens commun. Mais elle est en accord parfait avec l’expérience. J’espère donc que vous accepterez la nature telle qu’Elle est : absurde. »


On identifie bien dans cet extrait le « style » de Feynman lorsqu’il parle. C’est en partie ce style mêlé à son génie qui font des ouvrages de vulgarisation de Feynman des références internationales (particulièrement les fameux cours de physique de Feynman que la plupart des étudiants en physique ont lu).

Que permet l’électrodynamique quantique ?

L’électrodynamique quantique s’appelle ainsi car elle unifie la physique quantique et l’électromagnétisme (ce dernier étant l’unification de l’électricité et du magnétisme, voir un précédent billet La
nature de la lumière ou l’électromagnétisme
).

Pour faire court, l’électrodynamique quantique « permet de décrire tous les phénomènes du monde physique, à l’exclusion des effets gravitationnels […], et les phénomènes radioactifs». C’est-à-dire que tous les phénomènes entre la lumière et la matière sont explicables par cette théorie, en expliquant, entre autre, les interactions entre les photons (la lumière) et les électrons (la matière), d’où le titre du livre. Ceci peut paraître abstrait mais en réalité, tous les phénomènes que vous connaissez sont issus des interactions entre photons et électrons (sauf la gravité et la radioactivité). On peut citer tous les phénomènes optiques mais également la biologie ou la chimie. Des phénomènes qui peuvent vous paraître simples et que vous pensiez expliqués depuis longtemps ont en fait été définitivement expliqués par l’électrodynamique quantique comme la simple
réflexion et transmission de la lumière dans une lame de verre que Feynman explique merveilleusement bien dans le cadre de sa théorie.
Je ne vais pas rentrer dans les détails car Feynman le fait mieux que quiconque dans son livre mais j’aimerai simplement vous parler un peu des fameux diagrammes de Feynman qui permettent de représenter (et donc de comprendre) les  interactions entre particules.

Feynman et ses diagrammes

Feynman nous dit que pour « comprendre » l’électrodynamique quantique, vous avez besoin d’un crayon, d’une feuille de papier et de dessiner des petites flèches avec un peu de jugeote: c’est tout ! Le pari est plutôt ambitieux à première vue, surtout si le public n’a pas de formation universitaire en physique mais à mon avis, son pari a été tenu dans ce livre (il faut tout de même un peu de bagage scientifique mais le stricte minimum permet de tout comprendre).


Feynman nous explique donc sa théorie à l’aide de plusieurs types de diagrammes très faciles à construire avec quelques règles simples. Il commence par faire des petites flèches qui représentent des évènements: par exemple une flèche peut représenter un photon qui se déplace du point A à B ou
bien un photon qui se réfléchit sur une lame de verre. Chaque flèche possède une longueur propre représentant la probabilité de l’événement et la direction représente le temps interne du photon. Feynman nous explique que la flèche tourne comme un chronomètre et la vitesse du chronomètre de rotation dépend de la ‘couleur’ du photon (la direction est donc la phase de l’onde).
Toutes les petites flèches se multiplient entre elles pour calculer la probabilité d’un événement plus complexe comme la réflexion et la transmission dans une lame de verre épaisse. Sa démonstration est éloquente en résolvant des problèmes qui sont restés longtemps mystérieux et le tout avec une précision sans précédent.

Il poursuit avec un autre diagramme où l’on représente le déplacement d’électrons et de photons qui interagissent entre eux dans le temps et l’espace… Il est alors question d’émission et d’absorption des photons par les électrons (voir précédent billet sur le LASER où ces processus sont expliqués en détail). On peut voir sur le schéma ci-dessous deux modalités différentes pour un électron (ligne continue) d’émettre un photon (ligne ondulée) qui est ensuite absorbé par un autre électron.

Plus généralement, Feynman a inventé pour des questions pratiques un diagramme qui porte désormais son nom : les fameux diagrammes de Feynman. Ils sont aujourd’hui utilisés très largement dans ce que les physiciens appellent les théories quantiques des champs (dont l’électrodynamique quantique est issu) dans le but de réaliser des calculs plus facilement. Il suffit de faire un petit dessin dans lequel on relie des points (appelés vertex) qui constituent des « évènements » à l’aide de lignes représentant des particules. Ces lignes peuvent être continues, en zig-zag, ondulées etc. selon les particules considérées pour des raisons de
lisibilité. On peut donc représenter dans ces sortes de graphes des chaînes de désintégrations et s’en servir pour faire des calculs probabilistes. Les diagrammes de Feynman permettent donc de reconstituer des schémas de désintégrations de particules en d’autres. Vous avez sans doute entendu parler du célèbre Boson de Higgs que l’accélérateur de particule LHC au CERN doit mettre en évidence. Eh bien on peut construire le diagramme de Feynman correspondant à la désintégration de 2 gluons en un boson de Higgs, un quark top et un anti-quark top lors d’une collision dans le détecteur ATLAS du LHC. Voici le résultat (certes un peu complexe à comprendre) :


Vous savez également que les physiciens sont des petits rigolos et qu’ils ont un humour… spécial ! Un physicien du CERN, John Ellis (que l’on peut souvent voir le soir au resto du CERN), a donc nommé une certaine classe de diagrammes de Feynman comme étant des diagrammes Pingouins à cause de  leur forme… Jugez par vous-même :

Premier faisceau dans le LHC

C’est un succès pour l’Organisation Européenne pour la Recherche Nucléaire (CERN) à Genève. Aujourd’hui, 10 Septembre 2008 à 10h28, le premier faisceau de protons vient de faire un tour complet dans le plus puissant accélérateur de particules du monde : le  LHC (Large Hadron Collider). Voir le billet précédent intitulé Le LHC au CERN pour plus d’informations sur cette machine de 27 km de circonférence enfouie à 100 mètres sous la frontière franco-suisse.


Le  premier proton ayant fait un tour complet du LHC

 La mise en service

Les premiers essais d’injections de particules dans le LHC ont été réalisés le 8 aout dans le sens horaire et le 22 aout dans le sens anti-horaire avec succès (voir résumé).


Image du premier paquet de protons ayant circulé dans une portion du LHC le 8 août 2008 au point 3 lors du test d’injection du faisceau en sens horaire

Quand on regarde la complexité de la machine, le temps de construction (plus de 10 ans) et le nombre de personnes impliquées dans ce projet (environ 8000 personnes), la mise en service a été relativement rapide et a rencontré peu de problèmes grâce aux excellents outils de contrôle et de diagnostique mis en place au CERN dans la nouvelle salle de contrôle (CCC : CERN Control Center) qui centralise tout le contrôle des différents accélérateurs. Ce matin Lyn Evans, le chef du projet LHC disait « je ne sais pas combien de temps cela va prendre de faire un tour complet de la machine, pour le LEP (l’ancien accélérateur du CERN), cela a pris 12h. » Finalement, cela aura pris 50 minutes ce matin pour faire un tour complet, mais cela fait plus d’un mois que tout le monde s’entraine et que les premiers tests ont été réalisés.

Le CERN Control Center situé sur le site de Prevessin ce matin en effervescence

 Le premier faisceau

Aujourd’hui, le premier faisceau de particules vient de faire un tour complet de l’accélérateur à une énergie réduite de 0,45 TeV (soit 6.4% de l’énergie nominale du LHC qui est de 7 TeV). Voir plus d’informations sur la page web LHC first beam. Le CERN espère faire fonctionner la machine à 70% de sa puissance avant la fin de l’année, soit une énergie de 5 TeV et à pleine puissance dans les 2 prochaines années.

Le  premier faisceau traversant le détecteur ATLAS

 Cet événement historique est un succès pour le CERN et les 8000 techniciens, ingénieurs et physiciens de 80 pays différents qui ont contribué à ce projet titanesque qui marquera l’année 2008. Ce premier faisceau symbolise une « réussite technologique », reste maintenant la « réussite physique » à
accomplir. En effet, la prochaine étape est le bon déroulement des collisions de particules au centre des gigantesques détecteurs ainsi que l’archivage et l’analyse des millions de données produites par ces collisions.

  Le LHC ne présente aucun risque

Pris dans son ensemble, l’univers est le théâtre de plus de dix mille milliards de collisions du type LHC à chaque seconde. La possibilité que ces collisions aient de dangereuses conséquences est incompatible avec les observations des astronomes : les étoiles et les galaxies sont toujours là.

 Certaines personnes essayent de faire croire que « les collisions de particules [dans le LHC] pourraient favoriser l’apparition de micro-trous noirs. Ces derniers pourraient aspirer le monde et le faire disparaître. Le risque est suffisamment élevé pour que le projet soit stoppé ».

 Une plainte a été déposée au tribunal de Hawaï au mois de mars par Walter L. Wagner, titulaire d’un doctorat en droit et qui a étudié la physique à l’université de Californie, et Luis Sancho, écrivain et chercheur en Espagne. Ils avaient déposé la même plainte en 1999 pour l’accélérateur de particules américain du
Brookhaven National Laboratory (BNL) près de NewYork mais la plainte était restée sans suite, les autorités se déclarant incompétentes. Évidemment, il n’y a eu aucun incident près de New-York, pas plus qu’il n’y en aura à Genève.

Une autre plainte a également été déposée à la Cour Européenne des Droits de l’Homme à Strasbourg par un biochimiste et un théoricien du chaos (qui n’ont aucune compétence pour juger sérieusement des risques du LHC). La plainte a été rejetée sans surprise par la cour la semaine dernière.

 Ces plaintes n’ont aucun fondement physique et ont toutes été rejetées. Le LHC Safety Assessment Group (le Groupe d’évaluation de la sécurité des collisions du LHC ou LSAG) a réactualisé l’analyse menée en 2003 par le LHC Safety Study Group (Groupe d’étude sur la sécurité du LHC), un groupe de scientifiques indépendants et a démontré qu’il n’y avait aucun risque quant à la mise en service du LHC. On peut également consulter dans le dernier numéro du Journal of Physics G: Nuclear and Particle Physics l’article intitulé « Review of the Safety of LHC Collision ».

 Les médias et le CERN

Dans ces histoires, j’ai l’impression que des gens profitent du démarrage du LHC et de la puissance des médias auprès du public pour se mettre sous les projecteurs. Quoi de plus vendeur pour les journaux que les titres du style « La menace fantôme du trou noir » dans le numéro de Libération du 5 Septembre 2008 ou encore « La Terre aspirée par un trou noir » dans L’Express du 4 Avril 2008. On va jusqu’à pronostiquer l’Apocalypse dans le Nouvel Observateur du 8 Août 2008 qui titre « La fin du monde commencera t-elle en Suisse ? » ou encore «La fin du monde pour le 10 Septembre », dans le 7 sur 7 du 1er Septembre 2008. Le seul quotidien qui ne fait pas une tournure alarmante est Le Monde du 26 Juin 2008 : « Aucun trou noir n’engloutira la Terre à la frontière franco-suisse ». Je tiens également à signaler l’excellente émission du « Téléphone Sonne » animée par Alain Bédouet sur France-Inter hier soir au sujet du démarrage du LHC (Podcastable ici).

 Google nous fait également l’honneur aujourd’hui de mettre son logo à l’image du LHC :

A l’étranger aussi le débat fait rage. On pouvait voir dans le Sun magazine en Angleterre le titre accrocheur « End of the world due in nine days » le 1er septembre ou encore « Asking a Judge to Save the World, and Maybe a Whole Lot More » dans le New York Times du 29 Mars 2008. La
Tribune de Genève titrait le 6 Septembre « La nouvelle installation du CERN éveille les craintes les plus farfelues » en énumérant toutes les théories loufoques avec extraterrestres, mondes parallèles et théorie du complot à la clef (voir ici l’article), on nage en plein délire….

 Pour plus d’informations :

Le LHC au CERN

Le CERN, l’Organisation Européenne pour la Recherche Nucléaire, a terminé cette année la construction du plus puissant accélérateur de particules du monde : le LHC (Large Hadron Collider). Cette machine est qualifiée comme étant la machine la plus complexe jamais construite par l’homme. Le projet LHC a été pensé dans les années 80 et approuvé officiellement en 1994. Le premier coup de pelle a été donné en 1998 et sa construction avec les détecteurs, estimée à 6 milliards de francs suisses (3,75 milliards d’euros), s’est achevée en 2008. Le premier faisceau de particules fera son premier tour dans 4 jours, le 10 Septembre, et les premières collisions sont prévues pour la fin de l’année.


Le LHC dans son tunnel à 100m sous terre

Nom de code: L.H.C

Le LHC est une machine qui permet l’accélération de paquets de particules chargées en sens opposés dans un anneau de 27 km enfoui à 100 m sous terre sous la frontière franco-suisse près de Genève. L’objectif est de réaliser des collisions frontales entre ces particules à des fins purement physique pour faire avancer la Science.

  • L’ comme ‘Large’ car le LHC est un anneau de 27 km de circonférence.
  • H’ comme ‘Hadron’ car le LHC accélère des protons qui sont composés de particules appelées ‘quark’ qui appartiennent à la classe des hadrons.
  • C’ comme ‘Collider’ car le LHC est un collisionneur : il fait collisioner des protons entre eux. Voir un billet précédent intitulé comment accélérer des particules ?

Le LHC est froid

Le LHC est constitué d’aimants supraconducteurs refroidis à 1,9K (-271°C) permettant de courber et de focaliser les faisceaux de particules à l’aide de puissants champs magnétiques (voir un article précédent, les super états). Ainsi le LHC est la plus grande installation supraconductrice du monde et a nécessité la construction de gigantesques installations cryogéniques (de gros réfrigérateurs). Pour les connaisseurs, il y a une puissance de réfrigération totale de 150kW à 4,5K et de 20kW à 1,9K disponible. Le refroidissement des 27 km d’aimants nécessite 10 000 tonnes d’azote liquide et 120 tonnes d’hélium liquide dont environ 90 tonnes d’hélium superfluide. Depuis le mois de Juillet, le LHC est entièrement « froid » (-271°C).


Vue d’ensemble du LHC

 

Pourquoi le LHC ?

Chaque faisceau de particules contient près de 3000 paquets qui contiennent chacun environ 100 milliards de particules. Quand les 2 faisceaux se croisent, 1 particule sur 10 milliards a une chance d’en entrechoquer une autre. Eh oui, les particules sont très petites et elles ont peu de chance statistiquement de se rencontrer (un faisceau est en fait principalement constitué de vide). Les faisceaux tournent à environ 99,9999991% de la vitesse de la lumière et le LHC ne va donc produire « que » 600 millions de collisions par seconde. Les collisions sont réalisées en continu pendant une dizaine d’heures, les particules n’ayant pas subi de collisions pendant ces 10 heures parcourent donc au total 10 milliards de kilomètres dans le LHC (de quoi aller sur Neptune et revenir).

L’analyse des collisions permet de confirmer ou d’infirmer les théories élaborées par les physiciens sur la constitution de la matière qui nous entoure, sur le Big-Bang et les différents phénomènes observables dans l’univers.  Le LHC devrait répondre dans les prochaines années aux interrogations suivantes :



– Est-ce que le boson de Higgs existe? Ce fameux boson est une particule élémentaire prédite par la théorie du modèle standard mais jamais observée. Elle
expliquerait l’origine de la masse, pourquoi certaines particules élémentaires ont des masses différentes et pourquoi certaines n’en n’ont pas.

– Nous observons 4% de la matière dans l’univers. Les 96% restant serait constitués de matière noire et d’énergie sombre. Les expériences du LHC
chercheront ce qu’on appelle des particules supersymétriques permettant d’expliquer la matière noire.

– Est-ce que l’antimatière est une réflexion parfaite de la matière? Comment se fait-il que toute l’antimatière a disparu pour laisser la place à la matière ?

– A quoi ressemblait la matière juste après le Big-Bang ? Étude des plasmas de quarks et de gluons.

– Existe-t-il d’autres dimensions, comme le prédisent de nombreux modèles inspirés de la théorie des cordes et si oui, peut-on les « voir »?

Le LHC ne fait jamais que reproduire des collisions qui se produisent tous les jours dans notre univers. Seulement ici ces collisions sont créées artificiellement pour permettre à l’homme de les analyser dans des détecteurs gigantesques. Cependant les énergies mises en jeu dans le LHC restent inférieures aux énergies que l’on rencontre lors de certaines collisions cosmiques.

 Les expériences du LHC

Le LHC va provoquer des collisions à 4 points distincts de la machine dans lesquels se trouvent de gigantesques expériences (ATLAS, CMS, ALICE
et LHCb).

ATLAS et CMS tenteront de découvrir le boson de Higgs, d’éventuelles supersymétries et des dimensions cachées de l’Univers. ATLAS est la plus grande (46m de long, 25m de haut et 25m de large) et possède le plus grand
supraconducteur du monde (voir photo). CMS est la plus lourde des expériences avec ses 12 500 tonnes et possède l’aimant supraconducteur le plus puissant du monde (il emmagasine 2,5 GJ). ALICE reconstituera les conditions de l’Univers juste après le BIG-BANG et LHCb étudiera les différences matière-antimatière.



L’expérience ATLAS pendant sa construction avec un homme au centre des 8 bobines supraconductrices toroidales

Ces expériences sont constituées d’un  ensemble de détecteurs permettant la détection de différentes particules. Ce sont de gigantesques oignons organisés en une multitude de couches successives. Une couche va laisser passer certaines particules  et en stopper d’autres en provoquant des désintégrations successives (avalanches). L’analyse des traces laissées sur l’ensemble des couches permet de dire avec précision quelle particule est passée à quel endroit.

L’ensemble des détecteurs produira au total 15 000 000 de Giga Octets de données par an (soit une pile de CD de 20 km de haut).


Illustration du passage de différents types de particules dans les différentes couches des détecteurs