Archives pour la catégorie Phys. Particules/Quantique

L’hélium superfluide

Etant ingénieur pour l’opération du système cryogénique du LHC au CERN (Organisation Européenne pour la Recherche Nucléaire) à Genève, j’ai la chance de travailler avec le plus grand stock d’hélium superfluide du monde : le LHC en contient environ 100 tonnes pour fonctionner…

Mais c’est le dernier livre de Sébastien Balibar, « Savant cherche refuge », qui m’a donné envie d’écrire cet article. En effet, la superfluidité, phénomène pour le moins extraordinaire à notre échelle, a été découvert et expliqué dans un climat international inédit avec de nombreux chercheurs cherchant à se réfugier des désastres de la guerre pour mener à bien leurs recherches.

Aujourd’hui, on trouve de l’hélium superfluide dans les laboratoires du monde entier (et surtout au CERN !) mais son obtention et sa compréhension a été pour le moins « complexe » et a fait couler beaucoup d’encre avant d’arriver à un résultat faisant consensus auprès des physiciens. Cette découverte est une grande découverte scientifique et son histoire, comme toute grande découverte scientifique, est passionnante…

Pourquoi superfluide ?

Tout d’abord quelques éclaircissements sur ce qu’est un superfluide. Dans la nature, il existe plusieurs états de la matière comme l’état solide, gazeux ou liquide (en fait l’état le plus abondant dans l’univers est l’état de plasma dont sont composés les étoiles). Mais il en existe au moins un autre, moins connu: l’état superfluide. Cet état a été observé dans l’hélium à très basse température, en dessous de 2,17 Kelvin, soit environ -217 degrés Celsius. Alors, qu’est ce qui caractérise les superfluides ? Eh bien, quand on fait des expériences avec, on observe des comportements tout à fait impossibles avec tous les autres fluides. Voici quelques exemples:

  • Prenez un tube de quelque millième de millimètre et essayer de faire circuler un liquide dedans : c’est impossible, sauf pour un superfluide qui s’engouffre dedans sans problème et s’écoule librement.
  • Verser un liquide dans un verre : le liquide est censé rester au fond, eh bien pas le superfluide qui va remonter le long des parois et sortir tout seul du verre.
  • Prenez une paille et faite la tourner dans un verre rempli de liquide, tout le liquide va rapidement se mettre à tourner avec la paille, eh bien pas le superfluide qui va rester immobile!
  • Chauffez une piscine olympique avec une résistance chauffante plongée à l’intérieur : peu à peu, toute la piscine va se réchauffer et ça va prendre pas mal de temps avant d’avoir la même température partout.  Eh bien, si vous remplissiez votre piscine de superfluide, toute la piscine aura la même température à tout moment, comme si la chaleur se propageait instantanément.

Vous l’aurez compris, un superfluide, c’est bizarre ! C’est un liquide qui ne possède pas de viscosité avec une capacité de transporter la chaleur de manière parfaite.

La chose qui a mis en déroute les physiciens est le fait que l’hélium en dessous de 2,17 K est en fait un mélange de 2 fluides : une composante normale (nommée « He I ») et une composante superfluide (nommée « He II ») qui peuvent se déplacer indépendamment l’un de l’autre, et plus on refroidit le mélange, plus la composante superfluide est importante. C’est cette particularité qui a engendré des phénomènes parfois contradictoires selon les expériences mise en œuvre. Mais maintenant, intéressons-nous à l’histoire passionnante de cette découverte.

Les personnages

Les protagonistes principaux sont les suivants (par date de naissance):

  • Willem Hendrik Keesom (1876), néerlandais ayant travaillé à Leyde avec H.K. Onnes, le premier à avoir liquéfier de l’hélium en 1908. Keesom est l’un des premiers à avoir noter une transition importante à 2,17 K dans l’hélium dès 1927.
  • Piotr Kapitsa (1894), russe, découvreur de la superfluidité en 1937. Nobel 1978.
  • Fritz London (1900), allemand, c’est le premier à proposer « l’idée folle » que la superfluidité est un phénomène quantique macroscopique.
  • Laszlo Tisza (1907), hongrois, le fil conducteur du livre de S. Balibar, c’est lui qui proposera le premier modèle théorique « sérieux » le la superfluidité : le fameux modèle à 2 fluides.
  • Lev Landau (1908), russe, il est à l’origine de la compréhension profonde de la superfluidité et aboutira à un modèle théorique complet du phénomène au début des années 40. Nobel 1962.
  • Jack Allen (1908), canadien, découvreur de la superfluidité en 1937 avec Don Misener à Cambridge, indépendamment de Kapitsa et en même temps.

Haut : Kapitsa, Landau, Allen.
Bas: London, Tisza, Keesom

Les lieux

Les personnages étant posés, voici les lieux où se déroulent cette aventure (par ordre alphabétique) :

  • Cambridge, Angleterre : laboratoire de Allen et Misener où la superfluidité sera étudiée pour la première fois (enfin en même temps que Kapitsa à Moscou).
  • Etats-Unis : Refuge de très nombreux scientifiques européens pendant cette période de trouble. London et Tisza y trouveront refuge pendant la guerre.
  • Kharkov, Ukraine : Landau a commencé ses recherches à l’université de Kharkov et Tisza y fera un séjour en 1937, l’année où la superfluidité sera découverte.
  • Leyde, Pays-Bas : Berceau de la physique des basses températures à l’hélium ayant hébergé Onnes et Keesom. Laboratoire ayant produit les premières gouttes d’hélium liquide (et de superfluide sans le savoir) dès 1908.
  • Moscou, Russie : Landau et Kapitsa passeront une bonne partie de leur temps de recherche à l’institut des problèmes physiques de Moscou.
  • Oxford,Angleterre: l’hélium superfluide coula aussi très tôt à Oxford et hébergera de nombreux scientifiques liés à la superfluidité comme London.
  • Paris, France : De nombreux efforts ont été fait à Paris pour héberger les scientifiques menacés par les nazis. London et Tisza y trouveront refuge plusieurs années, aidés par de nombreuses personnes dont Louis Rapkine qui a joué un rôle clé.

Pendant l’entre-deux guerre puis pendant la deuxième guerre mondiale, les scientifiques prometteurs comme les acteurs de la superfluidité seront aidés par des bourses leur permettant de subvenir à leurs besoins et de voyager dans les différents laboratoires dans le monde « relativement » facilement pour cette époque. La plus connue est sans doute la bourse Rockefeller qui a sauvée de nombreux chercheurs prestigieux en ces périodes de troubles. J’ai essayé de retracer quelques parcours des protagonistes de la superfluidité (ce n’est pas exhaustif mais j’ai essayé de faire de mon mieux) :

  • Kapitsa : Saint Petersbourg => Cavendish (1923) => Moscou (1934)
  • Tisza : Budapest (1907) => Paris (1937) => Toulouse (1939) => Lisbonne (1940) => Etats-Unis (1941).
  • London : Breslau (1900) => Berlin ( ???) => Rome (1931) => Berlin (1932) => Oxford (1933) => Paris (1936) => Etats-Unis (1939).
  • Landau : Bakou (1908) => Petrograd (1922) => Voyage à travers l’Europe (1929): Gottingen, Leipzig, Copenhague, Cambridge, Zurich   => Leningrad (1931) => Kharkov (1932) =>   Moscou (1937) => Boutyrskaïa, prison proche de Moscou (1938) => Moscou (1939).

Qui a découvert la superfluidité ?

Visiblement, tout porte à croire que Kapitsa et Allen ont « découvert » la superfluidité à peu près en même temps et de manière indépendante en 1937. Mais disons-le clairement, cette « découverte » était dans l’air du temps et plusieurs équipes avaient déjà dans les années précédentes mis en avant l’existence de deux héliums liquides bien distincts (l’hélium I et II) séparés par le « point lambda » autour de 2,17 K. Ce nom « lambda » a d’ailleurs été donné par Keesom en 1927 à Leyde en référence à la forme de la chaleur spécifique (i.e. la quantité d’énergie à apporter au liquide pour élever sa température de 1 degré) de l’hélium en fonction de sa température autour de 2,17 K qui ressemble à la lettre grecque lambda (λ). Je rappelle que Leyde (situé aux Pays-Bas) est le berceau de l’hélium liquide qui fut découvert peu avant par H.K Onnes en 1908 (détails ici).


Mesure de la chaleur spécifique de l’hélium autour de 2,17 K par Keesom en 1927 à Leyde ayant la forme du lambda grecque.

En revanche, c’est bien Kapitsa qui a inventé le mot « superfluide ». Allen et Kapitsa ont pu observer et publier des résultats montrant que l’hélium en-dessous de 2,17 K semble présenter une viscosité extrêmement faible. Ils publièrent d’ailleurs tous les deux leur article dans le même numéro de Nature en Janvier 1938 dans deux pages consécutives.  L’article de Kapitsa avait pour titre “Viscosity of liquid helium below the λ-point” alors qu’Allen titrait “Flow of liquid helium II”. C’est dans cet article que Kapitsa énonça sa phrase célèbre qui est étonnemment clairevoyante en y repensant avec le recul d’aujourd’hui : « by analogy with superconductors, that the helium below the λ-point enters a special state which might be called superfluid« . En effet, leurs expériences montrèrent que l’hélium liquide en dessous de cette température entre dans un état spécial, car quantique, tout comme la supraconductivité mais ils ne le savaient pas encore à cette époque ! Le superfluide peut s’écouler dans des capillaires (de tout petits tuyaux) ou dans des fentes de taille microscopique sans aucun problème, ce qu’aucun autre fluide ne peut faire à cause du phénomène de viscosité qui tend à « freiner » les écoulements.

Pour faire court, on apprend à l’école que la vitesse d’un fluide dans un tuyau dépend de la taille du tuyau (plus il est gros et plus le fluide va vite) et de la différence de pression entre l’entrée et la sortie (plus la différence de pression est grande, plus le fluide va vite). Et quand Kapitsa et Allen (qui sont allés à l’école comme vous et moi) ont voulu vérifier cela avec L’hélium superfluide, ce n’est pas du tout ce qu’ils ont pu mesurer : si on fait varier la taille de ces capillaires, même d’un facteur 1000, la vitesse d’écoulement n’est quasiment pas modifiée. De même en faisant varier la différence de pression entre l’entrée et la sortie, la vitesse du superfluide demeurait constante, ce qui contredisait catégoriquement la mécanique des fluides ! Et on ne peut pas renier ce genre de chose comme ça ! Ce genre de contradiction s’appelle tout simplement une « grande découverte scientifique ».

Qui a compris la superfluidité en premier ?

Voici mon sentiment après la lecture du dernier livre de S. Balibar: c’est bien London le premier à avoir senti ce qu’était la superfluidité, à savoir un phénomène quantique à l’échelle macroscopique correspondant à un genre de condensat de Bose-Einstein dans un liquide. London écrira d’ailleurs en 1938 à son frère Heinz « j’ai trouvé une chose folle » en parlant de cette découverte. Il publiera ensuite une note dans la revue Nature à ce sujet le 5 mars 1938 : « the lambda-phenomenon of liquid helium and the Bose-Einstein degeneracy ».

C’est ensuite Tisza qui a immédiatement posé les bases d’un premier modèle original, le fameux modèle à deux fluides, intuition de génie pour expliquer les phénomènes observés, extrêmement étranges et parfois contradictoires. London rejettera ce modèle à tort mais Tisza persévéra et publia peu après une note en Mai 1938 dans Nature portant le titre « Transport Phenomena in Helium II » où il introduit ce modèle qui deviendra un modèle puissant, intuitif et simple à utiliser pour calculer les propriétés de l’hélium superfluide.

Enfin, Lev Landau, petit génie de la physique, reformule de manière plus rigoureuse le modèle à deux fluides pour aboutir à un modèle cohérent et complet qu’il publie en 1941 dans Physical Review. Pour expliquer la superfluidité, Landau se base entre autre sur la propagation et l’oscillation de quasi-particules: les phonons et les rotons (inventés par l’occasion par Landau). Landau recevra seul le Nobel sur ce sujet, ce qui peut paraitre un peu injuste vis-à-vis de London et Tisza…

Pour aller plus loin

Voilà ce que j’avais à dire sur ce sujet mais si vous voulez en savoir plus, c’est sans contestation Sébastien Balibar la référence française en la matière, alors voici quelques conseils de lecture :

La résonance

Le phénomène de résonance est présent dans de nombreux domaines de la physique et est utilisé dans de très nombreuses applications, de la balançoire aux accélérateurs de particules. Parfois embêtant, il peut aussi s’avérer fort utile, voire indispensable.

Un peu d’étymologie pour commencer. On a tendance à associer la résonance au domaine de l’acoustique dans le langage courant signifiant « prolongation de la durée d’un son » depuis le 14ème siècle mais cette définition n’est plus d’actualité puisque la résonance peut s’étendre à tous les phénomènes ondulatoires dans lesquels une onde peut se propager et induire une vibration. En dehors des ondes acoustiques, on peut citer les ondes sur cordes vibrantes, les ondes sismiques, les vagues ou encore les ondes électromagnétiques comme la lumière ou la radio.

Si on s’intéresse aux ondes mécaniques, toute structure possède des fréquences propres, c’est-à-dire des fréquences auxquelles une structure mécanique peut vibrer si on excite cette fréquence particulière. Le meilleur exemple est sans doute la balançoire : en tendant les jambes à un moment bien précis, on donne une impulsion de manière répétée à intervalle régulier (à une fréquence constante), induisant une oscillation. Dans le cas de la balançoire, les équations de la mécanique nous permettent de calculer précisément la fréquence de résonnance (ou d’un pendule simple), qui est fonction de l’amplitude du mouvement.

Les résonances néfastes

Toutes les constructions, comme les ponts, possèdent donc une fréquence propre qui peut être amplifiée si on l’excite suffisamment, c’est-à-dire si on applique une force suffisante dans la bonne direction et à la bonne fréquence, avec des rafales de vents périodiques par exemple ou des soldats qui marchent au pas. Un pont peut ainsi entrer en résonance, provoquant de fortes oscillations jusqu’à son effondrement ! On peut mentionner le cas du pont suspendu de la Basse-Chaîne sur la Maine à Angers qui s’effondra en 1850 suite au passage de militaires marchant au pas (les 226 soldats perdirent la vie). Cependant, l’origine exacte de l’effondrement du pont de la Basse-Chaîne fait toujours débat car une tempête sévissait ce jour-là et le règlement militaire exigeait déjà à cette époque de ne pas marcher au pas sur les ponts…

La rupture du pont de la Basse-Chaîne à Angers en 1850.

On mentionne aussi souvent l’histoire du pont de Tacoma (USA) en 1940 qui serait entré également en résonance suite à des rafales de vent. Cependant, plusieurs études scientifiques ont montré que ce pont ne s’est pas écroulé à cause du phénomène de résonance mais à cause d’une instabilité aéroélastique de torsion engendrée par le vent, voir la vidéo impressionnante de cette catastrophe (le pont a oscillé pendant plus d’une heure avant de s’effondrer) : https://www.youtube.com/watch?v=Rmfl2kFeNPM

En automobile également, nombreuses sont les résonances qui peuvent nous agacer. Vous roulez sur l’autoroute à faible vitesse et tout va bien… Vous décidez alors d’accélérer et là, tout à coup, un bourdonnement survient et persiste, vous accélérez encore et le bruit disparait : vous venez de faire entrer en résonance une partie de votre voiture (carrosserie, pneumatique, etc.), liée à la fréquence de rotation du moteur ou des roues, qui est proportionnelle à la vitesse du véhicule. Pour cette raison les pneumatiques sont désormais équipés de motifs non périodiques (i.e. qui ne se répètent pas parfaitement) pour éviter tout phénomène de résonance au niveau des pneus. Les amortisseurs des automobiles sont également conçus pour avoir des fréquences de résonance qui ont le moins d’impact possible sur le corps humain, moyennant sinon une gêne importante, voire un mal des transports. Comme le mentionne A. Létévé dans sa thèse, « Il s’avère que la plage de fréquence de 0 à 20 Hz dans laquelle le corps humain est extrêmement sensible aux vibrations verticales correspond à la plage de fonctionnement de la suspension ». Il y a clairement des fréquences à éviter pour le corps humain, comme entre 4 Hz et 11 Hz qui entrainent des douleurs similaires à celle d’un infarctus (le cœur a une fréquence de résonance de 7 Hz).

Décomposition du corps humain en systèmes masses ressorts amortisseurs avec les fréquences de résonance de chaque partie. Extrait de la thèse de Aurore Létévé (2014).

Les résonances vertueuses

En musique

La première résonance à laquelle on pense est bien entendu en musique. En effet, les instruments à cordes et à vent ainsi que les percussions exploitent le phénomène de résonance pour former des notes bien précises et pouvoir ainsi jouer un morceau de musique. Sans résonance, pas de musique…

Les instruments à cordes possèdent plusieurs fréquences de résonance qui dépendent de la longueur, de la masse et de la tension de chaque corde. C’est pour cette raison qu’on accorde la plupart de ces instruments en réglant la tension de chaque corde pour obtenir la résonance à la fréquence/note voulue (la masse et la longueur étant constantes). Cette résonance se produit sur l’onde mécanique qui se propage le long de la corde lorsque cette dernière est excitée par une impulsion qui en théorie contient toutes les fréquences. La corde produit alors un son contenant uniquement les fréquences de résonance de la corde (appelées fréquences propres) car toutes les autres fréquences sont rapidement atténuées et disparaissent sans pouvoir être entendues et amplifiées par le corps de l’instrument. L’impulsion initiale est générée par le musicien soit par un pincement (guitare, harpe…), soit par un coup (piano, clavecin…), soit par un frottement avec un archer (violon, violoncelle…). Pour information, la physique des cordes vibrantes est modélisée une équation aux dérivées partielles qui fut resolue par d’Alembert en 1747 et qui s’étudie généralement dans les classes préparatoires scientifiques.

L’équation des ondes qui modélise la propagation d’une onde dans un milieu continu et infini.

En imagerie médicale

Le phénomène de résonance est la clef de voute d’une technique d’imagerie médicale que vous connaissez : l’IRM (Imagerie par Résonance Magnétique). Ici, la résonance n’est pas mécanique comme dans le cas de la balançoire ou des ponts mais magnétique. Un champ magnétique constant est appliqué sur le patient ainsi qu’un champ oscillant pour exciter les spins des atomes du corps humain (propriété quantique des atomes) et les faire entrer en résonance pour les détecter et fabriquer une image, c’est ce qu’on appelle la résonance magnétique nucléaire, voir mon article précédent de la RMN à l’IRM.

En physique des hautes énergies

Une autre application moins connue du grand public est l’accélération des particules à hautes énergies avec des cavités radiofréquences (RF). Pour accélérer des particules chargées, on utilise un champ électrique (les particules positives/négatives sont accélérées par une tension électrique opposée à leur charge). On peut alors utiliser le phénomène de résonance pour améliorer cette accélération en donnant une petite impulsion aux particules à une fréquence précise. Pour induire cette résonance, une onde électromagnétique est envoyée dans une cavité ayant une forme bien particulière permettant la résonance des ondes à la fréquence propre de la cavité, de l’ordre de la centaine de MHz, c’est-à-dire dans la gamme des fréquences radio (d’où le nom de cavités RF). Les cavités sont agencées en série pour accélérer les particules en ligne droite et le champ électrique est alors inversé quand les particules passent au centre d’une cavité de telle manière à ce que les particules « voient » toujours une tension opposée à leur charge pour être accélérées de proche en proche continuellement. Je vous conseille de voir cette petite vidéo du CERN (Organisation Européenne pour la Recherche Nucléaire) sur le fonctionnement des cavités RF du LHC qui illustre bien le phénomène:  https://videos.cern.ch/record/1750705

Un des modules DTL du Linac 4 en train d’être assemblé au CERN (Image: Maximilien Brice/CERN). On peut voir les cavités RF au centre du module entre lesquelles les particules sont accélérées.

Le CERN en 13 photos de 2016

Bonne année 2017 !

Pour commencer l’année, voici ma sélection d’une photo par mois prises en 2016 au CERN (Organisation Européenne pour la Recherche Nucléaire), pour parler un peu de tous les projets, et pas seulement de l’accélérateur de particules LHC. Vous noterez néanmoins que 3 photos sont liées au HL-LHC qui rentrera en service en 2026 et constituera une amélioration majeure du LHC.

Mais avant tout, voici ma photo préférée hors catégorie pour 2016 : une photo prise en Novembre 2016 du calorimètre 4-Pi de nTOF EAR1. Cette expérience de physique s’intéresse au temps de vol des neutrons pour déterminer avec précision leur énergie cinétique et ainsi mieux les comprendre. Ces neutrons sont produits à partir de collisions entre un faisceau de protons pulsé de 20 GeV/c du Proton-Synchrotron (PS) et d’une cible fixe de spallation en plomb. Après 185 mètres de vol, les neutrons arrivent dans ce calorimètre pour mesurer leur énergie.

© CERN. Photograph: Brice, Maximilien

Janvier 2016

Transport du TDI pour HL-LHC. Le TDI (Target Dump Injection) permet d’absorber les éventuelles pertes de faisceau lors de son injection entre une ligne de transfert et un accélérateur. Cet élément est ainsi une protection de la machine pour éviter d’éventuels dommages occasionnés par le faisceau si son insertion dans la machine est défaillante.

© CERN. Photograph: Bennett, Sophia Elizabeth

Février 2016

Installation de la cellule plasma de AWAKE dans l’ancienne zone souterraine de CNGS. Voir mon billet de l’année dernière sur AWAKE qui accélèrera très prochainement des électrons par effet sillage dans un plasma de rubidium à partir d’un faisceau de protons de 400 GeV provenant du SPS.

© CERN. Photograph: Brice, Maximilien

Mars 2016

Test de modules pour HIE-ISOLDE en salle blanche au SM18. Isolde est une expérience de séparation d’isotopes pour produire des éléments exotiques. HIE-ISOLDE permettra de ré-accélérer à hautes énergies (jusqu’à 5,5 MeV/u) des faisceaux d’ions radioactifs créés à partir de collisions entre un faisceau de protons de 1.4 GeV issu du PSB (Proton-Synchrotron Booster) et d’une cible fixe.

© CERN. Photograph: Brice, Maximilien

Avril 2016

Prototype d’écran de faisceau pour le FCC-hh. Vous connaissez ce projet d’accélérateur de particules de 100 km de circonférence ? C’est le FCC (Future Circular Collider). Voir ce billet de juillet 2015 pour plus d’informations. L’écran de faisceau permet de capturer toutes les sources de chaleur (lumière synchrotron, courant image, nuage d’électrons) issus du faisceau pour limiter les charges thermiques sur les aimants supraconducteurs refroidis à très basse température tout en assurant un vide extrême dans le tube faisceau.

© CERN. Photograph: Brice, Maximilien

Mai 2016

Premier câble supraconducteur en niobium-étain pour le HL-LHC en train d’être fabriqué à l’aide d’une machine Rutherford au bâtiment 163. Ce câble sera utilisé dans un dipôle de 11 Teslas ! Les câbles supraconducteurs des aimants du LHC sont actuellement tous en niobium-titane et produisent un champ magnétique de 8 Teslas. A partir de 2026, le HL-LHC possèdera 8 nouveaux dipôles de 11 Teslas et 24 nouveaux quadrupôles de 12 Teslas autour des points de collisions de ATLAS et CMS. C’est plus de 1 km de LHC qui sera remplacé.

© CERN. Photograph: Brice, Maximilien

Juin 2016

Un bébé faucon sauvé par un employé sur un parking du CERN à Meyrin. Il a été remis aux autorités compétentes pour le nourrir et le protéger. Il sera ensuite remis en liberté dans la région.

© CERN. Photograph: Bennett, Sophia Elizabeth

Juillet 2016

Le groupe de rock « MUSE » visite le Centre de Contrôle du CERN (CCC) en présence de Mike Lamont, le chef de l’opération des accélérateurs (à gauche). C’est depuis cette salle que tous les accélérateurs et leurs infrastructures sont pilotés 7j/7 et 24h/24. Le CERN reçoit régulièrement des « VIP » souhaitant visiter ses installations et le CERN reçoit au total plus de 100 000 visiteurs par an !  Si l’envie vous prend, n’hésitez pas : https://visit.cern/

© CERN. Photograph: Brice, Maximilien

Aout 2016

Salle de contrôle du centre de calcul (bâtiment 513). Tout est « vert » : les données issues des collisions des détecteurs du LHC sont en sécurité.

© CERN. Photograph: Brice, Maximilien

Septembre 2016

Expérience ALFA, au point 1 du LHC (détecteur ATLAS). ALFA (Absolute Luminosity For ATLAS) est constitué de 4 « pots romains » (2 de chaque côté du point de collision) qui permettent de mesurer la luminosité lors des collisions élastiques de protons dans le détecteur ATLAS. Ces collisions élastiques n’ont lieu que lorsque les faisceaux se croisent avec un angle très faible dans le LHC (avec un très grand beta*). Dans ce cas, les protons se « traversent » l’un l’autre tout en restant intacts mais en changeant de direction. Un article récent du bulletin du CERN explique tout cela assez clairement. Extrait: « L’objectif de physique de l’expérience ATLAS/ALFA consiste également à réaliser une mesure précise de la section efficace proton-proton totale, puis d’utiliser cette mesure afin de déterminer la luminosité absolue du LHC au point 1 pour l’exploitation avec un bêta étoile de 2,5 km. »

© CERN. Photograph: Suykerbuyk, Ronaldus

Octobre 2016

Fin des travaux de ICARUS au bâtiment 156 avant son transport vers les USA. ICARUS est un ancien détecteur de neutrinos utilisé au laboratoire de Gran Sasso en Italie en collaboration avec le CERN (ancienne expérience CNGS). Ce détecteur a été entièrement « remis à jour » au CERN cette année pour être réutilisé dans deux nouvelles expériences de neutrinos à Fermilab aux USA près de Chicago.

© CERN.Photograph: Steyaert, Didier.

Novembre 2016

Premier faisceau dans le tout nouveau décélérateur ELENA. Eh oui, au CERN, on ne fait pas qu’accélérer des protons, on décélère aussi des anti-protons pour étudier l’antimatière. ELENA permet de décélérer encore plus des anti-protons venant de AD (Antiproton Decelerator) jusqu’à 5,3 MeV.

© CERN. Photograph: Brice, Maximilien

Décembre 2016

Non ce n’est pas un gâteau d’anniversaire mais un prototype de quadrupôle 12 Teslas pour le HL-LHC imprimé en 3D. Les futurs quadrupôles du HL-LHC permettront de beaucoup plus concentrer les faisceaux qu’avec le LHC pour produire 10 fois plus de collisions dans le même temps. Les imprimantes 3D permettent aujourd’hui de concevoir des prototypes réalistes en peu de temps et à moindre coût avant de passer au prototypage avec les matériaux réels souvent très onéreux.

© CERN. Photograph: Bennett, Sophia Elizabeth.

L’accélération plasma par sillage

L’accélération plasma est devenue une technique très à la mode en physique des particules car prometteuse pour l’avenir, mais que ce que cache exactement derrière ce terme ?

En effet, ce type d’accélération s’oppose aux accélérateurs « conventionnels » où les particules sont accélérées par des cavités radiofréquences au sein d’accélérateurs gigantesques (et donc onéreux) de plusieurs dizaines de kilomètres pour les plus grands. Dans l’accélération plasma, fini les cavités radiofréquences ! Les particules sont accélérées par le sillage (wakefield en anglais) laissé par une particule dans un plasma et cela permet de réduire la taille des accélérateurs par un facteur d’au moins 500! La réduction de la taille et donc du coût de ces accélérateurs, en font d’excellents candidats pour les applications industrielles et médicales de demain mais il reste encore du chemin à parcourir…jean-gouffon2

Un peu d’histoire

Le concept a été imaginé à la fin des années 70 à l’université de Californie (UCLA), voir ce papier de Tajima et Dawson. Les premiers prototypes ont vu le jour dans les années 80 et se sont révélés prometteurs. Après plus de 30 ans d’expériences et d’idées nouvelles, plusieurs grands centres de recherche, aux Etats-Unis principalement, ont réussi à atteindre des énergies relativement importantes, de l’ordre du GeV (Giga Electronvolt) sur de petites distances tout en ayant une bonne répétabilité des expériences. Tous les grands centres de recherche en physique planchent aujourd’hui sur cette « nouvelle » technique.

Le principe

Tout d’abord, rappelons qu’un plasma est un état de la matière où les électrons se meuvent librement. Cela se produit en général dans des gaz chauffés à haute température (plus de 2000 degrés) ou exposés à de très forts champs magnétiques. L’état plasma est en fait l’était de la matière le plus commun dans l’univers car les étoiles sont des plasmas. Sur terre, on peut citer les éclairs et les néons qui sont aussi des plasmas.

Un plasma, vu de loin, est électriquement neutre: il y a autant de charges négatives dues aux électrons que de charges positives dues aux ions. Cependant, si on arrive à séparer les électrons des ions localement, on peut créer un champ électrique important sur une très faible distance et donc accélérer des particules. Pour séparer les électrons des ions longitudinalement, il existe plusieurs techniques pour former un sillage dans le plasma, créant ainsi localement d’importants champs électriques. Ce sillage peut être provoqué par plusieurs types de particules traversant le plasma :

  • Un paquet d’électrons
  • Un paquet de protons
  • Une impulsion laser (un paquet de photons)

Aux Etats-Unis : Laser-Plasma

La plupart des expériences aux Etats-Unis s’intéressent à l’accélération laser-plasma car plus simple à mettre en œuvre et jugée plus prometteuse pour les applications. En effet, il parait plus simple et plus économique de mettre en place un LASER très puissant, plutôt qu’un autre accélérateur de particules en amont pour fabriquer le sillage. Citons quelques réussites d’accélération laser-plasma aux Etats-Unis :

  • Au LBNL (Lawrence Berkley National Laboratory): des électrons sont accélérés à 1 GeV en 3,3 cm.
  • A l’université du Texas (Austin): des électrons sont accélérés à 2 GeV en 2 cm (c’est le record actuel).
  • Au SLAC : un gain de 40 GeV est apporté à un faisceau d’électrons en seulement 85cm.

berkley_laserplasmaLe LBNL a produit un faisceau d’électrons de 1GeV sur 3.3 cm. © Lawrence Berkeley National Laboratory.

A titre de comparaison, il faut aujourd’hui compter environ 65 mètres pour accélérer des électrons à 1 GeV avec les techniques traditionnelles (cavités radiofréquences), on voit bien ici l’immense potentiel de l’accélération plasma pour les applications industrielles et médicales.

 Au CERN : AWAKE

Quant au CERN à Genève (Organisation Européenne pour la Recherche Nucléaire), une nouvelle expérience est en train de voir jour sur cette thématique qui s’appelle AWAKE (Advanced Wakefield Acceleration). Ici, c’est un faisceau de protons provenant d’un accélérateur classique de 7km (le SPS) à 400 GeV qui va venir créer le sillage dans un plasma pour accélérer des électrons sur une dizaine de mètres jusqu’à une énergie de 1 TeV. Cette énergie (1TeV = 1 000 GeV) est mille fois plus importante que les autres expériences d’accélération plasma mais n’oublions pas qu’ici la source pour créer le sillage provient d’un accélérateur classique de 7 km de circonférence tout de même… Cette technique, encore jamais expérimentée, sera ici mise sur pied pour la première fois dans l’objectif de remplacer les cavités radiofréquences classiques des futurs grands accélérateurs de particules (on en est encore très loin, mais il faut bien commencer quelque part !). awake

Schéma général de l’expérience AWAKE. © CERN.

Vous constaterez tout de même la présence d’un LASER dans cette expérience AWAKE car les paquets de protons doivent être du même ordre de grandeur que la longueur d’onde du plasma et il faut donc les « découper » à la bonne taille. C’est avec un puissant laser qu’on va réaliser cette tâche : chaque paquet du SPS va être divisé en environ une centaine de plus petits paquets en utilisant une instabilité d’auto-modulation dans le faisceau de protons. Voir cette vidéo qui vaut toutes les explications du monde.

AWAKE réutilise des installations souterraines existantes au CERN qui hébergeaient auparavant CNGS (expériences sur les neutrinos vers Gran-Sasso). Cependant, deux nouveaux petits tunnels sont en train d’être excavés dans la zone existante pour héberger la ligne LASER ainsi que la source d’électrons. Si tout va bien, les premiers électrons devraient être accélérés fin 2016.

awake_tunnel

Excavation d’un nouveau tunnel pour AWAKE. © CERN.

FCC: le CERN étudie un accélérateur de 100 km !

Nom de code : FCC pour Future Circular Collider, c’est le nom du projet qui regroupe un ensemble d’études pour des futurs grands accélérateurs de particules circulaires de l’ordre de 100 km de circonférence dans la région de Genève où le CERN exploite actuellement le plus grand accélérateur de particules du monde, le LHC (Large Hadron Collider), qui mesure 27 km de circonférence.

FCC_planLocalisation du FCC par rapport au LHC dans la région genevoise. Le FCC passerait sous le lac Léman  et contournerait le massif du Salève entre Suisse, Ain et Haute Savoie. © CERN.

Un accélérateur de 100 km pour faire quoi ?

Si le LHC ne trouve pas de nouvelles particules jusqu’à son énergie maximale en 2018  (14 TeV au centre de masse), cela peut signifier qu’il y a peut-être des particules encore plus massives au-delà de cette énergie qui pourraient répondre aux questions des physiciens qui restent toujours en suspens:

  • Qu’est-ce que la matière noire ?
  • Quelles sont tous les constituants de la matière ?
  • Quelle est l’origine de l’asymétrie matière/antimatière ?
  • Pourquoi la masse des neutrinos est si petite et ont-ils des partenaires super-massifs ?
  • Les particules ont-elles des partenaires super-symétriques ?
  • Y a-t-il d’autres forces dans la nature à plus hautes énergies ?

La communauté internationale s’est donc fixé une limite de 100 TeV au centre de masse (soit 7 fois plus que le LHC) pour repousser cette limite où notre technologie future devrait pouvoir nous conduire mais il y a beaucoup de recherche et de développement à faire pour arriver à ce résultat extrêmement ambitieux. Beaucoup de gens du métier disent que « c’est complètement fou, c’est impossible » mais un ancien responsable de la construction du LHC me disait il y a quelques mois que « c’est exactement ce que tout le monde disait dans les années 80 en parlant du LHC, mais c’est aujourd’hui une réalité et un succès, alors pourquoi serait-ce différent avec le FCC ? ».

En effet, maintenant que le LHC fournit ses résultats et que le boson de Higgs a été découvert à une énergie de 125 GeV, la communauté internationale étudie dès à présent l’ère post-LHC.  Lors de la dernière réunion de la stratégie européenne en physique des particules à Bruxelles en mai 2013, plusieurs grandes priorités pour l’Europe ont été définies dont la nécessité de commencer à étudier des accélérateurs protons-protons et électron-positrons repoussant la limite d’énergie à la frontière des technologies possibles (voir le résumé ici).

FCC_membersParticipants au meeting du coup d’envoi pour le FCC à l’université de Genève en février 2014. ©CERN.

Le CERN doit maintenant rendre une étude conceptuelle détaillée (CDR pour Conceptual Design Report) comprenant les différents aspects du FCC pour la physique, les détecteurs, les accélérateurs et les infrastructures associées pour 2018, date à laquelle une décision devrait être prise par l’Europe, tout en considérant les données fournies par le LHC pendant sa deuxième phase d’exploitation 2015-2018.

Les différents projets

Le FCC encapsule 3 projets de collisionneurs circulaires d’une centaine de kilomètres :

  • FCC-hh : Un collisionneur hadronique proton-proton avec une énergie de 100 TeV au centre de masse (pour comparaison, le LHC est à 14 TeV)
  • FCC-ee (anciennement dénommé TLEP) : Un collisionneur leptonique électron-positron fournissant des faisceaux à des énergies de 45 GeV à 175 GeV (pour comparaison, le LEP2 était à 104 GeV par faisceau).
  • FCC-he : Un collisionneur lepton/hadron réalisant des collisions entre des protons et des électrons à ces énergies.

Le FCC-ee serait en fait une étape intermédiaire pour étudier les bosons W/Z ainsi que le quark top et bien sûr le boson de Higgs en détail avant de construire le FCC-hh qui serait véritablement le projet final pour repousser la limite de l’énergie et trouver de nouvelles particules massives. L’approche est un peu analogue avec l’expérience du LEP (électron/positron) qui a cédé la place au LHC (proton/proton) par la suite.

La taille du FCC n’est pas encore arrêtée car elle est fonction des surcoûts liés au génie civil (plus c’est grand, plus c’est cher) et au surcoût engendré par les aimants qui doivent être plus puissants si l’accélérateur est plus petit pour la même énergie. De plus, les contraintes géographiques peuvent avoir un impact significatif (lac, montagne, …) sur le génie civil. Les études portent donc sur des versions à 80 km et à 100 km de circonférence pour comparer sérieusement les différentes options qui peuvent s’offrir à nous.

Dans ces 3 projets ambitieux, plusieurs technologies clef sont encore à démontrer pour leur faisabilité, en particulier :

  • Pour le FCC-hh : la capacité de fabriquer en grande quantité des aimants supraconducteurs de 16 Teslas (pour la version 100 km) ou 20 Teslas (pour la version 80km).
  • La capacité de refroidir à une température cryogénique l’ensemble des 100 km d’aimants supraconducteurs de manière réaliste et fiable.
  • Pour le FCC-ee : La capacité de développer des structures accélératrices plus efficaces car il faut compenser environ 7,5 GeV de perte synchrotrons à chaque tour pour des électrons, soit une puissance de 50 MW à apporter à chaque faisceau de manière continue.

 FCC_cryoEvolution de la capacité de refroidissement cryogénique à 4,5 K nécessaire aux accélérateurs existants et projection pour le FCC. © Laurent Tavian.

Le coût

En termes de coût, il est actuellement impossible de donner un chiffre car il y a encore de nombreuses inconnues mais on peut tenter d’extrapoler à partir des expériences passées (LEP et LHC). On peut ainsi estimer le coût à environ 8 milliards d’euros pour le FCC-hh et à 1,5 milliards d’euros pour le FCC-ee (source ici). En termes de consommation électrique, il faut compter environ 450 MW pour le FCC-hh, ce qui représente 4 fois la consommation du LHC. C’est beaucoup mais ça reste dans le domaine du possible sous réserve de développer quelques nouvelles technologies, d’autant que le coût de construction est à distribuer sur au moins une décennie et à répartir entre tous les pays membres du CERN, soit 28 pays.

Plus d’info :

Le verre dans tous ses états

Une histoire de vitrail de cathédrales

Lors d’une visite de cathédrale en région centre pendant mon enfance (oui, j’ai eu une enfance difficile), je me rappelle qu’on m’a expliqué que les vitraux étaient très vieux (genre XIIème siècle) et que la preuve était la suivante: le verre qui constitue le vitrail a coulé avec la gravité et les vitres sont plus épaisses en bas qu’en haut. Me rappelant cette anecdote,  je vais chercher un peu sur le net et cette explication est finalement complètement erronée (la preuve ici dans ce papier paru dans l’American Journal of Physics en 1998). Ce papier permet de calculer le temps qu’il faut au verre pour couler (ce qu’on appelle le temps de relaxation) après l’étude chimique des verres employés aux temps des cathédrales. Dans les vitraux du 12ème siècle, il faudrait compter plusieurs milliards d’années avant de voir le verre couler ! Ça serait physiquement possible en « seulement » 800 ans mais avec une température moyenne de 400 degrés ! En fait, c’est la méthode de fabrication de l’époque qui ne permettait pas la fabrication de vitraux « plats » mais plus épais d’un côté. Le coté le plus épais était donc naturellement placé en bas pour des questions de stabilité du vitrail.

    vitrail-blog

Verre : Solide ou liquide ?

OK, le verre peut donc quand même couler mais dans des temps très longs à température ambiante. Mais au fait, le verre, c’est un liquide ou un solide ? Physiquement parlant, le verre est un solide amorphe : c’est un solide car il possède un volume et une forme propre mais il est qualifié de amorphe car ses atomes ne sont pas structurés de manière organisée à moyenne et à grande échelle, contrairement aux solides cristallisés qui nous sont plus familiers comme les métaux, la neige, le sucre, etc. En fait, cette question est tout de même encore débattue par certains scientifiques mais la communauté considère bien le verre comme un solide, même s’il possède la structure atomique désorganisée d’un liquide.

Transition vitreuse

Pour comprendre la confusion des thermodynamiciens sur l’état du verre, il faut regarder comment le verre est fabriqué :

  • On prend de l’oxyde de silicium (constituant du sable) avec un fondant (qui permet d’abaisser la température fusion) et on les fait fondre à haute température (environ 1300 C) : ces composés sont alors sous forme liquide.
  • On procède ensuite à un refroidissement extrêmement rapide de ce liquide de manière à passer le point de fusion très vite et à ne pas laisser le temps aux atomes de se cristalliser pour former un solide classique, on obtient alors un liquide surfondu.
  • Si on abaisse encore la température mais cette fois-ci doucement, on obtient un « verre » à partir de la « température  de transition vitreuse » où la viscosité augmente alors brutalement pour former un solide amorphe.

 thermo_verre

Le cristal… de verre

Nous venons de voir que par définition, le verre est un solide amorphe, ce qui est l’opposé d’un cristal. Mais alors, comment peut-on fabriquer des verres (à boire) et des carafes en cristal ? Eh bien c’est tout bonnement impossible ! Le mot « cristal » est ici un abus de langage (au sens du physicien) car la structure atomique du « cristal de verre » n’est pas un cristal mais bien un verre !

cristal-francais-verre-vinEn fait, le cristal de verre est un verre dans lequel il y a au moins 24% de plomb (on parle même de cristal supérieur quand la proportion de plomb dépasse les 30% de la masse totale). C’est pour cela que les verres en cristal sont si lourds ! En effet, le plomb a de nombreux avantages dans la fabrication du verre : il permet d’abaisser la température de fusion du verre et donc permet un travail plus facile car plus malléable pendant plus de temps. De plus, le cristal de verre possède un bel éclat à cause de son indice de réfraction important ainsi qu’une sonorité cristalline.

saturnismeAutre chose de très important : ne jamais boire de coca  ayant été conservé dans une carafe en cristal, ça peut être mortel ou rendre votre enfant débile (je ne rigole pas). En effet, les liquides acides (comme le coca et les alcools) peuvent devenir toxiques s’ils sont conservés dans une carafe en cristal ayant peu servi car ils se chargent en plomb jusqu’à des niveaux toxiques et on peut alors en ingérer avec tous les problèmes que cela peut occasionner comme le saturnisme. Il y a même de nombreuses personnes qui pensent que la goutte qui est observée dans la bourgeoisie européenne et nord-américaines serait en fait du saturnisme chronique (qui présente les mêmes symptomes) à cause de leur consommation régulière d’alcool dans des carafes en cristal (voir cet article du American Journal of Medecine par exemple).
Mais bon, si les carafes sont utilisées seulement quelques heures et qu’elles sont bien nettoyées, ça ne pose pas de problème et les carafes en cristal modernes sont souvent pourvues d’une couche protectrice à l’intérieur pour justement éviter de contaminer en plomb les liquides qui s’y trouvent.

Du cristal dans les détecteurs de particules ?

On m’avait déjà trompé dans mon enfance avec les vitraux de cathédrales et maintenant, à l’âge adulte, on me trompe encore dans les détecteurs de particules ! J’ai entendu au CERN que le détecteur de particules CMS détectait dans le LHC certaines particules à l’aide de cristaux de « verre au plomb ». Effectivement, on peut voir ces espèces de lingots de verre, extrêmement lourds, installés dans le détecteur. Eh bien c’est encore faux ! Ces cristaux sont de vrais cristaux au sens physique du terme, avec une structure atomique bien ordonnée, et ce ne sont absolument pas des verres !

En fait, ces cristaux « plombés » permettent de freiner certaines particules et donc de mesurer leur énergie (on parle de calorimètres). Par exemple, le détecteur de particules CMS au CERN possède 80 000 cristaux de tungstate de plomb (PbWO4) pour mesurer l’énergie des particules sensibles à la force électromagnétique comme les photons et électrons. A leur passage dans ces cristaux, les électrons et photons scintillent et génèrent de la lumière de manière proportionnelle à leur énergie et cette lumière générée est ensuite transformée en signal électrique. Ce signal est alors amplifié pour être par la suite traité informatiquement de manière à recalculer avec une très grande précision l’énergie de la particule qui a traversé le cristal (mais pour que ça marche, il faut contrôler la température du cristal au dixième de degré, ce qui n’est pas super facile).

Au total, il a fallu plus de 10 ans aux scientifiques et ingénieurs pour fabriquer ces 80 000 cristaux aux propriétés très spéciales dans une ancienne base militaire russe ainsi que dans un institut chinois à Shanghai. Imaginez que la densité de ces cristaux est de 8,3 tonnes par m3, soit plus que de l’acier (7,8 tonnes par m3) !! Chaque petit cristal pèse 1,5 kg alors que son volume est analogue à une petite tasse à café (parallélépipède de 2,2 cm de côté et 23 cm de long).

 CMS_CristalCristaux de tungstate de plomb utilisés dans le détecteur CMS (et ce n’est pas du verre !)

 Des particules plus rapides que la lumière dans le verre au plomb

En revanche, il est vrai qu’il existe bel et bien des détecteurs de particules utilisant du verre au plomb pour détecter des particules énergétique comme les muons. Ces verres au plomb ont également une grande densité (plus de 6 tonnes par m3) et quand des muons ultra-relativistes (qui vont presque aussi vite que la lumière) traversent du verre au plomb, ils sont beaucoup moins freinés que les photons de lumière et vont alors plus vite que la lumière dans le verre au plomb (mais attention, en aucun cas ils ne dépassent la vitesse de la lumière dans le vide). Ce faisant, un cône de lumière bleue est émis le long de la trajectoire de ces muons qui dépassent la vitesse des photons, c’est ce qu’on appelle l’effet Tcherenkov. C’est le même effet qu’on peut observer dans les piscines de stockage des déchets radioactifs dans les centrales nucléaires où une belle lumière bleue est émise du fait que plusieurs particules vont plus vites que les photons dans l’eau de la piscine.

Semaine speciale boson de Higgs sur Strip Science

Je vous invite a decouvrir cette semaine une Semaine Speciale Boson de Higgs sur Strip Science qui va republier des billets du C@fé des Sciences assortis d’illustrations originales de la part de Strip Science.

Le Boson de Higgs découvert au CERN

Toute la communauté de physique des particules est en effervescence car on ne comprend toujours pas précisément le monde qui nous entoure et la Science vient de faire un petit pas cette année !

L’année dernière, le CERN annonçait qu’il ne pouvait se prononcer quant à la détection ou non du boson de Higgs, une particule prédite par la théorie mais toujours pas détectée, car les données n’étaient pas encore suffisantes (voir mon billet de l’année dernière). Ce 4 Juillet 2012, des milliards de milliards de collisions plus tard , le CERN vient d’annoncer qu’une nouvelle particule de 125 GeV/c² a été détectée avec un intervalle de confiance de plus de 99.99% (un écart type de 5 sigmas pour les mathématiciens) et il semblerait que ce soit le boson de Higgs, mais reste à prouver que c’est bien lui…

 Un boson c’est quoi au fait ?

Les physiciens aiment bien faire des catégories et ranger leurs particules dans des boites plus ou moins grandes. Les particules peuvent par exemple être séparées en 2 grands ensembles selon leur comportement:

  • Les Fermions : obéissent à la statistique de Fermi-Dirac
  • Les Bosons : obéissent à la statistique de Bose-Einstein

Ces 2 catégories de particules se distinguent par ce que les physiciens appellent leur spin. Le spin est un peu comme la capacité de la particule à tourner sur elle-même. A chaque particule, on attribue un nombre de spin qui permet de caractériser cette rotation. Les bosons ont un spin entier comme le photon par exemple (spin=1). Au contraire, les fermions sont des particules ayant un spin demi-entier (1/2, 3/2, 5/2…) comme l’électron (spin=1/2).

Les Fermions

Les fermions constituent l’essentiel de la matière qui nous entoure (les quarks et les électrons) car ces derniers ne peuvent pas se trouver dans le même état d’énergie ensemble (c’est ce qu’on appelle le principe d’exclusion de Pauli). Ceci a pour conséquence qu’un assemblage de fermions forme une structure de matière rigide comme dans les atomes et les molécules qui constituent notre environnement quotidien.

Les Bosons

Au contraire, les bosons peuvent tous être dans le même état d’énergie et on ne peut pas forcément distinguer les différentes particules les unes des autres. Les bosons sont les vecteurs des forces entre les fermions (la force électromagnétique, la force forte et faible). Pareil pour notre désormais célèbre boson de Higgs qui donne une masse aux autres particules (aux autres fermions et aussi aux autres bosons).

Ce comportement bosonique (toutes les particules dans le même état) est directement observable à notre échelle comme dans un laser où tous les photons sont dans le même état et induisent une lumière cohérente (couleur unique en ligne bien droite). C’est également parce que l’hélium-4 est un boson que l’on peut observer la superfluidité de l’hélium à basse température. La supraconductivité aussi provient du fait que les paires d’électrons se comportent comme un seul boson (spin=1/2+1/2=1) à basse température et peuvent ainsi se déplacer sans perte dans un conducteur. Voir ce billet pour ces comportements atypiques de la matière.

Et si ce n’était pas notre bon vieux Higgs ?

Le dernier accélérateur de particules du CERN, le LHC, doit observer un certain taux de production de ce fameux boson de Higgs selon plusieurs modes de désintégrations possibles. Premièrement, le Higgs peut être créé lors d’une collision proton-proton selon différents processus, voir les petits dessins plus bas, appelés diagrammes de Feynman, où notre Higgs est représenté par la lettre « H » :

 

Ensuite, le Higgs peut se désintégrer selon plusieurs modes et c’est ce que les détecteurs de particules regardent. En particulier, les détecteurs regardent les « canaux » suivants :

  • Un Higgs se désintègre en 2 photons
  • Un Higgs se désintègre en 2 bosons Z
  • Un Higgs se désintègre en 2 bosons W
  • Un Higgs se désintègre en 2 tau
  • Un Higgs se désintègre en 2 quarks/antiquark b

Ensuite ces particules secondaires se désintègrent à leur tour selon différents modes possibles également et au total, c’est environ 85 modes de désintégrations qui sont analysés dans les détecteurs.

 

Deux gluons fusionnent pour donner un Higgs qui se désintègre en 2 bosons W

Ces différents processus de désintégrations sont expliqués par le modèle standard, la théorie actuelle qui marche pour ce que l’on a observé jusqu’à présent mais si le LHC observe plus ou moins de Higgs que prévu selon ces différents scénarios, c’est le modèle sur lequel se base toute la physique depuis les années 60 qui serait remis en question ! A partir d’ici, tout est permis et les physiciens ne sont pas en manque d’imagination pour expliquer telle ou telle anomalie du modèle standard qui ouvrirait alors une nouvelle physique. Ces anomalies pourraient par exemple provenir d’une autre particule chargée non prévue par le modèle standard.

Bref, les physiciens ont du pain sur la planche et le LHC relance la recherche internationale pour la compréhension de notre monde et c’est parti pour durer un certain nombre d’années de recherche et d’affinement des mesures du Higgs pour le regarder sous toutes les coutures et voir s’il se tient à carreaux ou si il fait des choses plus « exotiques ».

Certes, pour le commun des mortels, le fait que le boson de Higgs soit différent de ce que prédit le modèle ne va pas changer grand chose. Mais il ne faut pas oublier notre histoire et que chaque remise en question de la physique d’une époque a débouché sur de grandes avancées scientifiques et technologiques. Et puis n’oublions pas que pour trouver ce boson de Higgs, l’homme a dû construire des machines et de détecteurs complexes qui ont de nombreuses applications dans les technologies de l’information et dans l’imagerie médicale.

Et après ?

Le LHC doit poursuivre sa campagne de collisions jusqu’à mars 2013, ce qui permettra encore d’affiner les résultats et de s’assurer que le Higgs colle dans certains modèles ou pas. Ensuite, le CERN va passer un an et demi à consolider cet accélérateur de particules car le LHC fonctionne aujourd’hui à un peu plus de la moitié de sa puissance seulement (mais c’est déjà beaucoup). Il devrait alors repartir à quasiment sa puissance maximale en 2015 pour fournir de nouveaux résultats à des énergies que nous n’avons jamais explorées.

Le problème est que le LHC est une machine de découverte qui fait beaucoup de collisions entre protons et qui balaye une grande portion d’énergie mais ce n’est pas la meilleure machine pour étudier le Higgs en détail. La communauté de physique planche désormais plus sérieusement sur l’après-LHC qui permettra d’étudier en détail le Higgs maintenant que nous savons où il se cachait. Ce sera sans doute un accélérateur linéaire d’électrons et de positrons qui ferait plus de 30 kilomètres de long. Actuellement, les deux projets les plus sérieux et avancés sont l’ILC (International Linear Collider) et le CLIC (Compact Linear Collider). L’ILC permettrait des collisions à 1 TeV et serait sans doute aux USA ou au Japon et le CLIC permettrait des collisions à 3 TeV et serait sans doute au CERN à Genève. Ce choix sera sans doute à faire par la communauté internationale dans les 5 prochaines années selon les résultats du LHC. Affaire à suivre…

 

Prototype test pour le CLIC au CERN (CTF3)

 Quelques liens utiles :

Le LHC et le Boson de Higgs

Non ce n’est pas une fable de la Fontaine mais une épopée de la physique moderne : la traque d’une particule invisible par un accélérateur de particules de 27 km de circonférence…

Aujourd’hui à 14h, une conférence donnée au CERN par les 2 porte-paroles des expériences phares du LHC (ATLAS et CMS) faisait un résumé des résultats obtenus grâce à l’accélérateur de particules LHC lors de la campagne de collisions 2011. Je vais donc essayer de vous faire un résumé compréhensible de cette conférence à laquelle j’ai assisté cette après-midi.

Les résultats des 2 expériences indépendantes sont très similaires et indiquent deux grandes tendances:

  • Le modèle standard de la physique des particules fonctionne comme prévu à 7 TeV (l’énergie maximale des collisions du LHC en 2011).
  • Le boson de Higgs n’a plus beaucoup d’endroits où se cacher et il commencerait à montrer le bout de son nez vers une énergie de 125 GeV mais pas encore de quoi annoncer sa découverte.

 Le modèle standard

Le modèle standard de la physique des particules est la théorie physique utilisée aujourd’hui pour décrire la matière et ses interactions. L’objectif des accélérateurs de particules est de tester cette théorie autant que possible pour voir si la nature est bien celle que les physiciens imaginent, voir ce billet que j’ai écrit il y a quelques mois à ce sujet.

Le LHC ouvre à présent une nouvelle gamme d’énergie encore jamais explorée par les accélérateurs et c’est pour cela que les physiciens sont un peu fébriles. Après plusieurs milliards de milliards de collisions effectuées et analysées durant cette année 2011, les particules se sont comportées comme la théorie le prévoit et le modèle standard se trouve ainsi conforté.

 Le Boson de Higgs

Le boson de Higgs est une particule un peu à part dans ce modèle standard car elle permet d’expliquer la masse de toutes les autres particules, constituant ainsi la pierre angulaire de cette théorie. Le problème est que ce boson de Higgs a une section efficace extrêmement faible, ce qui signifie qu’il faut faire des milliards de milliards de collisions pour voir 1 seul boson de Higgs, ce qui explique entre autre pourquoi aucun accélérateur n’a encore été capable de le voir. Voir ce billet qui explique tout ça par rapport à la campagne de collisions du LHC en 2010.

De plus, les physiciens ne savent pas exactement quelle est la masse du Higgs, ou son énergie, rappelez-vous que masse et énergie sont équivalentes selon la relativité restreinte d’Einstein (E= mc²). Plusieurs théories existent et peuvent expliquer le boson de Higgs à différentes énergies mais pour trancher, il faut le « voir » et donc faire des expériences, ceci étant le but du LHC. Les accélérateurs vont donc balayer petit à petit des bandes d’énergies pour voir si le boson de Higgs se cache à l’intérieur.

Deux grands principes sont à garder à l’esprit:

  • Plus l’énergie de la particule recherchée est importante, plus l’accélérateur doit être puissant.
  • Plus la section efficace est petite, plus le nombre de collisions doit être important pour voir statistiquement la particule recherchée.

Le LHC essaye donc de faire le plus de collisions possible à des énergies les plus hautes possibles pour « voir » ce boson de Higgs.

Comment « voir » le Higgs ?

Le boson de Higgs n’est pas directement détectable car sa durée de vie est trop faible. On cherche donc des particules qui pourraient être issues de sa désintégration en d’autres particules. Selon la masse du Higgs (toujours inconnue), les schémas de désintégration sont différents les uns des autres. Dans le cas du LHC, on cherche un boson de Higgs ayant une masse comprise entre 115 GeV et 600 GeV car les accélérateurs précédents ont écarté un Higgs en dessous de 115 GeV, et au dessus de 600 GeV le modèle standard ne marche plus.

Au total, les expériences ATLAS et CMS balayent ainsi une dizaine de schémas de désintégration possibles pour le Higgs. Par exemple dans l’hypothèse d’un Higgs léger entre 110 et 150 GeV, il peut se désintégrer en 2 photons gamma émis dans 2 directions opposées.

C’est cette dernière désintégration qui semble aujourd’hui sortir un peu du lot suite aux observations faites par ATLAS et CMS. Mais encore une fois, pour être certain que les mesures sont fiables, il faut valider statistiquement les mesures accumulées ce qui nécessite une quantité de données absolument gigantesque tant l’évènement de voir un Higgs est rare.

Les 2 expériences ont vu se dessiner un pic dans les collisions analysées qui indiquerait que le boson de Higgs aurait une masse proche de 125 GeV, voir les graphiques ci-dessous. Pour lire ces graphiques,  tant que la courbe noire (mesure) reste dans les bandes jaunes ou vertes, on ne peut rien dire car ces 2 courbes symbolisent l’incertitude des mesures. En revanche, dès que des données commencent à « sortir » de ces bandes, c’est que le Higgs pourrait se cacher à cet endroit.

Résultats préliminaires de ATLAS et CMS dans la recherche du Boson de Higgs dans l’hypothèse d’un boson de Higgs autour de 125 GeV issu d’une désintégration en 2 photons gamma.

Conclusion

Une tendance commence donc à apparaître pour un Higgs vers 125 GeV mais ce n’est pas encore assez pour certifier que le Higgs existe à cette énergie. Pour l’instant ATLAS estime la masse possible entre 116 GeV et 130 GeV et CMS entre 115 GeV et 127 GeV (les zones autour ont été exclues).

Pour valider ce résultat, il faudra accumuler encore plus de données pour voir si ce pic va être lissé ou bien s’accentuer, auquel cas l’existence du Higgs ne fera plus de doute. Si les attentes du CERN pour 2012 sont remplies, il y aura 4 fois plus de données à analyser dans un an et cette accumulation de collisions permettra de trancher la question du boson de Higgs avec 99% de certitude.

Fable à suivre…

CLOUD : les physiciens dans les nuages

On pourrait penser que les physiciens et les climatologues savent parfaitement comment les nuages se forment dans notre atmosphère… Eh bien non !

clouds-color.jpg

Des physiciens fabriquant des nuages. © Noémie.

Il y a encore de nombreuses inconnues et nous ne savons toujours pas expliquer pourquoi nous observons autant de nuages ! Les modèles climatiques doivent d’ailleurs être corrigés « à la main » pour les phénomènes de création des nuages.

Les Aérosols et les nuages

Il y a dans notre atmosphère des aérosols autour desquels de la vapeur d’eau se condense sous forme de gouttelettes pour former un nuage.

Les aérosols sont de petites particules solides de l’ordre du milliardième de mètre (nanomètre) en suspension qui sont d’origines naturelles ou industrielles. Certains aérosols sont dangereux pour la couche d’ozone (comme les chlorofluorocarbures aujourd’hui interdits dans les bombes aérosols) mais d’autres sont inoffensifs comme les

aérosols soufrés
produits entre autres par les incendies de forêt ou la combustion de carburants fossiles dans nos voitures. Ces aérosols permettent la formation des nuages et luttent contre le réchauffement climatique puisqu’ils renvoient la lumière du soleil.  Certains scientifiques estiment d’ailleurs que le rejet d’aérosols par l’activité économique humaine compense le réchauffement climatique entraîné par les gaz à effets de serre. Des études montrent également des différences sur la formation de nuages entre les jours de la semaine et les week-ends à cause de l’activité humaine.

CLOUD

« Cloud » signifie « nuage » en anglais, mais c’est aussi un acronyme pour « Cosmics
Leaving OUtdoor Droplets 
», une expérience menée au CERN par des physiciens pour mieux comprendre comment les nuages se forment, ou plutôt comment les aérosols sont créés dans l’atmosphère. En effet, aujourd’hui la quantité des différents gaz sous forme de vapeur dans l’atmosphère ne peut pas expliquer à elle seule la création d’autant d’aérosols, et donc d’autant de nuages: un autre phénomène doit avoir lieu pour créer ces aérosols.

L’expérience CLOUD dans le complexe du PS au CERN. © CERN.

La réponse viendrait peut être du cosmos qui nous bombarde constamment de particules énergétiques appelées « rayons cosmiques », découverts au début du 20ème siècle.  Ces rayons cosmiques pourraient, lorsqu’ils traversent notre atmosphère, être responsables de la création d’aérosols entraînant la formation de nuages.

Les physiciens de CLOUD reconstituent un milieu proche de celui de l’atmosphère à différentes altitudes avec des concentrations de gaz extrêmement précises dans différentes chambres. Un accélérateur de particules du CERN, le Proton Synchrotron (PS) est ensuite utilisé pour générer des faisceaux de particules énergétiques (des pions) équivalents à des rayons cosmiques pour bombarder la chambre et observer le résultat. L’analyse des données doit permettre de mieux expliquer la formation de certains aérosols et à améliorer les modèles sur l’impact des aérosols sur le climat en général.  

cloud chamber

Chambre interne de l’expérience CLOUD. © CERN.

CLOUD est une collaboration internationale regroupant 18 instituts de 9 pays dont le CERN où a lieu l’expérience. Pour la petite info, c’est dans mon groupe de travail qu’est élaboré le système de contrôle de CLOUD manipulant tous les différents gaz pour obtenir des mélanges proches de ceux observés dans l’atmosphère.

Pour plus d’info sur les dernières trouvailles de CLOUD :