Archives pour la catégorie Phys. Particules/Quantique

C’est grand comment une particule ?

Après mon billet « Ça pèse combien une particule ? », je m’attaque ici à la taille des particules…

Conversation avec ma fille de 8 ans sur la taille d’un atome :

  • Papa, c’est grand comment un atome ?
  • C’est petit.
  • Mais petit comment ?
  • Plus petit que ce que tu connais de plus petit.
  • Plus petit qu’un grain de sable fin ?
  • Oui.
  • Plus petit qu’un microbe qui est invisible ?
  • Oui.
  • Mais alors, petit comment ?
  • Tu vois le lac Léman, à coté de Genève, à côté de chez nous ?
  • Oui, c’est super grand, on ne voit même pas de l’autre côté.
  • Tu as raison, ce lac est le plus grand d’Europe de l’ouest. Il fait 73 km de long pour 14 km de large et 300 m de profondeur. Il contient 89 milliards de mètres-cubes d’eau. Comme il faut environ 5 baignoires pour faire un mètre-cube, le lac contient environ 450 milliards de baignoires.
  • C’est beaucoup.
  • Oui. Et tu vois la taille d’une goutte d’eau ?
  • Oui, c’est tout petit.
  • Alors maintenant imagine le nombre de gouttes d’eau dans le lac Léman.
  • Ouaaaaaaou. C’est un truc énorme !!
  • Oui, c’est un très grand nombre. Tu te rappelles ton grain sable dont tu me parlais au début ? Une des choses les plus petites que tu puisses voir ?
  • Oui… Quel est le rapport ?
  • Eh bien, dans ce grain sable fin, il y a autant d’atomes que de gouttes d’eau que dans le lac Léman.
  • Maintenant j’ai compris papa, un atome, c’est petit !
Le lac Léman contient autant de gouttes d’eau que d’atomes dans un grain de sable

Détail du calcul pour les plus grands :

  • Lac Léman = 89e9 m^3
  • 35 gouttes d’eau dans 1 ml : 1 goutte d’eau = 2,9 e-8 m^3
  • Lac Léman = 3,1e18 gouttes d’eau
  • 1 grain de sable fin possède un diamètre d’environ 150 microns.
  • Volume du grain de sable fin = 1,8e-12 m^3
  • Un atome possède un rayon d’environ 1 Angström (1e-10 m)
  • Le volume correspondant d’un atome = 5,2e-31 m^3
  • Nombre d’atomes dans un grain de sable = 3,4e18

Atome, proton, électron : quelle taille ?

Dans mon calcul ci-dessus, on compte les atomes dans un grain de sable. Eh bien un proton, et à plus forte raison un électron, c’est encore plus petit car un atome est rempli essentiellement par du vide !

En effet, si on prend l’atome le plus simple, l’hydrogène, qui est formé d’un seul proton et d’un seul électron, on a un diamètre total d’environ 0,5 Angstrom, soit 5e-11 m. Le proton quant à lui a un rayon de l’ordre du femtomètre (1e-15 m), soit 5 000 fois plus petit ! Et l’électron, lui, tient la palme dans le sens où on ne connait pas vraiment sa taille, on le considère comme un point sans occuper le moindre espace. Expérimentalement, on a cependant validé qu’il était plus petit 10e-22 mètres, soit au moins mille milliards de fois plus petit qu’un atome !

Donc pour revenir à notre échelle, si l’atome d’hydrogène avait la taille d’un terrain de foot, alors le proton ferait la taille d’un pois chiche au centre du terrain. Quant à l’électron, il serait toujours invisible…

La taille du proton : Une controverse qui fait rage

Oui, j’avoue que dans votre quotidien, il vous importe peu qu’un proton aie une taille de 0,00000000000000084 mètre ou de 0,00000000000000088 mètre (on parle de 0,84 femtomètre ou 0,88 femtomètre). Pourtant, il y a deux écoles dans le monde pour mesurer la taille du proton à l’aide de deux méthodes différentes et chacune donne une valeur différente, soit autour de 0,84 femtomètre, soit autour de 0,88 femtomètre. La différence est notable, 5% de différence, et pour les physiciens, ces deux valeurs sont inconciliables ! Cependant, depuis quelques mois, les physiciens commencent à confirmer la plus petite valeur de 0,84 femtomètre.

La première méthode, dite de diffusion d’électrons, était jusqu`à présent la méthode « classique » pour définir le rayon du proton. La méthode consiste à envoyer des électrons ayant des propriétés bien connues à travers un nuage d’hydrogène qui va venir diffuser ces électrons : les électrons vont être déviés par l’hydrogène et la mesure de leur énergie et de leur direction après le passage dans le nuage permet d’estimer la taille des noyaux d’hydrogène, c’est-à-dire des protons.

La deuxième méthode, plus récente, est basée sur une méthode de spectroscopie d’hydrogène dans laquelle on vient envoyer une petite impulsion laser sur un atome d’hydrogène de manière à faire « sauter » l’électron dans le niveau d’énergie supérieur. Cet électron va ensuite « retomber » dans le niveau d’énergie du dessous en émettant à son tour un photon. En mesurant ce photon en fonction de l’impulsion laser envoyée initialement, on peut alors déduire le rayon du proton. Cette expérience peut se réaliser en utilisant de l’hydrogène classique (1 proton et 1 électron) mais aussi en utilisant de l’hydrogène muonique (l’électron est remplacé par un muon, une autre particule élémentaire assez similaire à l’électron mais plus lourde). Cette dernière solution s’avère plus précise car dans ce cas, le muon est plus proche du proton constituant le noyau de l’hydrogène muonique et la mesure du « saut » est alors plus précise. Deux instituts ont réalisé de telles mesures (PSI en Suisse en 2010 et l’université de York au Canada en 2019) qui aboutissent toutes deux autour de cette valeur plus faible de 0,84 femtomètre et qui semblerait être la bonne.

Ça pèse combien une particule ?

La question peut paraitre bizarre au premier abord mais c’est loin d’être anodin… Tout d’abord, c’est quoi une particule, au sens de la physique ?

Une particule, c’est quoi ?

Il existe deux types de particules en physique des particules :

  • Les particules élémentaires sont des éléments indivisibles selon les connaissances actuelles.
    • Exemple : les électrons, les quarks, les photons (il y en a 18 dans le modèle standard de la physique des particules).
  • Les particules composites qui sont constituées de particules élémentaires et qui forment une nouvelle entité indépendante.
    • Exemple : les protons et les neutrons (formés de quarks), les différents atomes comme l’hydrogène, le carbone, l’uranium, etc. (formés de protons, neutrons et électrons), les molécules (formées d’atomes), etc.
Les particules élémentaires du modèle standard selon Noémie et Alex.

La masse, c’est quoi ?

Dans mon titre, j’utilise le mot « pèse », qui fait donc référence au « poids » mais en fait, dans le langage courant, on confond souvent le « poids » et la « masse ». Le poids s’exprime en Newton et diffère selon la gravité, c’est pourquoi votre poids est moindre sur la Lune que sur Terre. La « masse », quant à elle, s’exprime en kilogramme et est toujours la même, sur Terre ou sur la Lune. Pour plus d’info, allez voir un ancien billet sur le sujet : Le poids sur Terre. Bref, ici, on cherche plutôt la « masse » des particules.

En physique, selon le domaine, on n’utilise pas forcément le kilogramme (kg) mais aussi l’électronvolt (eV) qui est une unité d’énergie mais qui est équivalente au kilogramme en vertu de la relativité restreinte qui stipule que masse et énergie sont équivalentes (E=mc2). Donc une masse (en kilogramme), peut aussi s’exprimer en Joule ou en électronvolt, plus commode avec les particules qui sont toutes petites (1 électronvolt = 0.0000000000000000001602176565 Joule).

Pour compliquer encore un peu le tout, comme les mesures sont ultraprécises et pour éviter de se trimbaler 50 chiffres, on estime le plus souvent la masse des particules en fonction de l’unité de masse atomique unifiée (notée u) qui est définie comme un douzième de la masse d’un atome de carbone 12 (1 u ~ 1,660 539 066 60 × 10−27 kg). La masse d’un atome de carbone vaut donc exactement « 12 u » et peut être utilisée comme étalon pour mesurer la masse des autres particules.

La masse d’une particule

Maintenant passons aux choses sérieuses : trouver la masse de l’électron et du proton : les particules que nous connaissons le mieux. En kilogramme, en Joule, en électronvolt, en unité de masse, peu importe, c’est la même chose. Et comme vous pouvez vous en douter, on ne peut pas prendre un petit électron et le poser sur une balance pour le peser, c’est clairement impossible de procéder de la sorte avec nos technologies actuelles. Les meilleures balances professionnelles (balances analytiques) sont précises à environ un dix millième de gramme, ce qui représente environ cent mille milliards de milliards d’électrons, ça ne va pas le faire pour en peser un seul, il faut donc trouver autre chose. En fait, il y a plusieurs méthodes, et selon la précision voulue, ces méthodes sont plus ou moins compliquées et précises.

Joseph John Thomson, le découvreur de l’électron en 1897, est le premier à en estimer sa masse expérimentalement (il recevra pour cela le prix Nobel de physique en 1906). A l’époque, Thomson étudie les rayons cathodiques. Ces rayons, connus depuis le milieu du 19ème siècle, sontdes faisceaux d’électrons générés dans une ampoule en verre sous vide grâce à l’application d’une forte tension électrique entre ses deux extrémités métalliques. Thomson mesure la déviation de ces rayons en présence d’un champ magnétique. De ce fait, il peut en déduire que ces « rayons » sont constitués de particules négatives et que le rapport entre leur masse et leur charge (m/q) est extrêmement petit. Il constate que ces particules sont environ mille fois plus légères que les ions hydrogènes (autrement dit, les protons). Belle prouesse pour l’époque, c’est ainsi Thomson le premier à démontrer que les atomes sont divisibles et sont constitués d’éléments plus petits. Il développe même un modèle de l’atome : le modèle du pudding où les électrons représentent les grains de raisins du pudding, lui-même constitué de protons, mais ce modèle sera rapidement détrôné en 1911 par Rutherford qui démontre que les électrons (négatifs) se tiennent à bonne distance d’un noyau (positif).

Joseph John Thomson dans son laboratoire devant des tubes cathodiques. © Cavendish Laboratory, université de Cambridge.

Aujourd’hui les tubes cathodiques ont été remisés à la cave avec nos vieilles TV cathodiques. La dernière expérience en date pour mesurer la masse des particules chargées utilise ce que l’on appelle des « pièges de Penning » et sont des expériences de physique complexes, mises en œuvre par les meilleures équipes de recherche internationales mais le principe n’est pas si compliqué.

Le dispositif Penning utilisé par les scientifiques de MPIK pour des mesures de précision de la masse de particules uniques. (Image : Max Planck Institute for Nuclear Physics).

Pour faire rapide, un piège de penning permet de maintenir une ou plusieurs particules chargées de même signe comme des électrons (négatifs) ou des protons (positifs) dans un volume restreint. Ce piège est constitué d’un champ magnétique homogène qui impose aux particules de suivre une sorte de spirale ainsi qu’un champ électrique (qu’on qualifie de quadrupolaire) obligeant les particules à rester dans un volume donné. En gros, la particule tourne un peu comme une toupie tout en décrivant des spirales au sol mais qui en plus fait des montées/descentes en même temps tout en restant dans une sorte de bol sur lequel la toupie rebondirait.

On peut voir ici en violet à quoi ressemble la trajectoire d’une particule dans un piège de penning (superposition des trajectoires bleue, orange et rouge dues aux champs magnétiques et électriques). Source : group blaum, Heidelberg

Mais comment déduire la masse d’une particule avec ce piège ? Eh bien, les physiciens peuvent la déduire de ce mouvement un peu spécial. En effet, la fréquence d’oscillation de la particule selon la composante orange (nommée mouvement cyclotron et notée ω+ sur le dessin et ωc sur l’équation ci-dessous) peut être mesurée avec une très grande précision (de l’ordre du dixième de milliardième) et elle est fonction de la charge de la particule (q=connue), du champ magnétique appliqué (B=connu) et de la masse de la particule (m=inconnue):

Equation du mouvement cyclotron

Dans la réalité c’est un tout petit peu plus compliqué mais c’est en exploitant ce principe qu’on mesure aujourd’hui la masse des électrons et des protons avec une très grande précision. A noter tout de même que pour que ça marche correctement, le tout se fait à température cryogénique, à environ -269 degrés Celsius, soit 4 degrés seulement au-dessus du zéro absolu (4 Kelvin), sinon ce serait trop facile… Les derniers résultats en date sont les suivants :

Valeurs mesurées :

  • Proton = 1,007276466583 u (soit approximativement 1,67262 × 10−27 kg).
  • Electron = 0,000548579909067 u (soit approximativement 9,109 × 10−31 kg).

L’électron est ainsi 1836 fois plus léger que le proton.

L’hélium superfluide

Etant ingénieur pour l’opération du système cryogénique du LHC au CERN (Organisation Européenne pour la Recherche Nucléaire) à Genève, j’ai la chance de travailler avec le plus grand stock d’hélium superfluide du monde : le LHC en contient environ 100 tonnes pour fonctionner…

Mais c’est le dernier livre de Sébastien Balibar, « Savant cherche refuge », qui m’a donné envie d’écrire cet article. En effet, la superfluidité, phénomène pour le moins extraordinaire à notre échelle, a été découvert et expliqué dans un climat international inédit avec de nombreux chercheurs cherchant à se réfugier des désastres de la guerre pour mener à bien leurs recherches.

Aujourd’hui, on trouve de l’hélium superfluide dans les laboratoires du monde entier (et surtout au CERN !) mais son obtention et sa compréhension a été pour le moins « complexe » et a fait couler beaucoup d’encre avant d’arriver à un résultat faisant consensus auprès des physiciens. Cette découverte est une grande découverte scientifique et son histoire, comme toute grande découverte scientifique, est passionnante…

Pourquoi superfluide ?

Tout d’abord quelques éclaircissements sur ce qu’est un superfluide. Dans la nature, il existe plusieurs états de la matière comme l’état solide, gazeux ou liquide (en fait l’état le plus abondant dans l’univers est l’état de plasma dont sont composés les étoiles). Mais il en existe au moins un autre, moins connu: l’état superfluide. Cet état a été observé dans l’hélium à très basse température, en dessous de 2,17 Kelvin, soit environ -271 degrés Celsius. Alors, qu’est ce qui caractérise les superfluides ? Eh bien, quand on fait des expériences avec, on observe des comportements tout à fait impossibles avec tous les autres fluides. Voici quelques exemples:

  • Prenez un tube de quelque millième de millimètre et essayer de faire circuler un liquide dedans : c’est impossible, sauf pour un superfluide qui s’engouffre dedans sans problème et s’écoule librement.
  • Verser un liquide dans un verre : le liquide est censé rester au fond, eh bien pas le superfluide qui va remonter le long des parois et sortir tout seul du verre.
  • Prenez une paille et faite la tourner dans un verre rempli de liquide, tout le liquide va rapidement se mettre à tourner avec la paille, eh bien pas le superfluide qui va rester immobile!
  • Chauffez une piscine olympique avec une résistance chauffante plongée à l’intérieur : peu à peu, toute la piscine va se réchauffer et ça va prendre pas mal de temps avant d’avoir la même température partout.  Eh bien, si vous remplissiez votre piscine de superfluide, toute la piscine aura la même température à tout moment, comme si la chaleur se propageait instantanément.

Vous l’aurez compris, un superfluide, c’est bizarre ! C’est un liquide qui ne possède pas de viscosité avec une capacité de transporter la chaleur de manière parfaite.

La chose qui a mis en déroute les physiciens est le fait que l’hélium en dessous de 2,17 K est en fait un mélange de 2 fluides : une composante normale (nommée « He I ») et une composante superfluide (nommée « He II ») qui peuvent se déplacer indépendamment l’un de l’autre, et plus on refroidit le mélange, plus la composante superfluide est importante. C’est cette particularité qui a engendré des phénomènes parfois contradictoires selon les expériences mise en œuvre. Mais maintenant, intéressons-nous à l’histoire passionnante de cette découverte.

Les personnages

Les protagonistes principaux sont les suivants (par date de naissance):

  • Willem Hendrik Keesom (1876), néerlandais ayant travaillé à Leyde avec H.K. Onnes, le premier à avoir liquéfié de l’hélium en 1908. Keesom est l’un des premiers à avoir noté une transition importante à 2,17 K dans l’hélium dès 1927.
  • Piotr Kapitsa (1894), russe, découvreur de la superfluidité en 1937. Nobel 1978.
  • Fritz London (1900), allemand, c’est le premier à proposer « l’idée folle » que la superfluidité est un phénomène quantique macroscopique.
  • Laszlo Tisza (1907), hongrois, le fil conducteur du livre de S. Balibar, c’est lui qui proposera le premier modèle théorique « sérieux » le la superfluidité : le fameux modèle à 2 fluides.
  • Lev Landau (1908), russe, il est à l’origine de la compréhension profonde de la superfluidité et aboutira à un modèle théorique complet du phénomène au début des années 40. Nobel 1962.
  • Jack Allen (1908), canadien, découvreur de la superfluidité en 1937 avec Don Misener à Cambridge, indépendamment de Kapitsa et en même temps.

Haut : Kapitsa, Landau, Allen.
Bas: London, Tisza, Keesom

Les lieux

Les personnages étant posés, voici les lieux où se déroulent cette aventure (par ordre alphabétique) :

  • Cambridge, Angleterre : laboratoire de Allen et Misener où la superfluidité sera étudiée pour la première fois (enfin en même temps que Kapitsa à Moscou).
  • Etats-Unis : Refuge de très nombreux scientifiques européens pendant cette période de trouble. London et Tisza y trouveront refuge pendant la guerre.
  • Kharkov, Ukraine : Landau a commencé ses recherches à l’université de Kharkov et Tisza y fera un séjour en 1937, l’année où la superfluidité sera découverte.
  • Leyde, Pays-Bas : Berceau de la physique des basses températures à l’hélium ayant hébergé Onnes et Keesom. Laboratoire ayant produit les premières gouttes d’hélium liquide (et de superfluide sans le savoir) dès 1908.
  • Moscou, Russie : Landau et Kapitsa passeront une bonne partie de leur temps de recherche à l’institut des problèmes physiques de Moscou.
  • Oxford,Angleterre: l’hélium superfluide coula aussi très tôt à Oxford et hébergera de nombreux scientifiques liés à la superfluidité comme London.
  • Paris, France : De nombreux efforts ont été faits à Paris pour héberger les scientifiques menacés par les nazis. London et Tisza y trouveront refuge plusieurs années, aidés par de nombreuses personnes dont Louis Rapkine qui a joué un rôle clé.

Pendant l’entre-deux guerre puis pendant la deuxième guerre mondiale, les scientifiques prometteurs comme les acteurs de la superfluidité seront aidés par des bourses leur permettant de subvenir à leurs besoins et de voyager dans les différents laboratoires dans le monde « relativement » facilement pour cette époque. La plus connue est sans doute la bourse Rockefeller qui a sauvé de nombreux chercheurs prestigieux en ces périodes de troubles. J’ai essayé de retracer quelques parcours des protagonistes de la superfluidité (ce n’est pas exhaustif mais j’ai essayé de faire de mon mieux) :

  • Kapitsa : Saint Petersbourg => Cavendish (1923) => Moscou (1934)
  • Tisza : Budapest (1907) => Paris (1937) => Toulouse (1939) => Lisbonne (1940) => Etats-Unis (1941).
  • London : Breslau (1900) => Berlin ( ???) => Rome (1931) => Berlin (1932) => Oxford (1933) => Paris (1936) => Etats-Unis (1939).
  • Landau : Bakou (1908) => Petrograd (1922) => Voyage à travers l’Europe (1929): Gottingen, Leipzig, Copenhague, Cambridge, Zurich   => Leningrad (1931) => Kharkov (1932) =>   Moscou (1937) => Boutyrskaïa, prison proche de Moscou (1938) => Moscou (1939).

Qui a découvert la superfluidité ?

Visiblement, tout porte à croire que Kapitsa et Allen ont « découvert » la superfluidité à peu près en même temps et de manière indépendante en 1937. Mais disons-le clairement, cette « découverte » était dans l’air du temps et plusieurs équipes avaient déjà dans les années précédentes mis en avant l’existence de deux héliums liquides bien distincts (l’hélium I et II) séparés par le « point lambda » autour de 2,17 K. Ce nom « lambda » a d’ailleurs été donné par Keesom en 1927 à Leyde en référence à la forme de la chaleur spécifique (i.e. la quantité d’énergie à apporter au liquide pour élever sa température de 1 degré) de l’hélium en fonction de sa température autour de 2,17 K qui ressemble à la lettre grecque lambda (λ). Je rappelle que Leyde (situé aux Pays-Bas) est le berceau de l’hélium liquide qui fut découvert peu avant par H.K Onnes en 1908 (détails ici).


Mesure de la chaleur spécifique de l’hélium autour de 2,17 K par Keesom en 1927 à Leyde ayant la forme du lambda grecque.

En revanche, c’est bien Kapitsa qui a inventé le mot « superfluide ». Allen et Kapitsa ont pu observer et publier des résultats montrant que l’hélium en-dessous de 2,17 K semble présenter une viscosité extrêmement faible. Ils publièrent d’ailleurs tous les deux leur article dans le même numéro de Nature en Janvier 1938 dans deux pages consécutives.  L’article de Kapitsa avait pour titre “Viscosity of liquid helium below the λ-point” alors qu’Allen titrait “Flow of liquid helium II”. C’est dans cet article que Kapitsa énonça sa phrase célèbre qui est étonnemment clairevoyante en y repensant avec le recul d’aujourd’hui : « by analogy with superconductors, that the helium below the λ-point enters a special state which might be called superfluid« . En effet, leurs expériences montrèrent que l’hélium liquide en dessous de cette température entre dans un état spécial, car quantique, tout comme la supraconductivité mais ils ne le savaient pas encore à cette époque ! Le superfluide peut s’écouler dans des capillaires (de tout petits tuyaux) ou dans des fentes de taille microscopique sans aucun problème, ce qu’aucun autre fluide ne peut faire à cause du phénomène de viscosité qui tend à « freiner » les écoulements.

Pour faire court, on apprend à l’école que la vitesse d’un fluide dans un tuyau dépend de la taille du tuyau (plus il est gros et plus le fluide va vite) et de la différence de pression entre l’entrée et la sortie (plus la différence de pression est grande, plus le fluide va vite). Et quand Kapitsa et Allen (qui sont allés à l’école comme vous et moi) ont voulu vérifier cela avec L’hélium superfluide, ce n’est pas du tout ce qu’ils ont pu mesurer : si on fait varier la taille de ces capillaires, même d’un facteur 1000, la vitesse d’écoulement n’est quasiment pas modifiée. De même en faisant varier la différence de pression entre l’entrée et la sortie, la vitesse du superfluide demeurait constante, ce qui contredisait catégoriquement la mécanique des fluides ! Et on ne peut pas renier ce genre de chose comme ça ! Ce genre de contradiction s’appelle tout simplement une « grande découverte scientifique ».

Qui a compris la superfluidité en premier ?

Voici mon sentiment après la lecture du dernier livre de S. Balibar: c’est bien London le premier à avoir senti ce qu’était la superfluidité, à savoir un phénomène quantique à l’échelle macroscopique correspondant à un genre de condensat de Bose-Einstein dans un liquide. London écrira d’ailleurs en 1938 à son frère Heinz « j’ai trouvé une chose folle » en parlant de cette découverte. Il publiera ensuite une note dans la revue Nature à ce sujet le 5 mars 1938 : « the lambda-phenomenon of liquid helium and the Bose-Einstein degeneracy ».

C’est ensuite Tisza qui a immédiatement posé les bases d’un premier modèle original, le fameux modèle à deux fluides, intuition de génie pour expliquer les phénomènes observés, extrêmement étranges et parfois contradictoires. London rejettera ce modèle à tort mais Tisza persévéra et publia peu après une note en Mai 1938 dans Nature portant le titre « Transport Phenomena in Helium II » où il introduit ce modèle qui deviendra un modèle puissant, intuitif et simple à utiliser pour calculer les propriétés de l’hélium superfluide.

Enfin, Lev Landau, petit génie de la physique, reformule de manière plus rigoureuse le modèle à deux fluides pour aboutir à un modèle cohérent et complet qu’il publie en 1941 dans Physical Review. Pour expliquer la superfluidité, Landau se base entre autre sur la propagation et l’oscillation de quasi-particules: les phonons et les rotons (inventés par l’occasion par Landau). Landau recevra seul le Nobel sur ce sujet, ce qui peut paraitre un peu injuste vis-à-vis de London et Tisza…

Pour aller plus loin

Voilà ce que j’avais à dire sur ce sujet mais si vous voulez en savoir plus, c’est sans contestation Sébastien Balibar la référence française en la matière, alors voici quelques conseils de lecture :

La résonance

Le phénomène de résonance est présent dans de nombreux domaines de la physique et est utilisé dans de très nombreuses applications, de la balançoire aux accélérateurs de particules. Parfois embêtant, il peut aussi s’avérer fort utile, voire indispensable.

Un peu d’étymologie pour commencer. On a tendance à associer la résonance au domaine de l’acoustique dans le langage courant signifiant « prolongation de la durée d’un son » depuis le 14ème siècle mais cette définition n’est plus d’actualité puisque la résonance peut s’étendre à tous les phénomènes ondulatoires dans lesquels une onde peut se propager et induire une vibration. En dehors des ondes acoustiques, on peut citer les ondes sur cordes vibrantes, les ondes sismiques, les vagues ou encore les ondes électromagnétiques comme la lumière ou la radio.

Si on s’intéresse aux ondes mécaniques, toute structure possède des fréquences propres, c’est-à-dire des fréquences auxquelles une structure mécanique peut vibrer si on excite cette fréquence particulière. Le meilleur exemple est sans doute la balançoire : en tendant les jambes à un moment bien précis, on donne une impulsion de manière répétée à intervalle régulier (à une fréquence constante), induisant une oscillation. Dans le cas de la balançoire, les équations de la mécanique nous permettent de calculer précisément la fréquence de résonnance (ou d’un pendule simple), qui est fonction de l’amplitude du mouvement.

Les résonances néfastes

Toutes les constructions, comme les ponts, possèdent donc une fréquence propre qui peut être amplifiée si on l’excite suffisamment, c’est-à-dire si on applique une force suffisante dans la bonne direction et à la bonne fréquence, avec des rafales de vents périodiques par exemple ou des soldats qui marchent au pas. Un pont peut ainsi entrer en résonance, provoquant de fortes oscillations jusqu’à son effondrement ! On peut mentionner le cas du pont suspendu de la Basse-Chaîne sur la Maine à Angers qui s’effondra en 1850 suite au passage de militaires marchant au pas (les 226 soldats perdirent la vie). Cependant, l’origine exacte de l’effondrement du pont de la Basse-Chaîne fait toujours débat car une tempête sévissait ce jour-là et le règlement militaire exigeait déjà à cette époque de ne pas marcher au pas sur les ponts…

La rupture du pont de la Basse-Chaîne à Angers en 1850.

On mentionne aussi souvent l’histoire du pont de Tacoma (USA) en 1940 qui serait entré également en résonance suite à des rafales de vent. Cependant, plusieurs études scientifiques ont montré que ce pont ne s’est pas écroulé à cause du phénomène de résonance mais à cause d’une instabilité aéroélastique de torsion engendrée par le vent, voir la vidéo impressionnante de cette catastrophe (le pont a oscillé pendant plus d’une heure avant de s’effondrer) : https://www.youtube.com/watch?v=Rmfl2kFeNPM

En automobile également, nombreuses sont les résonances qui peuvent nous agacer. Vous roulez sur l’autoroute à faible vitesse et tout va bien… Vous décidez alors d’accélérer et là, tout à coup, un bourdonnement survient et persiste, vous accélérez encore et le bruit disparait : vous venez de faire entrer en résonance une partie de votre voiture (carrosserie, pneumatique, etc.), liée à la fréquence de rotation du moteur ou des roues, qui est proportionnelle à la vitesse du véhicule. Pour cette raison les pneumatiques sont désormais équipés de motifs non périodiques (i.e. qui ne se répètent pas parfaitement) pour éviter tout phénomène de résonance au niveau des pneus. Les amortisseurs des automobiles sont également conçus pour avoir des fréquences de résonance qui ont le moins d’impact possible sur le corps humain, moyennant sinon une gêne importante, voire un mal des transports. Comme le mentionne A. Létévé dans sa thèse, « Il s’avère que la plage de fréquence de 0 à 20 Hz dans laquelle le corps humain est extrêmement sensible aux vibrations verticales correspond à la plage de fonctionnement de la suspension ». Il y a clairement des fréquences à éviter pour le corps humain, comme entre 4 Hz et 11 Hz qui entrainent des douleurs similaires à celle d’un infarctus (le cœur a une fréquence de résonance de 7 Hz).

Décomposition du corps humain en systèmes masses ressorts amortisseurs avec les fréquences de résonance de chaque partie. Extrait de la thèse de Aurore Létévé (2014).

Les résonances vertueuses

En musique

La première résonance à laquelle on pense est bien entendu en musique. En effet, les instruments à cordes et à vent ainsi que les percussions exploitent le phénomène de résonance pour former des notes bien précises et pouvoir ainsi jouer un morceau de musique. Sans résonance, pas de musique…

Les instruments à cordes possèdent plusieurs fréquences de résonance qui dépendent de la longueur, de la masse et de la tension de chaque corde. C’est pour cette raison qu’on accorde la plupart de ces instruments en réglant la tension de chaque corde pour obtenir la résonance à la fréquence/note voulue (la masse et la longueur étant constantes). Cette résonance se produit sur l’onde mécanique qui se propage le long de la corde lorsque cette dernière est excitée par une impulsion qui en théorie contient toutes les fréquences. La corde produit alors un son contenant uniquement les fréquences de résonance de la corde (appelées fréquences propres) car toutes les autres fréquences sont rapidement atténuées et disparaissent sans pouvoir être entendues et amplifiées par le corps de l’instrument. L’impulsion initiale est générée par le musicien soit par un pincement (guitare, harpe…), soit par un coup (piano, clavecin…), soit par un frottement avec un archer (violon, violoncelle…). Pour information, la physique des cordes vibrantes est modélisée une équation aux dérivées partielles qui fut resolue par d’Alembert en 1747 et qui s’étudie généralement dans les classes préparatoires scientifiques.

L’équation des ondes qui modélise la propagation d’une onde dans un milieu continu et infini.

En imagerie médicale

Le phénomène de résonance est la clef de voute d’une technique d’imagerie médicale que vous connaissez : l’IRM (Imagerie par Résonance Magnétique). Ici, la résonance n’est pas mécanique comme dans le cas de la balançoire ou des ponts mais magnétique. Un champ magnétique constant est appliqué sur le patient ainsi qu’un champ oscillant pour exciter les spins des atomes du corps humain (propriété quantique des atomes) et les faire entrer en résonance pour les détecter et fabriquer une image, c’est ce qu’on appelle la résonance magnétique nucléaire, voir mon article précédent de la RMN à l’IRM.

En physique des hautes énergies

Une autre application moins connue du grand public est l’accélération des particules à hautes énergies avec des cavités radiofréquences (RF). Pour accélérer des particules chargées, on utilise un champ électrique (les particules positives/négatives sont accélérées par une tension électrique opposée à leur charge). On peut alors utiliser le phénomène de résonance pour améliorer cette accélération en donnant une petite impulsion aux particules à une fréquence précise. Pour induire cette résonance, une onde électromagnétique est envoyée dans une cavité ayant une forme bien particulière permettant la résonance des ondes à la fréquence propre de la cavité, de l’ordre de la centaine de MHz, c’est-à-dire dans la gamme des fréquences radio (d’où le nom de cavités RF). Les cavités sont agencées en série pour accélérer les particules en ligne droite et le champ électrique est alors inversé quand les particules passent au centre d’une cavité de telle manière à ce que les particules « voient » toujours une tension opposée à leur charge pour être accélérées de proche en proche continuellement. Je vous conseille de voir cette petite vidéo du CERN (Organisation Européenne pour la Recherche Nucléaire) sur le fonctionnement des cavités RF du LHC qui illustre bien le phénomène:  https://videos.cern.ch/record/1750705

Un des modules DTL du Linac 4 en train d’être assemblé au CERN (Image: Maximilien Brice/CERN). On peut voir les cavités RF au centre du module entre lesquelles les particules sont accélérées.

Le CERN en 13 photos de 2016

Bonne année 2017 !

Pour commencer l’année, voici ma sélection d’une photo par mois prises en 2016 au CERN (Organisation Européenne pour la Recherche Nucléaire), pour parler un peu de tous les projets, et pas seulement de l’accélérateur de particules LHC. Vous noterez néanmoins que 3 photos sont liées au HL-LHC qui rentrera en service en 2026 et constituera une amélioration majeure du LHC.

Mais avant tout, voici ma photo préférée hors catégorie pour 2016 : une photo prise en Novembre 2016 du calorimètre 4-Pi de nTOF EAR1. Cette expérience de physique s’intéresse au temps de vol des neutrons pour déterminer avec précision leur énergie cinétique et ainsi mieux les comprendre. Ces neutrons sont produits à partir de collisions entre un faisceau de protons pulsé de 20 GeV/c du Proton-Synchrotron (PS) et d’une cible fixe de spallation en plomb. Après 185 mètres de vol, les neutrons arrivent dans ce calorimètre pour mesurer leur énergie.

© CERN. Photograph: Brice, Maximilien

Janvier 2016

Transport du TDI pour HL-LHC. Le TDI (Target Dump Injection) permet d’absorber les éventuelles pertes de faisceau lors de son injection entre une ligne de transfert et un accélérateur. Cet élément est ainsi une protection de la machine pour éviter d’éventuels dommages occasionnés par le faisceau si son insertion dans la machine est défaillante.

© CERN. Photograph: Bennett, Sophia Elizabeth

Février 2016

Installation de la cellule plasma de AWAKE dans l’ancienne zone souterraine de CNGS. Voir mon billet de l’année dernière sur AWAKE qui accélèrera très prochainement des électrons par effet sillage dans un plasma de rubidium à partir d’un faisceau de protons de 400 GeV provenant du SPS.

© CERN. Photograph: Brice, Maximilien

Mars 2016

Test de modules pour HIE-ISOLDE en salle blanche au SM18. Isolde est une expérience de séparation d’isotopes pour produire des éléments exotiques. HIE-ISOLDE permettra de ré-accélérer à hautes énergies (jusqu’à 5,5 MeV/u) des faisceaux d’ions radioactifs créés à partir de collisions entre un faisceau de protons de 1.4 GeV issu du PSB (Proton-Synchrotron Booster) et d’une cible fixe.

© CERN. Photograph: Brice, Maximilien

Avril 2016

Prototype d’écran de faisceau pour le FCC-hh. Vous connaissez ce projet d’accélérateur de particules de 100 km de circonférence ? C’est le FCC (Future Circular Collider). Voir ce billet de juillet 2015 pour plus d’informations. L’écran de faisceau permet de capturer toutes les sources de chaleur (lumière synchrotron, courant image, nuage d’électrons) issus du faisceau pour limiter les charges thermiques sur les aimants supraconducteurs refroidis à très basse température tout en assurant un vide extrême dans le tube faisceau.

© CERN. Photograph: Brice, Maximilien

Mai 2016

Premier câble supraconducteur en niobium-étain pour le HL-LHC en train d’être fabriqué à l’aide d’une machine Rutherford au bâtiment 163. Ce câble sera utilisé dans un dipôle de 11 Teslas ! Les câbles supraconducteurs des aimants du LHC sont actuellement tous en niobium-titane et produisent un champ magnétique de 8 Teslas. A partir de 2026, le HL-LHC possèdera 8 nouveaux dipôles de 11 Teslas et 24 nouveaux quadrupôles de 12 Teslas autour des points de collisions de ATLAS et CMS. C’est plus de 1 km de LHC qui sera remplacé.

© CERN. Photograph: Brice, Maximilien

Juin 2016

Un bébé faucon sauvé par un employé sur un parking du CERN à Meyrin. Il a été remis aux autorités compétentes pour le nourrir et le protéger. Il sera ensuite remis en liberté dans la région.

© CERN. Photograph: Bennett, Sophia Elizabeth

Juillet 2016

Le groupe de rock « MUSE » visite le Centre de Contrôle du CERN (CCC) en présence de Mike Lamont, le chef de l’opération des accélérateurs (à gauche). C’est depuis cette salle que tous les accélérateurs et leurs infrastructures sont pilotés 7j/7 et 24h/24. Le CERN reçoit régulièrement des « VIP » souhaitant visiter ses installations et le CERN reçoit au total plus de 100 000 visiteurs par an !  Si l’envie vous prend, n’hésitez pas : https://visit.cern/

© CERN. Photograph: Brice, Maximilien

Aout 2016

Salle de contrôle du centre de calcul (bâtiment 513). Tout est « vert » : les données issues des collisions des détecteurs du LHC sont en sécurité.

© CERN. Photograph: Brice, Maximilien

Septembre 2016

Expérience ALFA, au point 1 du LHC (détecteur ATLAS). ALFA (Absolute Luminosity For ATLAS) est constitué de 4 « pots romains » (2 de chaque côté du point de collision) qui permettent de mesurer la luminosité lors des collisions élastiques de protons dans le détecteur ATLAS. Ces collisions élastiques n’ont lieu que lorsque les faisceaux se croisent avec un angle très faible dans le LHC (avec un très grand beta*). Dans ce cas, les protons se « traversent » l’un l’autre tout en restant intacts mais en changeant de direction. Un article récent du bulletin du CERN explique tout cela assez clairement. Extrait: « L’objectif de physique de l’expérience ATLAS/ALFA consiste également à réaliser une mesure précise de la section efficace proton-proton totale, puis d’utiliser cette mesure afin de déterminer la luminosité absolue du LHC au point 1 pour l’exploitation avec un bêta étoile de 2,5 km. »

© CERN. Photograph: Suykerbuyk, Ronaldus

Octobre 2016

Fin des travaux de ICARUS au bâtiment 156 avant son transport vers les USA. ICARUS est un ancien détecteur de neutrinos utilisé au laboratoire de Gran Sasso en Italie en collaboration avec le CERN (ancienne expérience CNGS). Ce détecteur a été entièrement « remis à jour » au CERN cette année pour être réutilisé dans deux nouvelles expériences de neutrinos à Fermilab aux USA près de Chicago.

© CERN.Photograph: Steyaert, Didier.

Novembre 2016

Premier faisceau dans le tout nouveau décélérateur ELENA. Eh oui, au CERN, on ne fait pas qu’accélérer des protons, on décélère aussi des anti-protons pour étudier l’antimatière. ELENA permet de décélérer encore plus des anti-protons venant de AD (Antiproton Decelerator) jusqu’à 5,3 MeV.

© CERN. Photograph: Brice, Maximilien

Décembre 2016

Non ce n’est pas un gâteau d’anniversaire mais un prototype de quadrupôle 12 Teslas pour le HL-LHC imprimé en 3D. Les futurs quadrupôles du HL-LHC permettront de beaucoup plus concentrer les faisceaux qu’avec le LHC pour produire 10 fois plus de collisions dans le même temps. Les imprimantes 3D permettent aujourd’hui de concevoir des prototypes réalistes en peu de temps et à moindre coût avant de passer au prototypage avec les matériaux réels souvent très onéreux.

© CERN. Photograph: Bennett, Sophia Elizabeth.

L’accélération plasma par sillage

L’accélération plasma est devenue une technique très à la mode en physique des particules car prometteuse pour l’avenir, mais que ce que cache exactement derrière ce terme ?

En effet, ce type d’accélération s’oppose aux accélérateurs « conventionnels » où les particules sont accélérées par des cavités radiofréquences au sein d’accélérateurs gigantesques (et donc onéreux) de plusieurs dizaines de kilomètres pour les plus grands. Dans l’accélération plasma, fini les cavités radiofréquences ! Les particules sont accélérées par le sillage (wakefield en anglais) laissé par une particule dans un plasma et cela permet de réduire la taille des accélérateurs par un facteur d’au moins 500! La réduction de la taille et donc du coût de ces accélérateurs, en font d’excellents candidats pour les applications industrielles et médicales de demain mais il reste encore du chemin à parcourir…jean-gouffon2

Un peu d’histoire

Le concept a été imaginé à la fin des années 70 à l’université de Californie (UCLA), voir ce papier de Tajima et Dawson. Les premiers prototypes ont vu le jour dans les années 80 et se sont révélés prometteurs. Après plus de 30 ans d’expériences et d’idées nouvelles, plusieurs grands centres de recherche, aux Etats-Unis principalement, ont réussi à atteindre des énergies relativement importantes, de l’ordre du GeV (Giga Electronvolt) sur de petites distances tout en ayant une bonne répétabilité des expériences. Tous les grands centres de recherche en physique planchent aujourd’hui sur cette « nouvelle » technique.

Le principe

Tout d’abord, rappelons qu’un plasma est un état de la matière où les électrons se meuvent librement. Cela se produit en général dans des gaz chauffés à haute température (plus de 2000 degrés) ou exposés à de très forts champs magnétiques. L’état plasma est en fait l’était de la matière le plus commun dans l’univers car les étoiles sont des plasmas. Sur terre, on peut citer les éclairs et les néons qui sont aussi des plasmas.

Un plasma, vu de loin, est électriquement neutre: il y a autant de charges négatives dues aux électrons que de charges positives dues aux ions. Cependant, si on arrive à séparer les électrons des ions localement, on peut créer un champ électrique important sur une très faible distance et donc accélérer des particules. Pour séparer les électrons des ions longitudinalement, il existe plusieurs techniques pour former un sillage dans le plasma, créant ainsi localement d’importants champs électriques. Ce sillage peut être provoqué par plusieurs types de particules traversant le plasma :

  • Un paquet d’électrons
  • Un paquet de protons
  • Une impulsion laser (un paquet de photons)

Aux Etats-Unis : Laser-Plasma

La plupart des expériences aux Etats-Unis s’intéressent à l’accélération laser-plasma car plus simple à mettre en œuvre et jugée plus prometteuse pour les applications. En effet, il parait plus simple et plus économique de mettre en place un LASER très puissant, plutôt qu’un autre accélérateur de particules en amont pour fabriquer le sillage. Citons quelques réussites d’accélération laser-plasma aux Etats-Unis :

  • Au LBNL (Lawrence Berkley National Laboratory): des électrons sont accélérés à 1 GeV en 3,3 cm.
  • A l’université du Texas (Austin): des électrons sont accélérés à 2 GeV en 2 cm (c’est le record actuel).
  • Au SLAC : un gain de 40 GeV est apporté à un faisceau d’électrons en seulement 85cm.

berkley_laserplasmaLe LBNL a produit un faisceau d’électrons de 1GeV sur 3.3 cm. © Lawrence Berkeley National Laboratory.

A titre de comparaison, il faut aujourd’hui compter environ 65 mètres pour accélérer des électrons à 1 GeV avec les techniques traditionnelles (cavités radiofréquences), on voit bien ici l’immense potentiel de l’accélération plasma pour les applications industrielles et médicales.

 Au CERN : AWAKE

Quant au CERN à Genève (Organisation Européenne pour la Recherche Nucléaire), une nouvelle expérience est en train de voir jour sur cette thématique qui s’appelle AWAKE (Advanced Wakefield Acceleration). Ici, c’est un faisceau de protons provenant d’un accélérateur classique de 7km (le SPS) à 400 GeV qui va venir créer le sillage dans un plasma pour accélérer des électrons sur une dizaine de mètres jusqu’à une énergie de 1 TeV. Cette énergie (1TeV = 1 000 GeV) est mille fois plus importante que les autres expériences d’accélération plasma mais n’oublions pas qu’ici la source pour créer le sillage provient d’un accélérateur classique de 7 km de circonférence tout de même… Cette technique, encore jamais expérimentée, sera ici mise sur pied pour la première fois dans l’objectif de remplacer les cavités radiofréquences classiques des futurs grands accélérateurs de particules (on en est encore très loin, mais il faut bien commencer quelque part !). awake

Schéma général de l’expérience AWAKE. © CERN.

Vous constaterez tout de même la présence d’un LASER dans cette expérience AWAKE car les paquets de protons doivent être du même ordre de grandeur que la longueur d’onde du plasma et il faut donc les « découper » à la bonne taille. C’est avec un puissant laser qu’on va réaliser cette tâche : chaque paquet du SPS va être divisé en environ une centaine de plus petits paquets en utilisant une instabilité d’auto-modulation dans le faisceau de protons. Voir cette vidéo qui vaut toutes les explications du monde.

AWAKE réutilise des installations souterraines existantes au CERN qui hébergeaient auparavant CNGS (expériences sur les neutrinos vers Gran-Sasso). Cependant, deux nouveaux petits tunnels sont en train d’être excavés dans la zone existante pour héberger la ligne LASER ainsi que la source d’électrons. Si tout va bien, les premiers électrons devraient être accélérés fin 2016.

awake_tunnel

Excavation d’un nouveau tunnel pour AWAKE. © CERN.

FCC: le CERN étudie un accélérateur de 100 km !

Nom de code : FCC pour Future Circular Collider, c’est le nom du projet qui regroupe un ensemble d’études pour des futurs grands accélérateurs de particules circulaires de l’ordre de 100 km de circonférence dans la région de Genève où le CERN exploite actuellement le plus grand accélérateur de particules du monde, le LHC (Large Hadron Collider), qui mesure 27 km de circonférence.

FCC_planLocalisation du FCC par rapport au LHC dans la région genevoise. Le FCC passerait sous le lac Léman  et contournerait le massif du Salève entre Suisse, Ain et Haute Savoie. © CERN.

Un accélérateur de 100 km pour faire quoi ?

Si le LHC ne trouve pas de nouvelles particules jusqu’à son énergie maximale en 2018  (14 TeV au centre de masse), cela peut signifier qu’il y a peut-être des particules encore plus massives au-delà de cette énergie qui pourraient répondre aux questions des physiciens qui restent toujours en suspens:

  • Qu’est-ce que la matière noire ?
  • Quelles sont tous les constituants de la matière ?
  • Quelle est l’origine de l’asymétrie matière/antimatière ?
  • Pourquoi la masse des neutrinos est si petite et ont-ils des partenaires super-massifs ?
  • Les particules ont-elles des partenaires super-symétriques ?
  • Y a-t-il d’autres forces dans la nature à plus hautes énergies ?

La communauté internationale s’est donc fixé une limite de 100 TeV au centre de masse (soit 7 fois plus que le LHC) pour repousser cette limite où notre technologie future devrait pouvoir nous conduire mais il y a beaucoup de recherche et de développement à faire pour arriver à ce résultat extrêmement ambitieux. Beaucoup de gens du métier disent que « c’est complètement fou, c’est impossible » mais un ancien responsable de la construction du LHC me disait il y a quelques mois que « c’est exactement ce que tout le monde disait dans les années 80 en parlant du LHC, mais c’est aujourd’hui une réalité et un succès, alors pourquoi serait-ce différent avec le FCC ? ».

En effet, maintenant que le LHC fournit ses résultats et que le boson de Higgs a été découvert à une énergie de 125 GeV, la communauté internationale étudie dès à présent l’ère post-LHC.  Lors de la dernière réunion de la stratégie européenne en physique des particules à Bruxelles en mai 2013, plusieurs grandes priorités pour l’Europe ont été définies dont la nécessité de commencer à étudier des accélérateurs protons-protons et électron-positrons repoussant la limite d’énergie à la frontière des technologies possibles (voir le résumé ici).

FCC_membersParticipants au meeting du coup d’envoi pour le FCC à l’université de Genève en février 2014. ©CERN.

Le CERN doit maintenant rendre une étude conceptuelle détaillée (CDR pour Conceptual Design Report) comprenant les différents aspects du FCC pour la physique, les détecteurs, les accélérateurs et les infrastructures associées pour 2018, date à laquelle une décision devrait être prise par l’Europe, tout en considérant les données fournies par le LHC pendant sa deuxième phase d’exploitation 2015-2018.

Les différents projets

Le FCC encapsule 3 projets de collisionneurs circulaires d’une centaine de kilomètres :

  • FCC-hh : Un collisionneur hadronique proton-proton avec une énergie de 100 TeV au centre de masse (pour comparaison, le LHC est à 14 TeV)
  • FCC-ee (anciennement dénommé TLEP) : Un collisionneur leptonique électron-positron fournissant des faisceaux à des énergies de 45 GeV à 175 GeV (pour comparaison, le LEP2 était à 104 GeV par faisceau).
  • FCC-he : Un collisionneur lepton/hadron réalisant des collisions entre des protons et des électrons à ces énergies.

Le FCC-ee serait en fait une étape intermédiaire pour étudier les bosons W/Z ainsi que le quark top et bien sûr le boson de Higgs en détail avant de construire le FCC-hh qui serait véritablement le projet final pour repousser la limite de l’énergie et trouver de nouvelles particules massives. L’approche est un peu analogue avec l’expérience du LEP (électron/positron) qui a cédé la place au LHC (proton/proton) par la suite.

La taille du FCC n’est pas encore arrêtée car elle est fonction des surcoûts liés au génie civil (plus c’est grand, plus c’est cher) et au surcoût engendré par les aimants qui doivent être plus puissants si l’accélérateur est plus petit pour la même énergie. De plus, les contraintes géographiques peuvent avoir un impact significatif (lac, montagne, …) sur le génie civil. Les études portent donc sur des versions à 80 km et à 100 km de circonférence pour comparer sérieusement les différentes options qui peuvent s’offrir à nous.

Dans ces 3 projets ambitieux, plusieurs technologies clef sont encore à démontrer pour leur faisabilité, en particulier :

  • Pour le FCC-hh : la capacité de fabriquer en grande quantité des aimants supraconducteurs de 16 Teslas (pour la version 100 km) ou 20 Teslas (pour la version 80km).
  • La capacité de refroidir à une température cryogénique l’ensemble des 100 km d’aimants supraconducteurs de manière réaliste et fiable.
  • Pour le FCC-ee : La capacité de développer des structures accélératrices plus efficaces car il faut compenser environ 7,5 GeV de perte synchrotrons à chaque tour pour des électrons, soit une puissance de 50 MW à apporter à chaque faisceau de manière continue.

 FCC_cryoEvolution de la capacité de refroidissement cryogénique à 4,5 K nécessaire aux accélérateurs existants et projection pour le FCC. © Laurent Tavian.

Le coût

En termes de coût, il est actuellement impossible de donner un chiffre car il y a encore de nombreuses inconnues mais on peut tenter d’extrapoler à partir des expériences passées (LEP et LHC). On peut ainsi estimer le coût à environ 8 milliards d’euros pour le FCC-hh et à 1,5 milliards d’euros pour le FCC-ee (source ici). En termes de consommation électrique, il faut compter environ 450 MW pour le FCC-hh, ce qui représente 4 fois la consommation du LHC. C’est beaucoup mais ça reste dans le domaine du possible sous réserve de développer quelques nouvelles technologies, d’autant que le coût de construction est à distribuer sur au moins une décennie et à répartir entre tous les pays membres du CERN, soit 28 pays.

Plus d’info :

Le verre dans tous ses états

Une histoire de vitrail de cathédrales

Lors d’une visite de cathédrale en région centre pendant mon enfance (oui, j’ai eu une enfance difficile), je me rappelle qu’on m’a expliqué que les vitraux étaient très vieux (genre XIIème siècle) et que la preuve était la suivante: le verre qui constitue le vitrail a coulé avec la gravité et les vitres sont plus épaisses en bas qu’en haut. Me rappelant cette anecdote,  je vais chercher un peu sur le net et cette explication est finalement complètement erronée (la preuve ici dans ce papier paru dans l’American Journal of Physics en 1998). Ce papier permet de calculer le temps qu’il faut au verre pour couler (ce qu’on appelle le temps de relaxation) après l’étude chimique des verres employés aux temps des cathédrales. Dans les vitraux du 12ème siècle, il faudrait compter plusieurs milliards d’années avant de voir le verre couler ! Ça serait physiquement possible en « seulement » 800 ans mais avec une température moyenne de 400 degrés ! En fait, c’est la méthode de fabrication de l’époque qui ne permettait pas la fabrication de vitraux « plats » mais plus épais d’un côté. Le coté le plus épais était donc naturellement placé en bas pour des questions de stabilité du vitrail.

    vitrail-blog

Verre : Solide ou liquide ?

OK, le verre peut donc quand même couler mais dans des temps très longs à température ambiante. Mais au fait, le verre, c’est un liquide ou un solide ? Physiquement parlant, le verre est un solide amorphe : c’est un solide car il possède un volume et une forme propre mais il est qualifié de amorphe car ses atomes ne sont pas structurés de manière organisée à moyenne et à grande échelle, contrairement aux solides cristallisés qui nous sont plus familiers comme les métaux, la neige, le sucre, etc. En fait, cette question est tout de même encore débattue par certains scientifiques mais la communauté considère bien le verre comme un solide, même s’il possède la structure atomique désorganisée d’un liquide.

Transition vitreuse

Pour comprendre la confusion des thermodynamiciens sur l’état du verre, il faut regarder comment le verre est fabriqué :

  • On prend de l’oxyde de silicium (constituant du sable) avec un fondant (qui permet d’abaisser la température fusion) et on les fait fondre à haute température (environ 1300 C) : ces composés sont alors sous forme liquide.
  • On procède ensuite à un refroidissement extrêmement rapide de ce liquide de manière à passer le point de fusion très vite et à ne pas laisser le temps aux atomes de se cristalliser pour former un solide classique, on obtient alors un liquide surfondu.
  • Si on abaisse encore la température mais cette fois-ci doucement, on obtient un « verre » à partir de la « température  de transition vitreuse » où la viscosité augmente alors brutalement pour former un solide amorphe.

 thermo_verre

Le cristal… de verre

Nous venons de voir que par définition, le verre est un solide amorphe, ce qui est l’opposé d’un cristal. Mais alors, comment peut-on fabriquer des verres (à boire) et des carafes en cristal ? Eh bien c’est tout bonnement impossible ! Le mot « cristal » est ici un abus de langage (au sens du physicien) car la structure atomique du « cristal de verre » n’est pas un cristal mais bien un verre !

cristal-francais-verre-vinEn fait, le cristal de verre est un verre dans lequel il y a au moins 24% de plomb (on parle même de cristal supérieur quand la proportion de plomb dépasse les 30% de la masse totale). C’est pour cela que les verres en cristal sont si lourds ! En effet, le plomb a de nombreux avantages dans la fabrication du verre : il permet d’abaisser la température de fusion du verre et donc permet un travail plus facile car plus malléable pendant plus de temps. De plus, le cristal de verre possède un bel éclat à cause de son indice de réfraction important ainsi qu’une sonorité cristalline.

saturnismeAutre chose de très important : ne jamais boire de coca  ayant été conservé dans une carafe en cristal, ça peut être mortel ou rendre votre enfant débile (je ne rigole pas). En effet, les liquides acides (comme le coca et les alcools) peuvent devenir toxiques s’ils sont conservés dans une carafe en cristal ayant peu servi car ils se chargent en plomb jusqu’à des niveaux toxiques et on peut alors en ingérer avec tous les problèmes que cela peut occasionner comme le saturnisme. Il y a même de nombreuses personnes qui pensent que la goutte qui est observée dans la bourgeoisie européenne et nord-américaines serait en fait du saturnisme chronique (qui présente les mêmes symptomes) à cause de leur consommation régulière d’alcool dans des carafes en cristal (voir cet article du American Journal of Medecine par exemple).
Mais bon, si les carafes sont utilisées seulement quelques heures et qu’elles sont bien nettoyées, ça ne pose pas de problème et les carafes en cristal modernes sont souvent pourvues d’une couche protectrice à l’intérieur pour justement éviter de contaminer en plomb les liquides qui s’y trouvent.

Du cristal dans les détecteurs de particules ?

On m’avait déjà trompé dans mon enfance avec les vitraux de cathédrales et maintenant, à l’âge adulte, on me trompe encore dans les détecteurs de particules ! J’ai entendu au CERN que le détecteur de particules CMS détectait dans le LHC certaines particules à l’aide de cristaux de « verre au plomb ». Effectivement, on peut voir ces espèces de lingots de verre, extrêmement lourds, installés dans le détecteur. Eh bien c’est encore faux ! Ces cristaux sont de vrais cristaux au sens physique du terme, avec une structure atomique bien ordonnée, et ce ne sont absolument pas des verres !

En fait, ces cristaux « plombés » permettent de freiner certaines particules et donc de mesurer leur énergie (on parle de calorimètres). Par exemple, le détecteur de particules CMS au CERN possède 80 000 cristaux de tungstate de plomb (PbWO4) pour mesurer l’énergie des particules sensibles à la force électromagnétique comme les photons et électrons. A leur passage dans ces cristaux, les électrons et photons scintillent et génèrent de la lumière de manière proportionnelle à leur énergie et cette lumière générée est ensuite transformée en signal électrique. Ce signal est alors amplifié pour être par la suite traité informatiquement de manière à recalculer avec une très grande précision l’énergie de la particule qui a traversé le cristal (mais pour que ça marche, il faut contrôler la température du cristal au dixième de degré, ce qui n’est pas super facile).

Au total, il a fallu plus de 10 ans aux scientifiques et ingénieurs pour fabriquer ces 80 000 cristaux aux propriétés très spéciales dans une ancienne base militaire russe ainsi que dans un institut chinois à Shanghai. Imaginez que la densité de ces cristaux est de 8,3 tonnes par m3, soit plus que de l’acier (7,8 tonnes par m3) !! Chaque petit cristal pèse 1,5 kg alors que son volume est analogue à une petite tasse à café (parallélépipède de 2,2 cm de côté et 23 cm de long).

 CMS_CristalCristaux de tungstate de plomb utilisés dans le détecteur CMS (et ce n’est pas du verre !)

 Des particules plus rapides que la lumière dans le verre au plomb

En revanche, il est vrai qu’il existe bel et bien des détecteurs de particules utilisant du verre au plomb pour détecter des particules énergétique comme les muons. Ces verres au plomb ont également une grande densité (plus de 6 tonnes par m3) et quand des muons ultra-relativistes (qui vont presque aussi vite que la lumière) traversent du verre au plomb, ils sont beaucoup moins freinés que les photons de lumière et vont alors plus vite que la lumière dans le verre au plomb (mais attention, en aucun cas ils ne dépassent la vitesse de la lumière dans le vide). Ce faisant, un cône de lumière bleue est émis le long de la trajectoire de ces muons qui dépassent la vitesse des photons, c’est ce qu’on appelle l’effet Tcherenkov. C’est le même effet qu’on peut observer dans les piscines de stockage des déchets radioactifs dans les centrales nucléaires où une belle lumière bleue est émise du fait que plusieurs particules vont plus vites que les photons dans l’eau de la piscine.

Semaine speciale boson de Higgs sur Strip Science

Je vous invite a decouvrir cette semaine une Semaine Speciale Boson de Higgs sur Strip Science qui va republier des billets du C@fé des Sciences assortis d’illustrations originales de la part de Strip Science.

Le Boson de Higgs découvert au CERN

Toute la communauté de physique des particules est en effervescence car on ne comprend toujours pas précisément le monde qui nous entoure et la Science vient de faire un petit pas cette année !

L’année dernière, le CERN annonçait qu’il ne pouvait se prononcer quant à la détection ou non du boson de Higgs, une particule prédite par la théorie mais toujours pas détectée, car les données n’étaient pas encore suffisantes (voir mon billet de l’année dernière). Ce 4 Juillet 2012, des milliards de milliards de collisions plus tard , le CERN vient d’annoncer qu’une nouvelle particule de 125 GeV/c² a été détectée avec un intervalle de confiance de plus de 99.99% (un écart type de 5 sigmas pour les mathématiciens) et il semblerait que ce soit le boson de Higgs, mais reste à prouver que c’est bien lui…

 Un boson c’est quoi au fait ?

Les physiciens aiment bien faire des catégories et ranger leurs particules dans des boites plus ou moins grandes. Les particules peuvent par exemple être séparées en 2 grands ensembles selon leur comportement:

  • Les Fermions : obéissent à la statistique de Fermi-Dirac
  • Les Bosons : obéissent à la statistique de Bose-Einstein

Ces 2 catégories de particules se distinguent par ce que les physiciens appellent leur spin. Le spin est un peu comme la capacité de la particule à tourner sur elle-même. A chaque particule, on attribue un nombre de spin qui permet de caractériser cette rotation. Les bosons ont un spin entier comme le photon par exemple (spin=1). Au contraire, les fermions sont des particules ayant un spin demi-entier (1/2, 3/2, 5/2…) comme l’électron (spin=1/2).

Les Fermions

Les fermions constituent l’essentiel de la matière qui nous entoure (les quarks et les électrons) car ces derniers ne peuvent pas se trouver dans le même état d’énergie ensemble (c’est ce qu’on appelle le principe d’exclusion de Pauli). Ceci a pour conséquence qu’un assemblage de fermions forme une structure de matière rigide comme dans les atomes et les molécules qui constituent notre environnement quotidien.

Les Bosons

Au contraire, les bosons peuvent tous être dans le même état d’énergie et on ne peut pas forcément distinguer les différentes particules les unes des autres. Les bosons sont les vecteurs des forces entre les fermions (la force électromagnétique, la force forte et faible). Pareil pour notre désormais célèbre boson de Higgs qui donne une masse aux autres particules (aux autres fermions et aussi aux autres bosons).

Ce comportement bosonique (toutes les particules dans le même état) est directement observable à notre échelle comme dans un laser où tous les photons sont dans le même état et induisent une lumière cohérente (couleur unique en ligne bien droite). C’est également parce que l’hélium-4 est un boson que l’on peut observer la superfluidité de l’hélium à basse température. La supraconductivité aussi provient du fait que les paires d’électrons se comportent comme un seul boson (spin=1/2+1/2=1) à basse température et peuvent ainsi se déplacer sans perte dans un conducteur. Voir ce billet pour ces comportements atypiques de la matière.

Et si ce n’était pas notre bon vieux Higgs ?

Le dernier accélérateur de particules du CERN, le LHC, doit observer un certain taux de production de ce fameux boson de Higgs selon plusieurs modes de désintégrations possibles. Premièrement, le Higgs peut être créé lors d’une collision proton-proton selon différents processus, voir les petits dessins plus bas, appelés diagrammes de Feynman, où notre Higgs est représenté par la lettre « H » :

 

Ensuite, le Higgs peut se désintégrer selon plusieurs modes et c’est ce que les détecteurs de particules regardent. En particulier, les détecteurs regardent les « canaux » suivants :

  • Un Higgs se désintègre en 2 photons
  • Un Higgs se désintègre en 2 bosons Z
  • Un Higgs se désintègre en 2 bosons W
  • Un Higgs se désintègre en 2 tau
  • Un Higgs se désintègre en 2 quarks/antiquark b

Ensuite ces particules secondaires se désintègrent à leur tour selon différents modes possibles également et au total, c’est environ 85 modes de désintégrations qui sont analysés dans les détecteurs.

 

Deux gluons fusionnent pour donner un Higgs qui se désintègre en 2 bosons W

Ces différents processus de désintégrations sont expliqués par le modèle standard, la théorie actuelle qui marche pour ce que l’on a observé jusqu’à présent mais si le LHC observe plus ou moins de Higgs que prévu selon ces différents scénarios, c’est le modèle sur lequel se base toute la physique depuis les années 60 qui serait remis en question ! A partir d’ici, tout est permis et les physiciens ne sont pas en manque d’imagination pour expliquer telle ou telle anomalie du modèle standard qui ouvrirait alors une nouvelle physique. Ces anomalies pourraient par exemple provenir d’une autre particule chargée non prévue par le modèle standard.

Bref, les physiciens ont du pain sur la planche et le LHC relance la recherche internationale pour la compréhension de notre monde et c’est parti pour durer un certain nombre d’années de recherche et d’affinement des mesures du Higgs pour le regarder sous toutes les coutures et voir s’il se tient à carreaux ou si il fait des choses plus « exotiques ».

Certes, pour le commun des mortels, le fait que le boson de Higgs soit différent de ce que prédit le modèle ne va pas changer grand chose. Mais il ne faut pas oublier notre histoire et que chaque remise en question de la physique d’une époque a débouché sur de grandes avancées scientifiques et technologiques. Et puis n’oublions pas que pour trouver ce boson de Higgs, l’homme a dû construire des machines et de détecteurs complexes qui ont de nombreuses applications dans les technologies de l’information et dans l’imagerie médicale.

Et après ?

Le LHC doit poursuivre sa campagne de collisions jusqu’à mars 2013, ce qui permettra encore d’affiner les résultats et de s’assurer que le Higgs colle dans certains modèles ou pas. Ensuite, le CERN va passer un an et demi à consolider cet accélérateur de particules car le LHC fonctionne aujourd’hui à un peu plus de la moitié de sa puissance seulement (mais c’est déjà beaucoup). Il devrait alors repartir à quasiment sa puissance maximale en 2015 pour fournir de nouveaux résultats à des énergies que nous n’avons jamais explorées.

Le problème est que le LHC est une machine de découverte qui fait beaucoup de collisions entre protons et qui balaye une grande portion d’énergie mais ce n’est pas la meilleure machine pour étudier le Higgs en détail. La communauté de physique planche désormais plus sérieusement sur l’après-LHC qui permettra d’étudier en détail le Higgs maintenant que nous savons où il se cachait. Ce sera sans doute un accélérateur linéaire d’électrons et de positrons qui ferait plus de 30 kilomètres de long. Actuellement, les deux projets les plus sérieux et avancés sont l’ILC (International Linear Collider) et le CLIC (Compact Linear Collider). L’ILC permettrait des collisions à 1 TeV et serait sans doute aux USA ou au Japon et le CLIC permettrait des collisions à 3 TeV et serait sans doute au CERN à Genève. Ce choix sera sans doute à faire par la communauté internationale dans les 5 prochaines années selon les résultats du LHC. Affaire à suivre…

 

Prototype test pour le CLIC au CERN (CTF3)

 Quelques liens utiles :