Les ondes gravitationnelles et l’interféromètre LIGO

A moins que vous ne viviez reclus, vous n’avez pas pu passer à côté de la nouvelle annoncée par l’expérience LIGO cette semaine: des ondes gravitationnelles ont été directement détectées.

Aerial5Vue aérienne de LIGO sur le site de Hanford (état de Washington, Etats-Unis). Source : LIGO.

Si vous n’aviez jamais entendu parlé de ces ondes gravitationnelles auparavant, c’est tout simplement parce que cela fait bien longtemps qu’on suppose leur existence et elles avaient même été déduites à partir de mesures indirectes sur un pulsar binaire en 1974 (ce qui d’ailleurs valut un prix Nobel à ses auteurs). L’existence de ces ondes découle directement de la relativité générale d’Einstein de 1916. On peut dire que la mesure directe de ces ondes permet d’enfoncer un peu plus le clou de la relativité générale qui constitue toujours aujourd’hui la théorie la plus avancée pour décrire la gravité: elle n’a jamais été mise en défaut ! Ce n’est donc pas une « découverte » au sens strict mais plutôt une confirmation expérimentale directe.

Si on fait le rapprochement avec la détection du Boson de Higgs au CERN en 2012, c’est un peu pareil car le Higgs avait été prédit depuis les années 60 et a permis de valider un peu plus le modèle standard (le modèle qui explique la matière et ses interactions, sauf la gravité…). Cependant, le boson de Higgs a été déduit de manière indirecte car c’est le produit de ses désintégrations qui a été détecté par des détecteurs, contrairement aux ondes gravitationnelles qui ont directement « excité » les détecteurs de LIGO au mois de Septembre 2015.

Un peu de théorie

Dans la relativité générale, l’espace et le temps sont liés dans une même structure : l’espace-temps. Dans cette structure, tout objet ayant une masse déforme l’espace-temps et si cet objet est accéléré fortement, il peut perturber cette structure selon sa forme, sa direction et sa vitesse. De cette manière, une vague le long de l’espace-temps peut se propager à la vitesse de la lumière et c’est cette vague dans l’espace-temps qu’on appelle « onde gravitationnelle ». Pour induire une onde détectable par nos moyens de mesure sur Terre, le cas idéal serait deux objets très massifs comme des trous noirs ou des étoiles à neutrons qui tourneraient autour d’un point situé entre ces 2 objets. C’est exactement ce qui se passe dans ce qu’on appelle en astrophysique des systèmes binaires composés de 2 étoiles à neutrons ou de 2 trous noirs tournant l’un autour de l’autre et se rapprochant au fur et à mesure jusqu’à se rencontrer (coalescence). C’est visiblement d’une telle coalescence que l’onde gravitationnelle détectée par LIGO était issue.

etoile binaireSystème binaire de 2 étoiles (source : Wikipédia)

Un peu d’expérimentation

La question est simple mais la réponse l’est moins : comment détecter le passage d’une onde gravitationnelle sur Terre ? On peut reformuler cette question comme: comment mesurer une déformation locale de notre espace-temps sur Terre ?

Eh bien, une solution consiste à mesurer la distance entre 2 points et de voir si cette distance serait par hasard soudainement allongée puis rétrécie. Si on double cette expérience de mesure à 2 points du globe et qu’on détecte un allongement/rétrécissement dans ces 2 expériences avec un intervalle de temps égal au temps nécessaire à la lumière pour parcourir cette distance, alors on pourra émettre l’hypothèse qu’une onde gravitationnelle a traversé les 2 expériences car une telle onde doit se propager à la vitesse de la lumière. C’est exactement ce que vient de réaliser LIGO aux États-Unis entre Hanford (état de Washington) et Livingston (état de Louisiane) qui sont distants de 3000 kilomètres et qui ont détecté une onde sur leurs détecteurs à 7 ms d’intervalle. Vous allez me dire que dans ce cas, l’intervalle devrait être alors de 10 ms pour parcourir 3000 km, pas 7 ms, mais l’onde gravitationnelle ne se propage pas forcément perpendiculairement aux 2 expériences mais de biais et donc, le décalage temporel permet également de compléter d’autres données pour trouver dans quelle direction cette onde a été émise. Dans le cas de l’onde détectée par LIGO, ce serait un point dans l’hémisphère sud en direction du grand nuage de Magellan (mais beaucoup plus loin, à environ 1 milliard d’années-lumière).

Interféromètre de Michelson

Pour détecter cette perturbation d’espace-temps entre 2 points, les scientifiques ont construit deux interféromètres de Michelson géants. Le fonctionnement d’un interféromètre Michelson est relativement simple à comprendre car il est simplement constitué de 2 miroirs placés perpendiculairement et d’une lame semi-transparente appelé séparatrice en son centre (plus une autre lame compensatrice si on travaille avec de la lumière blanche). On réalise d’ailleurs fréquemment cette expérience dans les salles de travaux pratiques à l’université ou en école d’ingénieur dans le cadre des cours d’optique ondulatoire pour comprendre le phénomène d’interférence.

Michelson-Morley_experiment_conducted_with_white_lightInterféromètre de Michelson (source : Wikipédia)

La lumière se comporte (parfois !) comme une onde et à ce titre, certaines ondes peuvent se « superposer » et former ainsi des figures d’interférence. Si on fait passer dans un interféromètre de Michelson un faisceau laser, on obtient 2 ondes avec la séparatrice et lorsque les 2 ondes se recombinent après avoir été renvoyées par les miroirs, on induit un déphasage entre les 2 ondes en fonction de la distance entre les miroirs et la séparatrice, ce qui provoque une interférence. Cette interférence apparait sous forme de franges de différentes couleurs selon la source de lumière utilisée. Ces franges sont fonction de la distance entre les 2 miroirs et donc lorsque la distance change, les franges bougent car les 2 ondes de lumière interfèrent différemment. Je me souviens parfaitement de cette expérience pendant mes études d’ingénieur et j’avais trouvé ça incroyable de pouvoir voir aussi facilement le phénomène d’interférence qui s’opère à une échelle si petite.

LIGO : le dispositif

Le concept d’interféromètre est donc assez simple mais pour atteindre la précision souhaitée pour détecter des ondes gravitationnelles, c’est un véritable tour de force car ces interféromètres qui mesurent 4 kilomètres de long doivent pouvoir mesurer une différence de distance de 10-18 m, soit un milliardième de milliardième de mètre ou encore le dix millième du diamètre d’un proton !! Le rapport de distance à mesurer est donc de 1021, ça revient à mesurer une différence de 1 centimètre entre la Terre et l’étoile la plus proche de notre système solaire (Proxima du Centaure située à 4 000 années-lumière). C’est juste incroyable !

Tout d’abord, LIGO possède bien des bras de 4 kilomètres mais en fait, la lumière en parcourt 1600 entre le miroir et la séparatrice car entre les 2, les scientifiques ont rajouté ce qu’on appelle une cavité de Fabry-Perrot dans laquelle le faisceau fait 400 aller/retours histoire de rallonger artificiellement les bras et donc d’améliorer la sensibilité du dispositif.

Basic_michelson_with_FP_labeledSchéma de principe de LIGO. Source : LIGO

Ensuite, les miroirs de 34 cm de diamètre et pesant 40kg chacun sont suspendus à un quadruple pendule géant qui permet de stabiliser les miroirs pour s’affranchir des vibrations du sol et des microséismes. Finalement, c’est bien entendu un LASER très perfectionné de 200 W dans le proche infra-rouge qui est utilisé comme source lumineuse et le faisceau voyage dans une enceinte à vide de 10 000 m3 qui est maintenue à une pression de 10-8 mbar pour éviter toute perturbation.

ligo_suspension

Schéma du quadruple pendule stabilisant les miroirs de LIGO. Source : LIGO.

Au final, il s’agit donc de détecter un signal d’écartement des miroirs au-dessus d’un bruit de fond produit par toutes les petites imperfections du système et de l’environnement et c’est ce qui s’est passé ! Ce qui est incroyable c’est que la forme du signal détecté est véritablement ce à quoi les scientifiques rêvaient: une oscillation qui grandit petit à petit et qui augmente en fréquence jusqu’à s’éteindre soudainement. Cela correspondrait à deux trous noirs qui tourneraient autour l’un de l’autre en se rapprochant de plus en plus vite jusqu’à fusionner pour ne faire qu’un. On flirte avec la science-fiction !

ligo20160211aMesure de l’écartement des miroirs dans les 2 sites de LIGO aux Etats-Unis lors du passage de l’onde gravitationnelle. Source : LIGO.

 La suite de l’aventure…

Eh bien, nous allons peut être pouvoir rajouter une nouvelle particule à notre bestiaire. Si ces ondes gravitationnelles existent bel et bien, cela signifie que la gravité se propage effectivement à la vitesse de la lumière et cette propagation de force peut être associée à une particule vecteur : le graviton. C’est la même chose qu’avec le photon qui « transporte » la force électromagnétique. On peut donc voir LIGO comme un « télescope » mais qui au lieu de détecter des photons, détecte des gravitons, c’est un genre de nouvel astronomie…

Dans les projets avenirs, n’oublions pas que le nouveau LIGO (advanced LIGO) rentre à peine en opération et on peut donc s’attendre à de nouveaux évènements très prochainement. Un projet quasi identique en Europe va bientôt aussi reprendre du service (VIRGO) en Italie près de Pise qui est un autre interféromètre de 3 kilomètres. Il faut aussi mentionner le projet eLISA de l’Agence Spatiale Européenne qui a pour objectif de déployer un interféromètre dans l’espace pour chercher des ondes gravitationnelles également (et on parle ici de faire parcourir 1 million de kilomètres aux faisceaux laser de l’interféromètre..).

A suivre…

Les carottes de glace

Question: comment les scientifiques arrivent-il à reconstituer la composition de l’atmosphère terrestre ainsi que sa température lors du dernier million d’années ?

La discipline qui s’intéresse à cette question s’appelle la paléoclimatologie et comporte de très nombreuses méthodes pour y répondre. L’une d’entre elle consiste à analyser la glace des profondeurs du Groenland et de l’Antarctique en extrayant des carottes de glace.

carotte_lapin En astrophysique on dit que regarder loin dans l’espace revient à regarder loin dans le temps à cause de la vitesse finie de la lumière. En glaciologie, c’est un peu différent : c’est en regardant plus profondément dans la glace que l’on regarde plus loin dans le temps… En effet, au fil des ans, la neige qui tombe se dépose sur la neige plus ancienne qui se transforme alors en glace en emprisonnant de nombreux gaz de l’atmosphère. L’analyse de ces gaz permet ainsi de remonter le temps en déduisant la composition de l’atmosphère au moment où les petites bulles d’air ont été emprisonnées.

cnrs_carotteProjet Aurora Basin North, Antarctique, décembre 2013-janvier 2014. À partir d’un forage de 115 mètres, Jérôme Chappellaz (à droite) et David Etheridge effectuent un prélèvement d’air dans le névé, cet amas de neige qui tend à se durcir et qui se trouve à l’origine d’un glacier. (source).

Le carottage

On fait des carottages depuis les années 50 grâce au glaciologue français Claude Lorius qui a eu cette idée en regardant un glaçon fondre dans son verre whisky lors d’une mission en Antarctique… Pour faire un carottage, il « suffit » de faire un trou dans la glace avec une foreuse et d’en extraire une « carotte » de glace d’une dizaine de centimètres de diamètre. Cette carotte est découpée en tronçons plus ou moins longs pour la transporter dans un frigo vers un laboratoire de glaciologie pour analyse des gaz qu’elle contient. Facile à dire comme ça, mais c’est tout un art de faire des carottes et de les stocker correctement.

Le laboratoire national américain des carottes de glace (NICL) est un centre pour entreposer, nettoyer et étudier les carottes de glaces. NSF Source: http://icecores.org

Le plus grand carottage actuel fait 3,2 kilomètres de profondeur en Antarctique, ce qui correspond à 740 000 ans de données, soit 8 cycles glaciaires ! Il a été réalisé dans le cadre du projet européen EPICA (European Project for Ice Coring in Antarctica), et permettra de recouper les données d’autres forages de profondeurs similaires au Groenland (projets GRIP et GISP2).

Une tête de perceuse pour réaliser les carottages. NSF Source : http://icecores.org

Déduire la température du passé

Pour retrouver la température qu’il faisait lors de la formation de la glace de la carotte, on utilise ce qu’on appelle un thermomètre isotopique mais ce dernier n’a pas grand-chose à voir avec un thermomètre au sens commun…

Cette méthode exploite le fait que plus il fait froid et moins l’eau possède des atomes lourds. On apprend à l’école que l’eau est constituée de 2 atomes d’hydrogène liés à un atome d’oxygène (H2O). C’est vrai mais les atomes peuvent être plus ou moins lourds, c’est ce qu’on appelle les isotopes d’un atome, car ces derniers peuvent comporter plus ou moins de neutrons dans leur noyau. Bref, l’oxygène de l’eau peut posséder 8 ou 10 neutrons et l’hydrogène 0 ou 1 neutron.  Donc, plus il fait froid et moins l’eau possède d’oxygène et d’hydrogène « lourd » (oxygène-18 et deutérium). En mesurant la teneur de ces différents isotopes dans la glace, le chercheur arrive ainsi à retrouver précisément la température qu’il faisait lorsque l’eau a gelé.

018-TempConcentration en oxygène-18 selon la température de surface (source : Jean Jouzel 1987)

Cependant, on utilise aussi un thermomètre  «classique » pour mesurer la température le long du trou de forage. Ce profil de température permet aux chercheurs de calibrer le thermomètre isotopique car ce dernier possède une erreur. Comme la température le long du forage doit évoluer de la même manière que la température de l’époque, on peut corriger la mesure du thermomètre isotopique mais pour cela il faut résoudre un problème inverse. En effet, les chercheurs possèdent un assez bon modèle qui explique comment la chaleur se propage dans la glace et donc comment la température va se répartir dans le temps à travers la glace. Le souci est qu’ici on connaît le résultat de ce modèle (la température dans la glace aujourd’hui après des milliers d’années dans chaque couche du forage) mais on ne connaît pas la donnée d’origine (la température initiale dans chaque couche de glace). Pour résoudre de tels problèmes inverses, les glaciologues doivent donc travailler avec des mathématiciens, des chercheurs en traitement du signal et des automaticiens qui sont familiers de ce genre de problèmes. Et ce qui est merveilleux, c’est que ça marche et que ce genre de corrections est même indispensable pour obtenir une bonne précision. De cette manière, les paléo-climatologues ont pu calculer avec une bonne estimation la température qu’il faisait sur Terre lors des derniers 800 000 ans.

Reconstruire l’atmosphère d’antan

Maintenant que vous savez comment les chercheurs déduisent la température du passé grâce aux carottes de glace, voyons comment on peut également retracer l’évolution des différents gaz constituant l’atmosphère terrestre, toujours avec les carottes. Tout d’abord, il faut bien comprendre comment la neige se dépose sur les anciennes couches et comment cette dernière se tasse et se transforme en glace.

Entre la neige fraiche qui tombe et la glace où les bulles de gaz sont emprisonnées, il y a une zone de transition appelée « névé ». Cette couche fait entre 50 mètres (au Groenland) et 120 mètres (en Antarctique) et dans cette couche, les bulles de gaz peuvent se déplacer soit par convection dans sa partie haute (due aux différences de températures et aux vents de surface), soit par diffusion dans sa partie basse (les molécules de gaz les plus lourdes migrent vers le froid en bas et les plus légères vers le chaud en haut), voir la figure ci-dessous.

neve_profilProfil d’un névé qui se situe entre la neige fraiche qui s’accumule à la surface et la glace en profondeur. (Source: Sowers 1992).

Les chercheurs sont donc une fois de plus amenés à résoudre un problème inverse car ils mesurent aujourd’hui la concentration des gaz dans la glace et doivent déduire quelle était la concentration des différents gaz à la date où la neige est tombée, en considérant toute la période de névé pendant laquelle les gaz ont pu se déplacer. Le problème est très compliqué car le gaz contenu dans une bulle emprisonnée peut donc provenir de différentes époques… C’est effectivement un vrai casse-tête et il existe plusieurs modèles pour rendre compte de tous ces phénomènes plus ou moins compliqués. De plus, les chercheurs s’intéressent à de nombreux gaz pour reconstruire le climat (le méthane, le CO2, l’oxygène, les CFC, etc.) et les modèles doivent donc aussi incorporer de la chimie et sont donc d’autant plus compliqués, surtout pour les inverser et les résoudre dans un temps raisonnable.

Encore une chose, pour corriger et ajuster tous les calculs, les glaciologues peuvent avoir recours à des contraintes chronologiques pour forcer une certaine couche de glace à une certaine période comme lors des grandes éruptions volcaniques ou lors de phénomènes astronomiques influençant le climat. Par exemple, il existe un pic de Bérilium-10 à environ 41 000 ans car à cette époque, la Terre a connu un très faible champ magnétique et ce phénomène a eu pour effet de laisser passer de nombreux isotopes venus du cosmos sur Terre comme le bérilium-10. On retrouve ce pic dans les différentes carottes de glace et c’est comme cela que les chercheurs « forcent » leur modèle pour obtenir cet âge à la profondeur correspondante (740 m dans le forage EPICA en Antarctique par exemple).

Les autres méthodes de la paléoclimatologie

Les carottes de glace ne sont pas l’unique méthode pour reconstituer le climat du passé. Les chercheurs ont aussi recours à la dendroclimatologie (analyse des arbres et plus particulièrement de leurs cernes), à la sclérochronologie (analyse des coraux et coquillages) ainsi que l’analyse de tous les fossiles de faune et de flore et des sédiments qui donnent de précieux indicateurs du climat. Toutes ces méthodes peuvent ensuite être comparées et combinées pour permettre de reconstituer le scénario le plus probable de notre climat passé.

All_palaeotempsReconstitution de la température moyenne sur Terre pendant les 500 derniers millions d’années. Les données jusqu’à 800 000 ans viennent des carottes de glace. Source Wikipedia.

La métallurgie et les alliages

Voici un sujet qui m’est étranger et c’est la raison pour laquelle je l’aborde dans mon blog : j’ai envie d’en savoir plus !

Les métaux

La métallurgie est avant tout une science : celle qui s’intéresse aux métaux et à ses alliages. Un métal est défini physiquement comme un matériau possédant des liaisons atomiques métalliques, c’est-à-dire que les différents atomes échangent plus d’un électron pour rester soudés. Au total, le tableau périodique des éléments contient 91 métaux sur 118 éléments connus, autant dire que les métaux sont omniprésents puisqu’ils représentent plus des trois quarts des éléments connus. En général, les métaux sont extraits de roches issues de la croûte terrestre : le minerai (d’où le nom de métal). Metallurgie-junker2

Tous les métaux sont très différents, certains sont radioactifs et dangereux comme l’uranium, et d’autres sont omniprésents dans notre corps comme le fer. Ils possèdent tous des propriétés chimiques et mécaniques distinctes qui leur confèrent des avantages et des inconvénients selon les applications industrielles (poids, solidité, élasticité, corrosion, etc.). Prenons quelques exemples de métaux:

  • L’argent est le meilleur conducteur électrique et thermique.
  • Le fer est très abondant sur Terre et s’aimante en présence d’un champ magnétique (ferromagnétisme).
  • L’osmium est l’élément naturel le plus dense sur Terre avec 22 tonnes pour un mètre cube (3 fois plus dense que du fer).
  • Le Tungstène est le métal ayant le plus grand module de Young, c’est-à-dire que c’est le métal le moins élastique.
  • Le mercure est le seul métal liquide à température et pression ambiante.
  • Le Nickel est très peu sensible à la corrosion et à l’oxydation.
  • L’or est un métal jaune, brillant et malléable, ce qui le prête bien à la bijouterie.

C’est à cause de leurs grandes disparités que l’homme a naturellement été tenté de « mélanger » les métaux ensemble pour fabriquer des alliages répondant mieux à ses exigences techniques.

Les alliages

Pour qu’il y ait alliage, les différents métaux de la composition doivent être miscibles entre eux, c’est-à-dire qu’en les chauffant à une température précise, ils se mélangent parfaitement de manière à obtenir un nouveau matériau homogène sans pouvoir distinguer les différentes espèces qui le composent. En général, les éléments ne sont pas complètement miscibles et doivent donc respecter certaines proportions à ne pas dépasser (limite de solubilité).

On trouve de nombreux alliages pour quasiment tous les métaux mais il existe trois grandes familles d’alliage à cause de leur abondance sur Terre et donc de leur prix raisonnable:

  • les alliages à base de fer (fonte, acier, inox)
  • les alliages à base de cuivre (bronze/arain, laiton, billon)
  • les alliages à base d’aluminium

chevalP1-10A Le cheval du trésor de Neuvy-en-Sullias. Un des plus beaux bronzes de la Gaule romaine, Ier siècle av. J.-C. – Ier siècle ap. J.-C. Alliage cuivreux coulé selon le procédé de la fonte à la cire perdue. (source : JF BRADU).

Au niveau physique, les atomes des différents métaux peuvent se « mélanger » plus ou moins bien selon la température, la nature des atomes et leur arrangement. Pendant longtemps, l’homme a naturellement trouvé des alliages de manière empirique et aujourd’hui notre meilleure compréhension de la matière nous permet de « penser » à des alliages selon nos besoins.

Il existe des alliages homogènes dans lequel l’élément d’addition peut soit remplacer un atome du métal de base (substitution), soit s’intercaler dans le réseau atomique (insertion). Quand il y a substitution, les atomes doivent avoir une taille semblable. Si les atomes des différents métaux sont de taille équivalente à 15 % près, il y a miscibilité totale, et, si les atomes diffèrent de 15 % à 30 % en taille, il y a miscibilité partielle. Au-delà, les métaux ne sont pas miscibles par substitution. En revanche, il peut y avoir une insertion d’un atome de petite taille dans un réseau d’atomes plus gros comme c’est le cas pour les aciers où des atomes de carbone ayant un rayon de 70 picomètres sont insérés dans un réseau d’atomes de fer ayant chacun un rayon de 140 picomètres, soit le double. Cette insertion fonctionne uniquement si la quantité d’éléments ajoutés est relativement faible par rapport au métal de base et dépend du schéma d’organisation des atomes, sinon la miscibilité est impossible.

fer_carbone_CFC_3Acier: Insertion d’atomes de carbone (en noir) dans une structure cubique à face centrée de fer (en rouge) (source : iutenligne).

Les aciers

Un des alliages les plus utilisé dans l’industrie aujourd’hui est l‘acier mais c’est un alliage relativement récent car découvert véritablement à la fin du 18ème siècle (contrairement à la fonte et le bronze qui sont connus depuis plus de 2000 ans). L’acier est un alliage très inégal car il est constitué de fer avec seulement 0,02% à 2% de carbone (au-delà de 2%, c’est de la fonte). Il existe aujourd’hui plusieurs centaines d’aciers différents selon la teneur en carbone et l’addition d’autres métaux dans l’alliage. Les procédés de fabrication sont extrêmement complexes avec des recettes de cuisine bien spéciales. Dans une voiture, on trouve plus de 40 types d’aciers différents (voir cet article intéressant sur l’acier).

Quelques types d’aciers:

  • acier inoxydable (inox) : fer contenant moins de 1,2% de carbone avec plus de 10,5% de chrome. D’aspect brillant, il résiste bien à la corrosion, il ne rouille pas. Il en existe une vingtaine de différents car on ajoute aussi généralement du nickel ou du manganèse (d’où l’expression « nickel-chrome« ). En cryogénie, on utilise généralement de l’acier inoxydable 304L (0,02% de carbone, 18% de chrome et 10% de nickel) qui résiste très bien aux très basses températures (< -200 °C).
  • acier galvanisé : ici on vient recouvrir l’acier d’une couche de zinc pour le protéger contre la corrosion. Ce dépôt fait entre 50 et 100 microns selon les applications et la durée de vie souhaitée. En milieu rural, un dépôt de 100 microns permet une protection pour 100 ans !
  • acier trempé : l’homme a découvert qu’en chauffant l’acier à haute température (autour de 900 °C pendant environ 30 minutes) et en le trempant dans l’eau froide soudainement, on améliore par la suite ses propriétés mécaniques en le rendant plus dur (mais plus fragile).

Durée_de_vie_de_la_galvanisation Durée de vie de la galvanisation selon l’épaisseur de zinc (source : wikipédia)

La bijouterie

L’alliage est de rigueur en bijouterie ! Si vous aviez des bijoux en or pur, ils se déformeraient trop, un coup de dent modéré laissant une empreinte dans l’or pur sans problème ! En France, un bijou est qualifié « en or » s’il possède au moins 75 % d’or, soit 18 carats (24 carats = 100%). Les joailliers ajoutent donc d’autres métaux pour des raisons mécaniques et esthétiques. Par exemple, on ajoute du cuivre pour faire de l’or rouge, du nickel pour l’or blanc, de l’argent et du cuivre pour l’or jaune ou rose selon les proportions. Avec de l’argent, c’est pratiquement toujours du cuivre qui est ajouté. On trouve aussi des bijoux en platine (plus cher encore que l’or), en bronze, en laiton, en cuivre ainsi qu’en vermeil (argent à 92,5% recouvert d’au moins 5 microns d’or à 75%).

350px-Ag-Au-Cu-colours-english.svg Différentes couleurs de l’or selon les proportions d’or, d’argent et de cuivre (source: wikipédia)

Des alliages high-tech

Il existe aujourd’hui des alliages de hautes technologies pour les applications de pointes comme l’aéronautique ou le spatial qui nécessitent des exigences en matière de solidité, de poids, d’élasticité et de durée de vie (mais pas trop en matière de prix). Ici, on parle généralement de titane, de tungstène et de cobalt.

Un des plus utilisés est le Ti 6Al-4V (alliage de titane avec 6% d’aluminium et 4% de vanadium) qui est très léger et robuste. De plus il peut fonctionner à haute température (300 °C) et est peu sensible à la corrosion. On le retrouve dans les pales de turbines, dans les structures d’avion et d’armes mais également dans des équipements de sport haut de gamme et dans des implants médicaux et dentaires. golfClub de golf en alliage Ti 6Al-4V (source : Tour spec golf)

On retrouve aussi des alliages sous forme de marque déposée par les entreprises qui les ont créés comme l’Invar® (64% de fer et 36% de Nickel) qui présente une étonnante propriété de dilatation thermique : l’Invar® ne se déforme presque pas quand sa température change (10 fois moins que du fer) et est donc utilisé abondamment en horlogerie ainsi que pour fabriquer des appareils de mesure. L’Invar® est également utilisé pour fabriquer les membranes des cuves des méthaniers transportant du gaz naturel liquéfié à -164 °C pour éviter leur déformation avec la température.

1024px-LNG_BONNYMéthanier possédant une membrane interne en Invar®.

Signalons aussi des alliages à base de tungstène qui sont très intéressants car très denses (19 tonnes par mètre cube) et résistants aux très hautes températures (point de fusion du tungstène à 3422 °C) comme le Densimet® (tungstene+nickel+fer), l’Inermet® (tungstene+nickel+cuivre) ou le Denal® (tungstene+nickel+acier+cobalt) qui possèdent une densité d’environ 17 tonnes par mètre cube et qui sont utilisés pour réaliser des blindages ou des systèmes de collimation pour les rayons X ou gamma dans les centres de radiothérapie.

Combien ca coûte ?

Coté prix, un kilo d’or vaut environ 20 000 euros contre 250 euros pour 1 kilo d’argent, 4,5 euros pour un kilo de cuivre et 4,5 centimes pour un kilo de fer ! Mais il y a des métaux beaucoup plus cher que l’or : un kilo de rhodium (métal parfois appliqué sur les bijoux en argent pour les rendre anti-corrosifs) coûte 300 000 euros !! Quant aux alliages, le prix dépend bien évidemment des métaux qui les composent mais surtout de la complexité du travail à accomplir pour l’obtenir. L’acier coûte ainsi 40 centimes le kilo, soit 10 fois plus cher que le fer qui est son constituant à 98%, et l’inox s’échange à 2 euros le kilo pour 90% de fer à 4,5 centimes par kilo (50 fois plus cher). Pas étonnant quand on voit la complexité d’une acierie…

L’accélération plasma par sillage

L’accélération plasma est devenue une technique très à la mode en physique des particules car prometteuse pour l’avenir, mais que ce que cache exactement derrière ce terme ?

En effet, ce type d’accélération s’oppose aux accélérateurs « conventionnels » où les particules sont accélérées par des cavités radiofréquences au sein d’accélérateurs gigantesques (et donc onéreux) de plusieurs dizaines de kilomètres pour les plus grands. Dans l’accélération plasma, fini les cavités radiofréquences ! Les particules sont accélérées par le sillage (wakefield en anglais) laissé par une particule dans un plasma et cela permet de réduire la taille des accélérateurs par un facteur d’au moins 500! La réduction de la taille et donc du coût de ces accélérateurs, en font d’excellents candidats pour les applications industrielles et médicales de demain mais il reste encore du chemin à parcourir…jean-gouffon2

Un peu d’histoire

Le concept a été imaginé à la fin des années 70 à l’université de Californie (UCLA), voir ce papier de Tajima et Dawson. Les premiers prototypes ont vu le jour dans les années 80 et se sont révélés prometteurs. Après plus de 30 ans d’expériences et d’idées nouvelles, plusieurs grands centres de recherche, aux Etats-Unis principalement, ont réussi à atteindre des énergies relativement importantes, de l’ordre du GeV (Giga Electronvolt) sur de petites distances tout en ayant une bonne répétabilité des expériences. Tous les grands centres de recherche en physique planchent aujourd’hui sur cette « nouvelle » technique.

Le principe

Tout d’abord, rappelons qu’un plasma est un état de la matière où les électrons se meuvent librement. Cela se produit en général dans des gaz chauffés à haute température (plus de 2000 degrés) ou exposés à de très forts champs magnétiques. L’état plasma est en fait l’était de la matière le plus commun dans l’univers car les étoiles sont des plasmas. Sur terre, on peut citer les éclairs et les néons qui sont aussi des plasmas.

Un plasma, vu de loin, est électriquement neutre: il y a autant de charges négatives dues aux électrons que de charges positives dues aux ions. Cependant, si on arrive à séparer les électrons des ions localement, on peut créer un champ électrique important sur une très faible distance et donc accélérer des particules. Pour séparer les électrons des ions longitudinalement, il existe plusieurs techniques pour former un sillage dans le plasma, créant ainsi localement d’importants champs électriques. Ce sillage peut être provoqué par plusieurs types de particules traversant le plasma :

  • Un paquet d’électrons
  • Un paquet de protons
  • Une impulsion laser (un paquet de photons)

Aux Etats-Unis : Laser-Plasma

La plupart des expériences aux Etats-Unis s’intéressent à l’accélération laser-plasma car plus simple à mettre en œuvre et jugée plus prometteuse pour les applications. En effet, il parait plus simple et plus économique de mettre en place un LASER très puissant, plutôt qu’un autre accélérateur de particules en amont pour fabriquer le sillage. Citons quelques réussites d’accélération laser-plasma aux Etats-Unis :

  • Au LBNL (Lawrence Berkley National Laboratory): des électrons sont accélérés à 1 GeV en 3,3 cm.
  • A l’université du Texas (Austin): des électrons sont accélérés à 2 GeV en 2 cm (c’est le record actuel).
  • Au SLAC : un gain de 40 GeV est apporté à un faisceau d’électrons en seulement 85cm.

berkley_laserplasmaLe LBNL a produit un faisceau d’électrons de 1GeV sur 3.3 cm. © Lawrence Berkeley National Laboratory.

A titre de comparaison, il faut aujourd’hui compter environ 65 mètres pour accélérer des électrons à 1 GeV avec les techniques traditionnelles (cavités radiofréquences), on voit bien ici l’immense potentiel de l’accélération plasma pour les applications industrielles et médicales.

 Au CERN : AWAKE

Quant au CERN à Genève (Organisation Européenne pour la Recherche Nucléaire), une nouvelle expérience est en train de voir jour sur cette thématique qui s’appelle AWAKE (Advanced Wakefield Acceleration). Ici, c’est un faisceau de protons provenant d’un accélérateur classique de 7km (le SPS) à 400 GeV qui va venir créer le sillage dans un plasma pour accélérer des électrons sur une dizaine de mètres jusqu’à une énergie de 1 TeV. Cette énergie (1TeV = 1 000 GeV) est mille fois plus importante que les autres expériences d’accélération plasma mais n’oublions pas qu’ici la source pour créer le sillage provient d’un accélérateur classique de 7 km de circonférence tout de même… Cette technique, encore jamais expérimentée, sera ici mise sur pied pour la première fois dans l’objectif de remplacer les cavités radiofréquences classiques des futurs grands accélérateurs de particules (on en est encore très loin, mais il faut bien commencer quelque part !). awake

Schéma général de l’expérience AWAKE. © CERN.

Vous constaterez tout de même la présence d’un LASER dans cette expérience AWAKE car les paquets de protons doivent être du même ordre de grandeur que la longueur d’onde du plasma et il faut donc les « découper » à la bonne taille. C’est avec un puissant laser qu’on va réaliser cette tâche : chaque paquet du SPS va être divisé en environ une centaine de plus petits paquets en utilisant une instabilité d’auto-modulation dans le faisceau de protons. Voir cette vidéo qui vaut toutes les explications du monde.

AWAKE réutilise des installations souterraines existantes au CERN qui hébergeaient auparavant CNGS (expériences sur les neutrinos vers Gran-Sasso). Cependant, deux nouveaux petits tunnels sont en train d’être excavés dans la zone existante pour héberger la ligne LASER ainsi que la source d’électrons. Si tout va bien, les premiers électrons devraient être accélérés fin 2016.

awake_tunnel

Excavation d’un nouveau tunnel pour AWAKE. © CERN.

La beauté des équations en physique

Certains vous dirons que la physique est ennuyeuse, d’autres qu’elle est compliquée ou encore difficile d’accès alors que les physiciens vous diront qu’elle est une science noble et que la physique  produit de « belles » équations. La beauté d’une équation ? Oui, parfaitement, une équation peut être esthétique. Cette beauté des équations peut revêtir à mon sens 2 traits distincts :

  • La beauté visuelle : elle est belle à regarder.
  • La beauté du sens : elle exprime une quantité d’informations extraordinaires avec un minimalisme et une exactitude mathématique.

equation3

A quand les musées d’équations ?

La beauté visuelle

Si une équation est belle esthétiquement, c’est d’abord parce que la physique utilise de nombreux signes différents, parfois inconnus du grand public. De plus, tous ces chiffres, lettres et signes étranges se côtoient les uns à côté des autres  sans logique apparente pour les non-initiés et c’est sans doute cet agencement un peu magique qui peut rendre une équation « belle ».

Une équation physique peut bien entendu contenir des chiffres arabes (0,1, 2, 3,…) pour définir une valeur, ainsi que des lettres pour définir une quantité physique (la masse, la vitesse, etc.).

Ces lettres, majuscules ou minuscules, peuvent être soit latines (a, b, c, d…) en caractère d’imprimerie ou en écriture cursive, soit grecques, ce qui apporte pour nous autres français une première touche d’exotisme dans les équations. Au total, ça nous fait déjà 166 caractères possibles pour nos équations !

alphabetgrecAlphabet grec majuscule et minuscule. Toutes les lettres sont utilisées en physique et certaines lettres ont pratiquement toujours la même signification. Par exemple lambda représente toujours une Longueur d’onde ou une conductivité thermique en thermodynamique.

 Le troisième type de caractère que l’on peut rencontrer en plus des chiffres et des lettres est le plus intéressant car sans doute le plus inaccessible et le plus puissant, à savoir les opérateurs mathématiques (en dehors des quatre opérateurs arithmétiques de base pour l’addition, la soustraction, la multiplication et la division). Ces opérateurs permettent de réaliser des calculs répétitifs (voir rébarbatifs) entre les lettres et les chiffres de manière à simplifier les écritures et éviter d’avoir des équations de 10 kilomètres de long !  Citons-en quelques-uns :

  • La somme, grande et majestueuse, est un sigma grec majuscule. Elle permet l’addition de nombreux termes dans une écriture compacte.
  • L’intégrale, avec sa belle courbe de chat, permet de sommer une infinité de quantité.
  • Nabla, qui n’est autre que le delta grec majuscule inversé, permet de simplifier la notation des équations aux dérivés partielles et d’économiser beaucoup de papier et d’encre.
  • Le Bra-Ket en physique quantique permet de simplifier grandement les équations utilisant des états quantiques.

 operateurs

 En plus de toutes ces « belles » lettres et symboles, le physicien possède toute une panoplie de petits signes supplémentaires pour surcharger les lettres. Au-dessus, on peut ajouter des flèches (les vecteurs), des points (les dérivés), des accents circonflexes (une estimation), ou bien des barres (un opposé). Autour, les lettres peuvent s’encadrer entre des barres verticales simples ou doubles (modules), entre des crochets, ou encore entre des accolades ou des parenthèses. Et puis évidemment, on a tous les indices et exposants à notre disposition pour continuer notre décoration.

Bref, tout un attirail pour faire de jolies choses, où les styles peuvent aller du minimalisme au rococo en passant par le baroque…

 La beauté du sens

En plus de l’esthétique, il y a bien sûr le « sens » d’une équation et surtout ses conséquences, tant sur le plan métaphysique que pratique. Le physicien trouve souvent une équation « belle » si avec peu de termes il peut en découler une théorie toute entière.

C’est par exemple ce qui fait la célébrité du fameux E=mc2 : seulement 5 caractères, chaque terme est facilement exprimable avec des mots communs (énergie, masse et vitesse de la lumière) et les conséquences sont énormes car cette équation signifie que masse et énergie sont équivalentes et que la masse inerte contient une énergie gigantesque. Sur le plan pratique, cette équation permet de penser à de nouvelles sources d’énergie pour l’humanité (centrales nucléaires) mais aussi malheureusement à des sources colossales de destruction (bombe atomique, bombe hydrogène).

Mais le physicien qualifie aussi parfois des équations compliquées de « belles » car il est parvenu à en percer le sens et à s’approprier chaque terme et chaque relation entre les grandeurs, et ceci a un petit côté magique. C’est le moment où on arrive à comprendre une équation, à en saisir le sens profond et tout d’un coup, une vulgaire équation devient belle…

Il faut aussi savoir qu’une équation possède toujours un domaine de validité, c’est-à-dire un contexte physique dans lequel l’équation est vraie. En dehors de ce domaine, l’équation ne marche plus. Par exemple, la loi universelle de la gravitation établie par Isaac Newton en 1684 n’est pas universelle contrairement à son intitulée, elle est valide uniquement si la vitesse relative des corps est très inférieure à la vitesse de la lumière ((v/c)2 << 1). En effet, depuis 1915, la relativité générale d’Einstein explique la gravité dans toutes les situations observées jusqu’à aujourd’hui et possède donc à l’heure actuelle un domaine de validité infini (mais qui sera peut-être un jour réduit). On peut conclure que l’équation de la relativité générale est belle car elle s’applique en toutes circonstances mais elle est très difficile d’accès pour ce qui est d’en saisir le sens profond, alors que la loi universelle de la gravitation de Newton est belle car très simple à comprendre mais elle n’est pas toujours valide.

 graviteNewton contre Einstein : 2 équations expliquant la gravité. Quelle est la plus belle ? La plus simple à saisir ou celle ayant le plus grand domaine de validité ?

 Les 4 équations que j’aime bien

Voici 4 équations que j’aime bien et que je trouve belles. Je vous les présente par ordre chronologique ci-dessous.

L’équation de bilan d’énergie d’un fluide newtonien en mouvement dans l’approximation des milieux continus est décrite par la 3eme équation de Navier-Stokes (1845). Un million de dollars sera offert par l’institut Clay à celui qui trouve la solution générale. Je l’aime bien car je l’ai utilisée dans ma thèse et j’ai pas mal travaillé dessus : je la trouve donc tout simplement belle…

navierstokesL’équation de Maxwell-Faraday (1865) est une des 4 équations de Maxwell qui décrivent l’interaction électromagnétique et donc tous les phénomènes lumineux. Cette équation nous dit notamment qu’une variation du champ magnétique dans le temps permet d’induire un champ électrique dans l’espace et donc un éventuel courant dans un câble. Toutes les génératrices électriques comme les dynamos de vélo utilisent cette équation. J’ai représenté ici la même équation sous sa forme locale (dérivée) et sous sa forme intégrale que certains trouveront plus « esthétique ».

maxwellfaradaymaxwellfaraday_integraleLe principe d’incertitude d’Heisenberg (1927). Celle-ci je l’aime bien pour son style minimaliste et parce qu’elle est simple à comprendre (même si en détail, ce n’est pas aussi simple) : le produit des « erreurs » de mesure sur la position (sigma x) et sur le moment (sigma p) d’une particule est toujours supérieur à une valeur constante  qui dépend de la constante de Planck (h). Autrement dit, il est impossible de bien connaitre la position et la vitesse d’une particule en même temps, plus on connait bien l’un, moins on connait l’autre. C’est un des piliers de la physique quantique. heisenbergLe lagrangien du modèle standard de la physique des particules (1974). Cette équation résume en gros notre monde et ses interactions sans la gravité (force électromagnétique, force forte et force faible). Elle est en quelque sorte l’aboutissement de la physique du 20ème siècle et les expériences se poursuivent dans les accélérateurs de particules du monde entier pour conforter ce modèle qui n’a jamais vraiment été mis en défaut jusqu’à aujourd’hui. La dernière grande validation de ce modèle a été la prédiction et la découverte du boson de Higgs au CERN en 2012.

cernmug

Écrire les équations à la main

Je n’ai pas une belle écriture, on peut même dire que mon écriture est exécrable (d’ailleurs quand j ’étais étudiant personne ne voulait de mes cours car c’était illisible) mais j’aime bien écrire quand même pour moi-même, et j’aime encore plus écrire des équations à la main ! C’est d’ailleurs intéressant de noter que pour des questions de rapidité, certains signes sont par convention toujours « écorchés » à la main comme les flèches des vecteurs qu’on ne trace généralement qu’à moitié.

Voici le résultat ci-dessous avec mes équations préférées citées plus haut (équations écrites avec un feutre-pinceau japonais volé à ma femme) :

equation_main

Signification des lettres grecques

Un dernier petit paragraphe sur les significations usuelles des lettres grecques en physique, évidemment ce n’est pas exhaustif et j’ai mis simplement les significations que je connais.

  • alpha. Etant la première lettre de l’alphabet, alpha s’emploie à peu près pour tout et n’importe quoi, même si souvent elle représente un facteur adimensionnel. On l’utilise aussi pour désigner la constante de structure fine qui régit la force électromagnétique.
  • bêta. S’emploie aussi très souvent. Signalons peut être juste qu’en relativité restreinte, bêta représente la vitesse réduite d’un objet, c’est-à-dire le rapport entre la vitesse d’un objet et la vitesse de la lumière.
  •  gamma. Représente les photons en physique des particules, les rayons gamma en électromagnétisme et le facteur de Lorentz en relativité restreinte.
  • delta. Généralement utilisé pour représenter une petite grandeur. Le delta minuscule est aussi utilisé comme un opérateur pour représenter la variation infinitésimale d’une grandeur.
  • epsilon. Représente une constante positive arbitrairement petite ou une erreur. Symbolise aussi la permittivité électrique.
  •  zêta : peu utilisé.
  • êta. Représente souvent un rendement. Permet aussi de dénoter la viscosité dynamique en mécanique des fluides.
  • thêta. Lettre représentant généralement un angle ou bien la température en thermodynamique.
  • iota. Peu utilisé.
  • kappa. Représente une constante dans l’équation d’Einstein de la relativité générale.
  • lambda. représente toujours une Longueur d’onde ou une conductivité thermique en thermodynamique.
  • mu. Permittivité magnétique en électromagnétisme ou viscosité dynamique en mécanique des fluides.
  • nu. Fréquence d’une onde ou viscosité cinématique en mécanique des fluides.
  • ksi. Fonction d’onde.
  •  omicron. Peu utilisé
  • pi. Utilisée comme la constante connue.
  • rho. Résistivité électrique ou masse volumique en mécanique.
  • sigma. Conductivité électrique.
  • tau. Constante de temps d’un système.
  •  upsilon. Peu utilisé.
  • phi. Flux magnétique ou déphasage d’une onde.
  • khi. Coefficient de compressibilité en thermodynamique.
  •  Psi. Flux électrique en électromagnétisme et fonction d’onde en mécanique quantique.
  • oméga. Pulsation d’une onde qui se propage.

Farfadets rouges, elfes et jets bleus…

Un farfadet dans un blog de science sérieux ? Eh bien oui, mais pas de n’importe quelle couleur : ici, je ne parlerai que des farfadets rouges, qui ne sont pas des petites créatures du folklore du Poitou, mais des phénomènes lumineux transitoires de la haute atmosphère, tout comme les elfes et les jets bleus.

farfadets2

Phénomènes lumineux transitoires

En effet, depuis un siècle, plusieurs témoignages parlent de phénomènes extrêmement brefs et impressionnants dans la haute atmosphère, c’est-à-dire au-dessus des nuages entre 20 km et 100 km d’altitude, mais ce n’est que depuis les années 90 qu’on a pu les photographier et les étudier de manière scientifique car pour les observer, il faut en général être sur un haut sommet ou en orbite basse autour de la Terre lors d’orages violents.

En effet, ces phénomènes optiques sont déclenchés par les orages qui occasionnent des décharges électriques violentes en dessous dans la troposphère. Aujourd’hui ces phénomènes ont été observés des dizaines de milliers de fois et on estime leur occurrence à environ un million par année sur Terre.

Upperatmoslight1 Résumé des phénomènes lumineux transitoires entre 20 et 100 km d’altitude

 Farfadet

Egalement désigné par le terme « sylphes rouges » ou encore « red sprites » en anglais, les farfadets sont sans doutes les phénomènes les plus impressionnants. Ils ont lieu entre 50 km et 100 km d’altitude et durent quelques millisecondes seulement. Ils sont caractérisés par une forme de méduse de couleur rouge avec les filaments qui s’étendent vers la Terre. Ces farfadets peuvent mesurer jusqu’à 50 km de large et ont été signalés pour la première fois au début du 20ème siècle mais le premier farfadet photographié date de 1989, photo prise par hasard par une navette spatiale.

farfadet Farfadets photographiés depuis le sol en aout 2012 au Danemark. © Jesper Grønne.

 BigRed-Sprite Première image en couleur de sylphes rouges et de jets bleus.

Elfes

Les elfes sont des phénomènes qui ont lieu à très haute altitude, au-dessus de 100 km dans l’ionosphère et peuvent mesurer jusqu’à 400 km de diamètre. ELFE est en fait un acronyme pour Emission of Light and Very low-frequency perturbations from Electromagnetic pulse sources (ELVE en anglais). Les elfes ont été identifiés la première fois au début des années 90 par une navette spatiale américaine au-dessus de la Guyane. Ce phénomène semblerait provoqué par une très importante impulsion électromagnétique lors de violents orage qui se propagent dans toutes les directions dans une sphère en accélérant des électrons. Lorsque cette sphère rencontre l’ionosphère, qui possède une importante conductibilité électrique et où les gaz sont ionisés, l’azote s’illumine à cause de son interaction avec les électrons accélérés à haute énergie. Il en résulte des disques de couleur jaune/rouge qui se propagent du centre vers l’extérieur. Ces disques sont en fait le résultat de la rencontre entre la sphère (issue de l’impulsion électromagnétique de l’orage) et la couche de l’ionosphère à environ une centaine de kilomètres.

elve_345 Un elf

 Jets bleus

Les jets bleus se produisent juste au-dessus des orages, ils naissent au sommet des nuages pour se propager vers le haut à une vitesse de 100 km/s dans un cône de plusieurs dizaines de kilomètres de haut et d’environ 15 degrés de large. Ils sont beaucoup moins fréquents que les farfadets mais plus facile à observer car plus lumineux et moins haut. Cependant, seulement quelques centaines d’images de jets bleus existent aujourd’hui.

blujetDes jets bleus

Etudes spatiales sur les phénomènes lumineux transitoires

Pour mieux étudier ces phénomènes, 2 expériences scientifiques ont été mises sur pied depuis l’espace :

  • L’expérience LSO (Lightning and Sprites Observations) est localisée sur la station spatiale internationale (ISS), donc sur une orbite terrestre basse à environ 400 km d’altitude. Elle est constituée de deux micro-caméras sur un bras rotatif qui filment la Terre pendant les orages pour obtenir des statistiques sur les farfadets et les elfes. Voir plus de détails ici.
  • Le micro satellite Taranis (Tool for the Analysis of RAdiations from lightNIngs and Sprites) aura pour objectif d’étudier tous les phénomènes transitoires entre 20km et 100 km d’altitude à partir d’une orbite polaire à 700 km. Le satellite est en cours de construction par le CNES et devrait être opérationnel à partir de 2017. Voir plus de détails ici.

taranisVue d’artiste du satellite Taranis avec des farfadets en arrière-plan. © CNES.

Le CERN 2014 en 10 photos

Aujourd’hui, mon billet est consacré à 9 photos du CERN qui m’ont marqué en 2014 plus une photo de ce début 2015. Vous trouverez à chaque fois des liens hypertextes si vous souhaitez plus de détails.

Ma première photo sélectionnée, la seule de 2015, est le drapeau du CERN mis en berne le vendredi 09 Janvier lors de la minute de silence en hommage aux journalistes assassinés de Charlie Hebdo

CERN_flagCrédit image Maximilien Brice/CERN © CERN

 Formation sécurité de chariot-tracteur sur le site du CERN Prévessin (Décembre 2014).Towing Tractor Training Session

Crédit image Christoph Balle /CERN © CERN

 Insertion du détecteur à pixel de CMS proche du tube faisceau du LHC (Décembre 2014).CERN_CMS

Crédit image Noemi Caraban Gonzalez/CERN © CERN

John Ellis dans son bureau avec son nouveau pullover symbolisant le fameux diagramme pingouin inventé par le physicien en 1977 (Octobre 2014).CERN_Ellis

Crédit image Guillaune Jeanneret / CERN © CERN

 Début du perçage du futur tunnel qui hébergera l’expérience AWAKE au CERN. Cette expérience permettra d’accélérer des électrons par accélération plasma (Aout 2014). CERN_AWAKE

Crédit image Maximilien Brice/CERN © CERN

Le directeur général du CERN, Rolf Heuer, rencontre le pape François au Vatican (Juin 2014). Voir cet article du temps intéressant de Rolf Heuer sur les différences entre Benoit XVI et le pape François au sujet de la Science.LHC_pape

Image credit: Photographic Service – L’Osservatore Romano

Installation du détecteur IBL juste autour du tube faisceau de l’expérience ATLAS (Mai 2014). CERN_IBL

Crédit image Claudia Marcelloni De Oliveira /CERN © CERN

 Installation du dernier des 27000 « shunts » des aimants supraconducteurs du LHC (Avril 2014) LHC_Soudure

Crédit image Maximilien Brice/CERN © CERN

Cavités radio fréquence « drift tube » du futur accélérateur linéaire LINAC4 qui injectera les protons vers le LHC à partir de 2020.CERN_LINAC4

Crédit image Maximilien Brice/CERN © CERN

 Et pour finir, ma photo préférée: Maria et Giuseppe Fidecaro, célèbre couple fidèle au restaurant 1 du CERN (Février 2014). Ils sont au CERN depuis 1956 et sont toujours actifs aujourd’hui, comme quoi, la physique des particules, ça conserve ! Plus de détails sur ce couple fabuleux ici si vous le souhaitez.CERN_fidecaro

Crédit image Anna Pantelia / CERN © CERN

De la RMN à l’IRM

Tout le monde connait maintenant l’Imagerie par Résonance Magnétique (IRM) qui est devenue un examen presque classique en imagerie médicale lorsqu’on a besoin d’images précises de la moelle épinière ou du cerveau mais aussi pour toutes les articulations, muscles, cellules cancéreuses ou toutes zones irriguées par le sang.

IRM-1La France est cependant sous-équipée avec seulement 684 IRM au total sur son territoire, soit environ 10 IRM par million d’habitants, contre une moyenne de 20 en Europe, ce qui explique une attente moyenne de 37,7 jours en France pour réaliser cet examen parfois indispensable pour rendre un diagnostic à des patients souffrants en attente d’un traitement adéquat (source). La France fait donc figure de mauvaise élève en la matière. Certes, un IRM coûte cher, dans les 2 millions d’euros, mais la demande n’est pas satisfaite comme il se devrait.

IRM_photoJe vais essayer de vous expliquer ici comment fonctionne un IRM et pourquoi cette technique est si révolutionnaire, ne présentant quasiment que des avantages.

La Résonance Magnétique Nucléaire

L’IRM est basée sur un phénomène physique appelé la Résonnance Magnétique Nucléaire (RMN) découvert en 1938 par Isidor Isaac Rabi, un des pères fondateurs du CERN à Genève (Organisation Européenne pour la Recherche Nucléaire) et qui obtiendra d’ailleurs le prix Nobel pour cette découverte en 1944. On dénombrera d’ailleurs pas moins de 5 prix Nobel ayant un rapport avec la RMN et l’IRM entre 1944 et 2003.

La RMN tire son explication du fait que les noyaux des atomes (les protons et les neutrons) possèdent une sorte de « petit aimant » interne que les physiciens appellent « spin ». On peut donc dire qu’un atome possède aussi un spin en ajoutant tous les spins de chaque particule qui le compose. A noter que si 2 petits aimants sont inverses l’un de l’autre, alors ils s’annulent et le spin résultant est ainsi nul.

Si on applique un champ magnétique à ces « petits aimants », ils vont alors se mettre à tourner sur eux même en décrivant un cône, un peu à la manière d’une toupie, c’est le phénomène de la précession de Larmor.

 IMR_Larmor

Un atome de spin non nul assure un mouvement de précession de Larmor autour d’un champ magnétique constant (B0)

Ainsi, tous les atomes ayant un nombre de protons et de neutrons pair come l’oxygène (4 protons + 4 neutrons) et le carbone (8 protons + 8 neutrons) ont un spin nul et ne sont donc pas soumis au phénomène de RMN. En revanche, tous les atomes ayant un nombre de protons et de neutrons impair sont soumis à ce phénomène de résonance magnétique tel l’hydrogène (1 seul proton). L’hydrogène est intéressant en RMN car il très bien connu des scientifiques et il est présent en grande quantité dans le corps humain dans les molécules d’eau (H2O).

Comment fabriquer une image ?

Pour fabriquer une image en 3 dimensions, on va mettre l’échantillon qui nous intéresse (un homme par exemple) dans un puissant champ magnétique constant. Tous les atomes de spins non nuls vont alors tourner comme des toupies dans la même direction. On va alors ajouter dans une autre direction de l’espace un champ magnétique oscillant au champ magnétique constant de manière à exciter certains atomes qui vont osciller à leur tour à une fréquence bien particulière et quand on va arrêter ce champ oscillant, les atomes vont regagner progressivement leur position initiale dans le champ magnétique constant, c’est ce qu’on appelle la relaxation. Chaque atome oscille à une fréquence bien précise en fonction du champ magnétique, par exemple, l’hydrogène oscille à une fréquence de 42 MHz pour un champ magnétique de 1 Tesla. Lorsque ce phénomène apparait et disparait, on peut mesurer avec une antenne réceptrice ces atomes comme l’hydrogène qui ont changé de direction sous l’influence de ce champ magnétique oscillant. On répète l’opération dans les 3 dimensions et à plusieurs fréquences connues si on s’intéresse à plusieurs composés chimiques et on peut alors mesurer la répartition de chaque ensemble d’atomes dans l’espace.

IRM_craneUne fois toutes ces mesures faites, il faut alors reconstituer une image en 3 dimensions. Cette question a pu être résolue récemment dans les années 70 grâce aux importants progrès en traitement du signal et grâce aux progrès de l’informatique sans lesquels l’IRM serait impossible car cette technique nécessite une grande quantité d’information et de calcul pour reconstituer une image.

L’IRM : la machine

En gros, un IRM, c’est:

  • Un gros aimant pour faire un champ magnétique permanent et homogène, c’est le gros tube dans lequel on rentre et qui fait environ 60 cm de diamètre.
  • Trois bobines de gradient dans les 3 directions de l’espace pour créer les champs magnétiques oscillants. Elles sont généralement réparties autour du tunnel de l’aimant.
  • Des antennes radiofréquences pour mesurer le signal de précession des atomes qui résonnent. Généralement placées autour de la tête ou de toute autre zone à observer.
  • Un super PC qui fait tourner un algorithme informatique pour décrypter toutes les mesures des antennes et reconstituer l’image.

La pièce centrale de l’IRM est véritablement l’aimant principal car plus le champ magnétique est intense, meilleur sera la résolution de l’image à la fin. C’est pour cette raison qu’aujourd’hui la plupart des IRM utilisent des aimants supraconducteurs (voir ce billet sur la supraconductivité) permettant d’atteindre des champs magnétiques jusqu’à 7 Teslas dans les IRM, soit plus de 100 000 fois le champ magnétique terrestre qui nous indique le nord ! Grâce à ces champs extrêmement puissants on obtient des images précises au millimètre avec un très bon contraste. Le CEA est même en train de construire un IRM à 11,5 Tesla pour une ouverture de 90cm (Iseult) dans le cadre du projet Neurospin à Saclay.

 IRM_IseultCoupe de laimant Iseult de 11,5 T pour le projet Neurospin. En orange : les bobines supraconductrices. En bleu : lenceinte hélium et la structure mécanique © CEA.

Evidemment, le coût de ces aimants est important et en plus, ils doivent fonctionner à une température cryogénique proche du zéro absolu. En effet, les aimants supraconducteurs IRM sont généralement refroidis à 4,5 K, soit -266 degrés à l’aide d’hélium liquide et demande donc une infrastructure assez importante pour fonctionner avec un coût associé non négligeable.

Est-ce dangereux ?

Certains détracteurs tentent de montrer que l’exposition à des champs magnétiques de manière répétée peut entrainer des troubles de santé mais rien n’a jamais été prouvé jusqu’à présent et il est clair que le fait de réaliser quelques IRM dans l’année (une séance dure environ 30 minutes) est inoffensif pour la santé. L’IRM conventionnel n’utilise pas de traceur et il n’y a aucune radiation liée à cette technique (cependant on trouve parfois le couplage de l’IRM avec un agent de contraste radioactif pour améliorer certain diagnostic).

C’est d’ailleurs un des principaux atouts de l’IRM contrairement aux angiographies ou aux scanners qui utilisent des rayons X provoquant l’irradiation des patients de manière significative. A titre de comparaison, un patient réalisant un scanner de l’abdomen  reçoit d’un coup une dose de radiation de 10 millisievert, soit la moitié du seuil maximal accepté pour un travailleur français dans le nucléaire en une année complète alors que pour une IRM classique, c’est zéro !

Il y a cependant des contre-indications pour passer une IRM comme :

  • La présence d’objets métalliques dans le corps : bah oui, imaginez ce que va faire un morceau de métal dans un champ magnétique intense… Je ne parle même pas d’un patient ayant un pacemaker qui n’a pas le droit d’approcher un IRM à moins de 15 mètres.
  • La claustrophobie : le tunnel fait dans les 60cm de diamètre, on est attaché sur une table mobile et ça fait un boucan d’enfer…
  • L’obésité et les femmes enceintes (toujours le problème de l’étroitesse du tunnel). IRm-2

 L’IRM fonctionnelle : une révolution

Une autre révolution est l’IRM dite fonctionnelle, ou encore IRMf. Cette technique se base sur le fait que la désoxyhémoglobine (les globules rouges dans le sang auxquelles les atomes d’oxygène ont été absorbés par le métabolisme du corps) est sensible au phénomène de RMN. On peut alors exciter la fréquence de ces molécules par RMN et ainsi avoir un indice sur l’afflux de sang oxygéné qui chasse le sang désoxygéné. Ce signal appelé « signal BOLD » peut s’acquérir en IRM en environ une seconde seulement.

On peut alors enregistrer ce « signal BOLD » en temps réel sur un patient dans une IRM comme un film et suivre en direct l’oxygénation du cerveau lors d’exercices cognitifs qui mettent en avant quelles zones du cerveau sont actives. Cette technique a été révolutionnaire car elle permet une résolution spatiale de l’ordre du millimètre  et une résolution temporelle de l’ordre de la seconde sans aucune contrainte de répétitivité comme l’IRM est non invasive et ne génère pas de radiation. irmf1-grdImage obtenue par IRMf illustrant la dissociation dans le cortex orbitofrontal entre récompenses primaires (image érotique) et secondaire (gain d’argent). © CNRS.

Ces avantages ont permis de très grandes avancés pour la recherche en psychologie cognitive et comportementale ainsi qu’en psychiatrie dans les 10 dernières années. L’IRMf a détrôné la TEP (Tomographie par Emission de Positrons) qui était jusqu’alors utilisée pour faire des études du cerveau mais avec une résolution de plus de 250 mm3 et une résolution temporelle de 2 minutes tout en étant invasif et générant des radiations.

FCC: le CERN étudie un accélérateur de 100 km !

Nom de code : FCC pour Future Circular Collider, c’est le nom du projet qui regroupe un ensemble d’études pour des futurs grands accélérateurs de particules circulaires de l’ordre de 100 km de circonférence dans la région de Genève où le CERN exploite actuellement le plus grand accélérateur de particules du monde, le LHC (Large Hadron Collider), qui mesure 27 km de circonférence.

FCC_planLocalisation du FCC par rapport au LHC dans la région genevoise. Le FCC passerait sous le lac Léman  et contournerait le massif du Salève entre Suisse, Ain et Haute Savoie. © CERN.

Un accélérateur de 100 km pour faire quoi ?

Si le LHC ne trouve pas de nouvelles particules jusqu’à son énergie maximale en 2018  (14 TeV au centre de masse), cela peut signifier qu’il y a peut-être des particules encore plus massives au-delà de cette énergie qui pourraient répondre aux questions des physiciens qui restent toujours en suspens:

  • Qu’est-ce que la matière noire ?
  • Quelles sont tous les constituants de la matière ?
  • Quelle est l’origine de l’asymétrie matière/antimatière ?
  • Pourquoi la masse des neutrinos est si petite et ont-ils des partenaires super-massifs ?
  • Les particules ont-elles des partenaires super-symétriques ?
  • Y a-t-il d’autres forces dans la nature à plus hautes énergies ?

La communauté internationale s’est donc fixé une limite de 100 TeV au centre de masse (soit 7 fois plus que le LHC) pour repousser cette limite où notre technologie future devrait pouvoir nous conduire mais il y a beaucoup de recherche et de développement à faire pour arriver à ce résultat extrêmement ambitieux. Beaucoup de gens du métier disent que « c’est complètement fou, c’est impossible » mais un ancien responsable de la construction du LHC me disait il y a quelques mois que « c’est exactement ce que tout le monde disait dans les années 80 en parlant du LHC, mais c’est aujourd’hui une réalité et un succès, alors pourquoi serait-ce différent avec le FCC ? ».

En effet, maintenant que le LHC fournit ses résultats et que le boson de Higgs a été découvert à une énergie de 125 GeV, la communauté internationale étudie dès à présent l’ère post-LHC.  Lors de la dernière réunion de la stratégie européenne en physique des particules à Bruxelles en mai 2013, plusieurs grandes priorités pour l’Europe ont été définies dont la nécessité de commencer à étudier des accélérateurs protons-protons et électron-positrons repoussant la limite d’énergie à la frontière des technologies possibles (voir le résumé ici).

FCC_membersParticipants au meeting du coup d’envoi pour le FCC à l’université de Genève en février 2014. ©CERN.

Le CERN doit maintenant rendre une étude conceptuelle détaillée (CDR pour Conceptual Design Report) comprenant les différents aspects du FCC pour la physique, les détecteurs, les accélérateurs et les infrastructures associées pour 2018, date à laquelle une décision devrait être prise par l’Europe, tout en considérant les données fournies par le LHC pendant sa deuxième phase d’exploitation 2015-2018.

Les différents projets

Le FCC encapsule 3 projets de collisionneurs circulaires d’une centaine de kilomètres :

  • FCC-hh : Un collisionneur hadronique proton-proton avec une énergie de 100 TeV au centre de masse (pour comparaison, le LHC est à 14 TeV)
  • FCC-ee (anciennement dénommé TLEP) : Un collisionneur leptonique électron-positron fournissant des faisceaux à des énergies de 45 GeV à 175 GeV (pour comparaison, le LEP2 était à 104 GeV par faisceau).
  • FCC-he : Un collisionneur lepton/hadron réalisant des collisions entre des protons et des électrons à ces énergies.

Le FCC-ee serait en fait une étape intermédiaire pour étudier les bosons W/Z ainsi que le quark top et bien sûr le boson de Higgs en détail avant de construire le FCC-hh qui serait véritablement le projet final pour repousser la limite de l’énergie et trouver de nouvelles particules massives. L’approche est un peu analogue avec l’expérience du LEP (électron/positron) qui a cédé la place au LHC (proton/proton) par la suite.

La taille du FCC n’est pas encore arrêtée car elle est fonction des surcoûts liés au génie civil (plus c’est grand, plus c’est cher) et au surcoût engendré par les aimants qui doivent être plus puissants si l’accélérateur est plus petit pour la même énergie. De plus, les contraintes géographiques peuvent avoir un impact significatif (lac, montagne, …) sur le génie civil. Les études portent donc sur des versions à 80 km et à 100 km de circonférence pour comparer sérieusement les différentes options qui peuvent s’offrir à nous.

Dans ces 3 projets ambitieux, plusieurs technologies clef sont encore à démontrer pour leur faisabilité, en particulier :

  • Pour le FCC-hh : la capacité de fabriquer en grande quantité des aimants supraconducteurs de 16 Teslas (pour la version 100 km) ou 20 Teslas (pour la version 80km).
  • La capacité de refroidir à une température cryogénique l’ensemble des 100 km d’aimants supraconducteurs de manière réaliste et fiable.
  • Pour le FCC-ee : La capacité de développer des structures accélératrices plus efficaces car il faut compenser environ 7,5 GeV de perte synchrotrons à chaque tour pour des électrons, soit une puissance de 50 MW à apporter à chaque faisceau de manière continue.

 FCC_cryoEvolution de la capacité de refroidissement cryogénique à 4,5 K nécessaire aux accélérateurs existants et projection pour le FCC. © Laurent Tavian.

Le coût

En termes de coût, il est actuellement impossible de donner un chiffre car il y a encore de nombreuses inconnues mais on peut tenter d’extrapoler à partir des expériences passées (LEP et LHC). On peut ainsi estimer le coût à environ 8 milliards d’euros pour le FCC-hh et à 1,5 milliards d’euros pour le FCC-ee (source ici). En termes de consommation électrique, il faut compter environ 450 MW pour le FCC-hh, ce qui représente 4 fois la consommation du LHC. C’est beaucoup mais ça reste dans le domaine du possible sous réserve de développer quelques nouvelles technologies, d’autant que le coût de construction est à distribuer sur au moins une décennie et à répartir entre tous les pays membres du CERN, soit 28 pays.

Plus d’info :

Le verre dans tous ses états

Une histoire de vitrail de cathédrales

Lors d’une visite de cathédrale en région centre pendant mon enfance (oui, j’ai eu une enfance difficile), je me rappelle qu’on m’a expliqué que les vitraux étaient très vieux (genre XIIème siècle) et que la preuve était la suivante: le verre qui constitue le vitrail a coulé avec la gravité et les vitres sont plus épaisses en bas qu’en haut. Me rappelant cette anecdote,  je vais chercher un peu sur le net et cette explication est finalement complètement erronée (la preuve ici dans ce papier paru dans l’American Journal of Physics en 1998). Ce papier permet de calculer le temps qu’il faut au verre pour couler (ce qu’on appelle le temps de relaxation) après l’étude chimique des verres employés aux temps des cathédrales. Dans les vitraux du 12ème siècle, il faudrait compter plusieurs milliards d’années avant de voir le verre couler ! Ça serait physiquement possible en « seulement » 800 ans mais avec une température moyenne de 400 degrés ! En fait, c’est la méthode de fabrication de l’époque qui ne permettait pas la fabrication de vitraux « plats » mais plus épais d’un côté. Le coté le plus épais était donc naturellement placé en bas pour des questions de stabilité du vitrail.

    vitrail-blog

Verre : Solide ou liquide ?

OK, le verre peut donc quand même couler mais dans des temps très longs à température ambiante. Mais au fait, le verre, c’est un liquide ou un solide ? Physiquement parlant, le verre est un solide amorphe : c’est un solide car il possède un volume et une forme propre mais il est qualifié de amorphe car ses atomes ne sont pas structurés de manière organisée à moyenne et à grande échelle, contrairement aux solides cristallisés qui nous sont plus familiers comme les métaux, la neige, le sucre, etc. En fait, cette question est tout de même encore débattue par certains scientifiques mais la communauté considère bien le verre comme un solide, même s’il possède la structure atomique désorganisée d’un liquide.

Transition vitreuse

Pour comprendre la confusion des thermodynamiciens sur l’état du verre, il faut regarder comment le verre est fabriqué :

  • On prend de l’oxyde de silicium (constituant du sable) avec un fondant (qui permet d’abaisser la température fusion) et on les fait fondre à haute température (environ 1300 C) : ces composés sont alors sous forme liquide.
  • On procède ensuite à un refroidissement extrêmement rapide de ce liquide de manière à passer le point de fusion très vite et à ne pas laisser le temps aux atomes de se cristalliser pour former un solide classique, on obtient alors un liquide surfondu.
  • Si on abaisse encore la température mais cette fois-ci doucement, on obtient un « verre » à partir de la « température  de transition vitreuse » où la viscosité augmente alors brutalement pour former un solide amorphe.

 thermo_verre

Le cristal… de verre

Nous venons de voir que par définition, le verre est un solide amorphe, ce qui est l’opposé d’un cristal. Mais alors, comment peut-on fabriquer des verres (à boire) et des carafes en cristal ? Eh bien c’est tout bonnement impossible ! Le mot « cristal » est ici un abus de langage (au sens du physicien) car la structure atomique du « cristal de verre » n’est pas un cristal mais bien un verre !

cristal-francais-verre-vinEn fait, le cristal de verre est un verre dans lequel il y a au moins 24% de plomb (on parle même de cristal supérieur quand la proportion de plomb dépasse les 30% de la masse totale). C’est pour cela que les verres en cristal sont si lourds ! En effet, le plomb a de nombreux avantages dans la fabrication du verre : il permet d’abaisser la température de fusion du verre et donc permet un travail plus facile car plus malléable pendant plus de temps. De plus, le cristal de verre possède un bel éclat à cause de son indice de réfraction important ainsi qu’une sonorité cristalline.

saturnismeAutre chose de très important : ne jamais boire de coca  ayant été conservé dans une carafe en cristal, ça peut être mortel ou rendre votre enfant débile (je ne rigole pas). En effet, les liquides acides (comme le coca et les alcools) peuvent devenir toxiques s’ils sont conservés dans une carafe en cristal ayant peu servi car ils se chargent en plomb jusqu’à des niveaux toxiques et on peut alors en ingérer avec tous les problèmes que cela peut occasionner comme le saturnisme. Il y a même de nombreuses personnes qui pensent que la goutte qui est observée dans la bourgeoisie européenne et nord-américaines serait en fait du saturnisme chronique (qui présente les mêmes symptomes) à cause de leur consommation régulière d’alcool dans des carafes en cristal (voir cet article du American Journal of Medecine par exemple).
Mais bon, si les carafes sont utilisées seulement quelques heures et qu’elles sont bien nettoyées, ça ne pose pas de problème et les carafes en cristal modernes sont souvent pourvues d’une couche protectrice à l’intérieur pour justement éviter de contaminer en plomb les liquides qui s’y trouvent.

Du cristal dans les détecteurs de particules ?

On m’avait déjà trompé dans mon enfance avec les vitraux de cathédrales et maintenant, à l’âge adulte, on me trompe encore dans les détecteurs de particules ! J’ai entendu au CERN que le détecteur de particules CMS détectait dans le LHC certaines particules à l’aide de cristaux de « verre au plomb ». Effectivement, on peut voir ces espèces de lingots de verre, extrêmement lourds, installés dans le détecteur. Eh bien c’est encore faux ! Ces cristaux sont de vrais cristaux au sens physique du terme, avec une structure atomique bien ordonnée, et ce ne sont absolument pas des verres !

En fait, ces cristaux « plombés » permettent de freiner certaines particules et donc de mesurer leur énergie (on parle de calorimètres). Par exemple, le détecteur de particules CMS au CERN possède 80 000 cristaux de tungstate de plomb (PbWO4) pour mesurer l’énergie des particules sensibles à la force électromagnétique comme les photons et électrons. A leur passage dans ces cristaux, les électrons et photons scintillent et génèrent de la lumière de manière proportionnelle à leur énergie et cette lumière générée est ensuite transformée en signal électrique. Ce signal est alors amplifié pour être par la suite traité informatiquement de manière à recalculer avec une très grande précision l’énergie de la particule qui a traversé le cristal (mais pour que ça marche, il faut contrôler la température du cristal au dixième de degré, ce qui n’est pas super facile).

Au total, il a fallu plus de 10 ans aux scientifiques et ingénieurs pour fabriquer ces 80 000 cristaux aux propriétés très spéciales dans une ancienne base militaire russe ainsi que dans un institut chinois à Shanghai. Imaginez que la densité de ces cristaux est de 8,3 tonnes par m3, soit plus que de l’acier (7,8 tonnes par m3) !! Chaque petit cristal pèse 1,5 kg alors que son volume est analogue à une petite tasse à café (parallélépipède de 2,2 cm de côté et 23 cm de long).

 CMS_CristalCristaux de tungstate de plomb utilisés dans le détecteur CMS (et ce n’est pas du verre !)

 Des particules plus rapides que la lumière dans le verre au plomb

En revanche, il est vrai qu’il existe bel et bien des détecteurs de particules utilisant du verre au plomb pour détecter des particules énergétique comme les muons. Ces verres au plomb ont également une grande densité (plus de 6 tonnes par m3) et quand des muons ultra-relativistes (qui vont presque aussi vite que la lumière) traversent du verre au plomb, ils sont beaucoup moins freinés que les photons de lumière et vont alors plus vite que la lumière dans le verre au plomb (mais attention, en aucun cas ils ne dépassent la vitesse de la lumière dans le vide). Ce faisant, un cône de lumière bleue est émis le long de la trajectoire de ces muons qui dépassent la vitesse des photons, c’est ce qu’on appelle l’effet Tcherenkov. C’est le même effet qu’on peut observer dans les piscines de stockage des déchets radioactifs dans les centrales nucléaires où une belle lumière bleue est émise du fait que plusieurs particules vont plus vites que les photons dans l’eau de la piscine.