Les étoiles à neutrons

Le 17 août 2017, les interféromètres LIGO et Virgo ont détecté les ondes gravitationnelles émises vraisemblablement par la collision de deux étoiles à neutrons. Cet évènement a fait beaucoup moins de bruit médiatique que les premières ondes gravitationnelles détectées par LIGO en 2015 lors de la fusion de 2 trous noirs (voir ce billet).

Eh oui, tout le monde connait les trous noirs, ça fait un peu rêver, à la frontière entre réel et science-fiction mais les étoiles à neutrons sont tout aussi intrigantes de par leurs caractéristiques proches de celles des trous noirs, à la différence près que nous pouvons « voir » ces étoiles particulières…

Les étoiles à neutrons sont des cadavres

En tout premier lieu, soyons clairs, les étoiles à neutrons ne sont pas vraiment des étoiles mais des cadavres d’étoiles. En effet, une étoile est définie en astronomie comme un ensemble de gaz aggloméré par gravitation au point de déclencher une réaction de fusion thermonucléaire : les étoiles transforment ainsi l’hydrogène dont elles sont majoritairement composées en hélium.

Quand les étoiles n’ont plus assez de combustible, c’est la mort de l’étoile. Si cette dernière est assez grosse, au moins 8 fois plus grosse que notre soleil, cette mort se manifeste sous forme d’une supernova, c’est-à-dire une gigantesque explosion très lumineuse dans le ciel qu’on peut même parfois voir en plein jour. Plus l’étoile est grosse, plus la supernova est impressionnante.

La supernova la plus connue: la nébuleuse du crabe, prise par le télescope spatial Hubble.

Toute la matière de l’étoile originelle est alors dispersée aux alentours (c’est d’ailleurs la raison pour laquelle vous pouvez dire que « votre grand-mère est une super nova », explication ici) et dans le cas des plus grosses étoiles, cette supernova peut donner naissance à une étoile à neutrons, voire à un trou noir si l’étoile est encore plus grosse. En gros, l’étoile à neutrons est l’objet céleste le plus dense qu’il nous est donné de voir, à la limite du trou noir où la densité de matière ne permet plus à la lumière de s’échapper.

A quoi ressemble une étoile à neutrons

Les chiffres des étoiles à neutrons peuvent donner le vertige. L’étoile à neutrons n’est pas très grande, on peut même dire qu’elle est ridiculement petite pour un objet céleste, soit un peu plus de 20 kilomètres de diamètre mais sa masse est comprise entre 1,4 et 3,3 fois celle du soleil (1,5 milliards de milliards de milliards de tonnes). Si vous en preniez un centimètre cube, un petit dé à coudre, il pèserait environ 1 milliard de tonnes !! Enfin, vous avez compris, une étoile à neutrons, ce n’est pas très gros mais c’est lourd !

Les étoiles à neutrons ne sont pas exclusivement faites de neutrons. Une telle étoile est composée de plusieurs couches, qui sont de plus en plus denses quand on se rapproche de son centre. Les chercheurs sont assez d’accord pour les couches externes mais ça se corse pour le centre de l’étoile où la physique actuelle commence à toucher ses limites. Selon la masse de l’étoile, certains chercheurs pensent que plusieurs compositions sont possibles avec pas moins de 6 variantes mais ces structures peuvent être sujet à débat (étoiles à neutrons classiques, étoiles à neutrons avec condensat de pions, étoiles à quarks, étoiles étranges, étoiles à nucléons, étoiles à hypérons).

Les différentes couches d’une étoile à neutrons avec les différentes variantes pour le centre (W. Becker).

Pulsars et magnétars

Les étoiles à neutrons tournent sur elles-mêmes à grande vitesse et cette rotation s’accompagne d’un intense jet de lumière radiofréquence dans un axe bien particulier à chaque rotation de l’étoile : on parle alors de pulsar qui « pulse » cette lumière régulièrement. Ces astres sont comme les phares de l’univers qui balayent l’hyper-espace de leurs faisceaux lumineux intenses à fréquences fixes.

On trouve des pulsars dans des restes de supernovas, le plus célèbre étant le pulsar de la nébuleuse du Crabe, né de l’explosion d’une étoile massive. Cette supernova fut observée par les astronomes chinois depuis le matin du 4 juillet 1054, en plein jour pendant trois semaines et durant la nuit pendant près de deux ans.

La rotation de l’étoile à neutrons, jusqu’à près de 100 tours par seconde, génère un champ magnétique titanesque qui peut atteindre 100 milliards de teslas. A titre de comparaison, le plus puissant aimant fabriqué par l’homme génère un champ d’environ 20 teslas et le champ magnétique de la Terre est de 45 millionièmes de teslas… On parle alors de magnétar (abbréviation de magnetic star = étoile magnétique).

Evolution comparée des vitesses de rotation d’une étoile à neutrons isolée, dans un système binaire et d’un magnétar. (source)

Il arrive aussi qu’une étoile à neutrons tourne autour d’une autre étoile, c’est un système binaire. Si cette deuxième étoile, aussi appelée compagnon, est également une étoile à neutrons, c’est un pulsar double, mais un seul objet de ce type a été découvert à ce jour. Ces objets sont fondamentaux pour les physiciens car ils permettent de valider des théories comme la relativité générale dans des cas extrêmes. Jusqu’à présent, Einstein tient bon : la relativité générale n’a jamais été mise en défaut et ces nouvelles détections d’ondes gravitationelles produites lors de la colascence de 2 trous noirs ou 2 etoiles a neutrons sont un succès.

Simulation de la collision de 2 étoiles à neutrons par la NASA (j’adore :-D)

Venenum : une expo envoutante à la Confluence

Vendredi dernier, 08 Septembre 2017, nous étions conviés (nous, Benjamin et Noémie qui écrivons ce billet à quatre mains), en tant que blogueurs scientifiques à une petite visite guidée de l’exposition temporaire « Venenum » au musée des Confluences à Lyon. C’était la quatrième fois que nous nous rendions dans ce superbe musée, et c’est toujours un bonheur.

Le musée des confluences, situé au point de rencontre entre le Rhône et la Saône à Lyon.

Cette expo pluridisciplinaire est dévouée aux poisons et autres substances vénéneuses ou venimeuses comme son nom, volontairement polysémique, l’indique.  La chargée d’exposition nous a d’ailleurs raconté que ce titre, « venenum », a tout d’abord fait hérisser quelques cheveux mais fonctionne bien au final pour cette exposition qui fait un carton : déjà 200 000 visiteurs depuis avril 2017 et l’expo a donc été prolongée jusqu’en avril 2018 (jusqu’au vendredi 13 pour être exact !).

La pomme

Tout commence avec une pomme aux effluves numériques semblant empoisonnés, visible tout le long de l’exposition grâce à des jeux d’ouvertures et une exploitation de l’espace en diagonale. Cette scénographie soignée construit une ambiance « venenum » et met aussi ainsi physiquement en scène la transversalité de l’exposition qui confronte histoire, sciences de la nature et du vivant (chimie, pharmacologie, zoologie, botanique), ethnologie, physique, etc.

La pomme empoisonnée, assortie de lumière verdâtre, avec des jeux d’émanations virtuelles qui évoquent aussi bactéries et autres mystères fantastiques…

En voyant cette pomme, la première intuition amène à l’esprit Blanche-Neige ou le jardin d’Eden mais nous, nous n’oublions pas Alan Turing. Turing est l’un des pères de la logique moderne et des calculateurs (les futurs ordinateurs !), c’est lui qui cassera le code de chiffrement allemand de la machine Enigma pendant la seconde guerre mondiale pour permettre aux alliés de gagner la guerre plus rapidement que prévu (en effet, on estime que la guerre a été raccourcie de 2 ans grâce aux messages codés allemands rendus déchiffrables). Eh bien pour le féliciter, les anglais le condamneront à la castration chimique, car il était ouvertement homosexuel, et il se suicidera en croquant une pomme imbibée de cyanure quelques années plus tard. Un classique pour ce fan de Blanche-Neige…

La chargée d’exposition nous raconte par ailleurs que le musée a reçu un appel téléphonique cocasse d’une mère affolée car son enfant, qui avait bien évidemment, comme presque tous les individus normalement constitués, touché la pomme de l’exposition, présentait à présent des maux de ventre… Bref, vous l’avez compris, c’est une expo dangereuse et nous avons bravé maints dangers pour ramener nos photos sur ce blog !!

Vénéneux, Venimeux, ou toxique ?

La question est classique, mais la réponse pas toujours évidente pour tout le monde :

  • Est venimeux tout organisme capable d’injecter un venin (toxines, enzymes) de manière délibérée à un potentiel adversaire ou prédateur. Par exemple, les scorpions, les guêpes, certaines araignées, etc.
  • Est vénéneux toute substance ou organisme possédant du venin toxique pour quiconque l’ingère ou le touche dans certains cas. Par exemple, certains champignons ou végétaux, certaines grenouilles ou encore certains poissons.
  • Est toxique toute substance pouvant faire du mal à un organisme vivant. Donc tout ce qui est venimeux ou vénéneux est par définition toxique, en incluant aussi des minéraux comme le plomb, le mercure, le radium, etc.

Une des questions qui nous taraude est « quel est l’organisme vivant le plus dangereux ? ». Eh bien nous sommes ressortis de l’exposition avec notre question ouverte car la réponse est tout simplement impossible à donner puisqu’il n’existe pas de quantification scientifique normée pour les venins et autres poisons. On notera d’ailleurs qu’on entend souvent parler du « plus mortel des animaux » pour parler d’un serpent ou d’un poisson alors que cette phrase n’a tout simplement pas de sens (que prend-on ? Le nombre de victimes, la fulgurance d’un venin, sa quantité ?). La chargée d’exposition nous expliquera d’ailleurs qu’au début ils avaient pensé à faire une sorte « d’échelle de dangerosité » pour chaque animal, plante ou minéral mais qu’ils avaient vite abandonnée l’idée devant la complexité et les désaccords entre les différents intervenants.

Cependant, nous aimons à penser qu’on pourrait considérer une telle échelle pour chaque substance chimique en les classant selon la masse nécessaire pour tuer un homme adulte bien portant de 70 kg. Après il faut aussi prendre en compte le temps d’action et le mode d’inoculation (toucher, inhalation, ingestion, intraveineuse, etc.), Enfin bref, ça peut vite être compliqué mais si on considère simplement l’ingestion sans prendre le temps en compte, on obtient un truc du genre :

  • 0,001 mg de toxine botulique
  • 7 mg d’amatoxines
  • 14 mg de strychnine
  • 70 mg de ricine
  • 420 mg de cyanure

A méditer…

Des tableaux, des animaux naturalisés… et vivants !

Cette expo n’est pas comme les autres de par sa nature pluridisciplinaire et « multi-supports », si on peut parler de « support » dans ce cas précis. En effet, on peut y rencontrer des tableaux antiques comme la mort de Cléopâtre mordue par un aspic (les tableaux ne sont pas des reproductions, comme le pensent certains visiteurs en raison de la relative proximité avec les œuvres…), des « poissons ballons » naturalisés (comme le fugu pour lequel les cuisiniers japonais doivent impérativement suivre une formation pour préparer ses filets sans risquer de liquider la tablée) mais aussi une mygale vivante ainsi que dix autres espèces toxiques bien vivantes (veuve noire, grenouille bleue « Dendrobate azureus »…). Il aura fallu près d’un an d’autorisations et de paperasses pour que l’exposition ai le droit de présenter ces animaux au public dans un musée qui n’est ni un zoo ni un vivarium (et ne prétend pas le devenir !).

Un « poisson ballon » venimeux naturalisé dans le musée

Les empoisonneuses

L’expo parle bien entendu des empoisonneuses à travers les âges, un des archétypes (sexiste) de la femme, potentiellement sournoise et mauvaise, qui a fasciné et fascine toujours, de l’antiquité à nos jours (cf exposition « présumées coupables » aux archives nationales cette année).

Les anecdotes sont ici souvent croustillantes, et macabres…

Nous, nous aimons bien cette empoisonneuse bretonne du 19ième siècle, Hélène Jédago, présentée dans les médias comme la plus grande tueuse en série de l’histoire de France qui possède une soixantaine de personnes empoissonnées à son actif. Il parait que sur une simple remarque désagréable, cette cuisinière pouvait vous concocter un petit gâteau à l’arsenic dans la foulée…

Il y a encore la jeune Marie Lafarge, qui s’emmerde ferme en Corrèze dans une cahute pleine de rats (tiens, de la mort aux rats), et de peu plaisants beaux-parents, et occit son mari avec un gâteau à la crème. Enfin, rien n’est tout à fait sûr, l’expertise médico-légale en est alors à ses balbutiements et les conclusions des chimistes s’opposent dans cette affaire, même si le célèbre Orfila (pionnier de la toxicologie médico-légale) aura le dernier mot.

« C’était grand-mère l’empoisonneuse ! » Détective, n° 497, 9 janvier 1956.

Des poisons au quotidien

Une partie de l’expo est dédiée aux poisons qui nous entourent. En effet, tout le monde est exposé à des poisons quotidiennement et ce depuis fort longtemps. Il y a notamment des substances vénéneuses comme la mort aux rats autrefois faite à base d’arsenic (elle est désormais faite à partir d’anticoagulants) et qui était très courante pour éliminer les rongeurs ou divers membres de sa famille afin d’accélérer un peu les successions. Il parait qu’avec la création des assurances vies, les ventes de mort aux rats ont été boostées…

On peut citer également les intoxications au plomb qui étaient un classique chez les enfants via les petits soldats de plomb, les peintures[1] ou les canalisations, et qui provoquent le saturnisme. Sans parler de l’amiante qui était omniprésente dans les constructions, le radium et autres éléments radioactifs utilisés au début de leur découverte dans des produits de beauté (ils symbolisaient le « Progrès »), les pesticides, les perturbateurs endocriniens et autres éléments de notre environnement moderne. La pollution en général est une question d’empoisonnement de la nature et de l’homme à petit feu et qui est bien plus subtil que la mort aux rats du siècle dernier. L’expo interroge la définition du poison, la multiplicité de la notion… Même si nous verrons après que parfois, ce qui tue peut aussi guérir.

La crème de beauté « Tho-Radia » était composée de thorium et de radium (2 éléments hautement radioactifs) , et vendue entre 1932 et 1937, date à laquelle il est devenu interdit de commercialiser en France des produits contenant des éléments radioactifs.

Nous aimons bien aussi la petite anecdote écologique qui explique qu’après la première guerre mondiale, les stocks de gaz moutarde (hautement toxique et mortel pour l’homme) ont été réutilisés dans les champs français pour tuer les rongeurs et augmenter les rendements de l’agriculture d’après-guerre.

« La destruction des mulots par les gaz asphyxiants ; essais dans l’Aube. » (article de presse, collection particulière du Musée des Confluences, 1923).


[1] L’anecdote de Michel Pastoureau sur Napoléon probablement mort à Sainte-Hélène suite aux inhalations d’un pigment toxique mérite ici d’être évoquée. Le « vert de Schweinfurt » (fabriqué avec du cuivre dissous dans de l’arsenic), dont il est friand et par ailleurs très à la mode alors, recouvre les murs de sa résidence, imprègne tentures et tapisseries. Ce vert « arsenisé » fait très mauvais ménage avec l’humidité du lieu où ses composants s’évaporent… Au 19ème, un certain nombre d’accidents mortels ont lieu en Europe, notamment dans les chambres d’enfant (M. Pastoureau, Vert, histoire d’une couleur, Paris, Seuil, 2013).


Des venins pour soigner

Par ailleurs, depuis longtemps, les poisons sont aussi utilisés à des fins thérapeutiques et sont présents chez les apothicaires. Ils peuvent posséder des vertus soignantes à faible dose tout en étant mortels à plus forte dose. C’est le moment de citer la célèbre maxime « Tout est poison, rien n’est poison : c’est la dose qui fait le poison ». Plusieurs recherches sont d’ailleurs actuellement en cours pour faire de nouveaux médicaments à base de venin, par exemple avec du venin de mygale pour synthétiser un puissant analgésique dans un futur proche.

Etagère d’apothicaire lyonnais possédant de nombreux poisons comme la Ciguë par exemple.

En conclusion, nous vous invitons fortement à aller visiter cette expo venenum avant sa fermeture en avril 2018 et vous suggérons d’en profiter pour faire un tour dans ce gigantesque musée qui traite des sciences et de l’homme dans toutes ses dimensions.

Le CERN en 13 photos de 2016

Bonne année 2017 !

Pour commencer l’année, voici ma sélection d’une photo par mois prises en 2016 au CERN (Organisation Européenne pour la Recherche Nucléaire), pour parler un peu de tous les projets, et pas seulement de l’accélérateur de particules LHC. Vous noterez néanmoins que 3 photos sont liées au HL-LHC qui rentrera en service en 2026 et constituera une amélioration majeure du LHC.

Mais avant tout, voici ma photo préférée hors catégorie pour 2016 : une photo prise en Novembre 2016 du calorimètre 4-Pi de nTOF EAR1. Cette expérience de physique s’intéresse au temps de vol des neutrons pour déterminer avec précision leur énergie cinétique et ainsi mieux les comprendre. Ces neutrons sont produits à partir de collisions entre un faisceau de protons pulsé de 20 GeV/c du Proton-Synchrotron (PS) et d’une cible fixe de spallation en plomb. Après 185 mètres de vol, les neutrons arrivent dans ce calorimètre pour mesurer leur énergie.

© CERN. Photograph: Brice, Maximilien

Janvier 2016

Transport du TDI pour HL-LHC. Le TDI (Target Dump Injection) permet d’absorber les éventuelles pertes de faisceau lors de son injection entre une ligne de transfert et un accélérateur. Cet élément est ainsi une protection de la machine pour éviter d’éventuels dommages occasionnés par le faisceau si son insertion dans la machine est défaillante.

© CERN. Photograph: Bennett, Sophia Elizabeth

Février 2016

Installation de la cellule plasma de AWAKE dans l’ancienne zone souterraine de CNGS. Voir mon billet de l’année dernière sur AWAKE qui accélèrera très prochainement des électrons par effet sillage dans un plasma de rubidium à partir d’un faisceau de protons de 400 GeV provenant du SPS.

© CERN. Photograph: Brice, Maximilien

Mars 2016

Test de modules pour HIE-ISOLDE en salle blanche au SM18. Isolde est une expérience de séparation d’isotopes pour produire des éléments exotiques. HIE-ISOLDE permettra de ré-accélérer à hautes énergies (jusqu’à 5,5 MeV/u) des faisceaux d’ions radioactifs créés à partir de collisions entre un faisceau de protons de 1.4 GeV issu du PSB (Proton-Synchrotron Booster) et d’une cible fixe.

© CERN. Photograph: Brice, Maximilien

Avril 2016

Prototype d’écran de faisceau pour le FCC-hh. Vous connaissez ce projet d’accélérateur de particules de 100 km de circonférence ? C’est le FCC (Future Circular Collider). Voir ce billet de juillet 2015 pour plus d’informations. L’écran de faisceau permet de capturer toutes les sources de chaleur (lumière synchrotron, courant image, nuage d’électrons) issus du faisceau pour limiter les charges thermiques sur les aimants supraconducteurs refroidis à très basse température tout en assurant un vide extrême dans le tube faisceau.

© CERN. Photograph: Brice, Maximilien

Mai 2016

Premier câble supraconducteur en niobium-étain pour le HL-LHC en train d’être fabriqué à l’aide d’une machine Rutherford au bâtiment 163. Ce câble sera utilisé dans un dipôle de 11 Teslas ! Les câbles supraconducteurs des aimants du LHC sont actuellement tous en niobium-titane et produisent un champ magnétique de 8 Teslas. A partir de 2026, le HL-LHC possèdera 8 nouveaux dipôles de 11 Teslas et 24 nouveaux quadrupôles de 12 Teslas autour des points de collisions de ATLAS et CMS. C’est plus de 1 km de LHC qui sera remplacé.

© CERN. Photograph: Brice, Maximilien

Juin 2016

Un bébé faucon sauvé par un employé sur un parking du CERN à Meyrin. Il a été remis aux autorités compétentes pour le nourrir et le protéger. Il sera ensuite remis en liberté dans la région.

© CERN. Photograph: Bennett, Sophia Elizabeth

Juillet 2016

Le groupe de rock « MUSE » visite le Centre de Contrôle du CERN (CCC) en présence de Mike Lamont, le chef de l’opération des accélérateurs (à gauche). C’est depuis cette salle que tous les accélérateurs et leurs infrastructures sont pilotés 7j/7 et 24h/24. Le CERN reçoit régulièrement des « VIP » souhaitant visiter ses installations et le CERN reçoit au total plus de 100 000 visiteurs par an !  Si l’envie vous prend, n’hésitez pas : https://visit.cern/

© CERN. Photograph: Brice, Maximilien

Aout 2016

Salle de contrôle du centre de calcul (bâtiment 513). Tout est « vert » : les données issues des collisions des détecteurs du LHC sont en sécurité.

© CERN. Photograph: Brice, Maximilien

Septembre 2016

Expérience ALFA, au point 1 du LHC (détecteur ATLAS). ALFA (Absolute Luminosity For ATLAS) est constitué de 4 « pots romains » (2 de chaque côté du point de collision) qui permettent de mesurer la luminosité lors des collisions élastiques de protons dans le détecteur ATLAS. Ces collisions élastiques n’ont lieu que lorsque les faisceaux se croisent avec un angle très faible dans le LHC (avec un très grand beta*). Dans ce cas, les protons se « traversent » l’un l’autre tout en restant intacts mais en changeant de direction. Un article récent du bulletin du CERN explique tout cela assez clairement. Extrait: « L’objectif de physique de l’expérience ATLAS/ALFA consiste également à réaliser une mesure précise de la section efficace proton-proton totale, puis d’utiliser cette mesure afin de déterminer la luminosité absolue du LHC au point 1 pour l’exploitation avec un bêta étoile de 2,5 km. »

© CERN. Photograph: Suykerbuyk, Ronaldus

Octobre 2016

Fin des travaux de ICARUS au bâtiment 156 avant son transport vers les USA. ICARUS est un ancien détecteur de neutrinos utilisé au laboratoire de Gran Sasso en Italie en collaboration avec le CERN (ancienne expérience CNGS). Ce détecteur a été entièrement « remis à jour » au CERN cette année pour être réutilisé dans deux nouvelles expériences de neutrinos à Fermilab aux USA près de Chicago.

© CERN.Photograph: Steyaert, Didier.

Novembre 2016

Premier faisceau dans le tout nouveau décélérateur ELENA. Eh oui, au CERN, on ne fait pas qu’accélérer des protons, on décélère aussi des anti-protons pour étudier l’antimatière. ELENA permet de décélérer encore plus des anti-protons venant de AD (Antiproton Decelerator) jusqu’à 5,3 MeV.

© CERN. Photograph: Brice, Maximilien

Décembre 2016

Non ce n’est pas un gâteau d’anniversaire mais un prototype de quadrupôle 12 Teslas pour le HL-LHC imprimé en 3D. Les futurs quadrupôles du HL-LHC permettront de beaucoup plus concentrer les faisceaux qu’avec le LHC pour produire 10 fois plus de collisions dans le même temps. Les imprimantes 3D permettent aujourd’hui de concevoir des prototypes réalistes en peu de temps et à moindre coût avant de passer au prototypage avec les matériaux réels souvent très onéreux.

© CERN. Photograph: Bennett, Sophia Elizabeth.

Le nucléaire au thorium: une « vieille » solution pour l’avenir ?

Ce billet est la suite de mon billet Une petite histoire de l’énergie nucléaire. Donc, à lire en guise d’introduction sur les différentes filières nucléaires.

Mais avant de parler du thorium-232 en détail, juste un petit rappel sur les éléments chimiques et leurs isotopes. Le numéro cité après l’élément considéré (232 dans le cas du thorium) s’appelle le nombre de masse et représente le nombre total de protons et de neutrons dans le noyau (les nucléons). Donc plus le nombre de masse est grand, plus l’élément est lourd. Ainsi, l’uranium-238 possède 3 neutrons de plus que l’uranium-235 et chaque « variété » d’un même élément s’appelle un isotope. A ce jour, 117 éléments ont été découverts  pour 2 934 isotopes. Certains sont explosifs, d’autres corrosifs ou encore inoffensifs. Tous les éléments dont nous sommes familiers (oxygene-16, fer-56, carbone-12, etc.) sont stables dans le temps mais beaucoup d’autres sont instables et donc radioactifs avec des durées de demi-vie variables, de quelques millisecondes à des millions d’années, tout dépend du nombre de protons et de neutrons dans le noyau!

 Le thorium

Le thorium, est un métal lourd radioactif de la même famille que l’uranium (actinide). Il possède 90 protons dans son noyau (contre 92 pour l’uranium) et a une demi-vie radioactive très longue de 14 milliards d’années, soit plus de 3 fois l’âge du système solaire. Sa présence sur Terre est estimée entre 3 et 4 fois plus abondante que l’uranium et est plutôt bien réparti. En France, il y a des gisements en Bretagne et AREVA, le CEA et Rhodia ont déjà 8 500 tonnes de thorium  stockées sur leur étagère via l’extraction d’autres minerais. Selon cette source, une tonne de thorium permettrait en gros de générer 10 TWh d’électricité donc la France a déjà assez de thorium pour subvenir à environ 190 ans d’électricité avec sa consommation actuelle !

Couverture de Science & Vie en Novembre 2011 : Le Nucléaire sans uranium c’est possible. Plus sûr, plus propre… et pourtant ignoré depuis 50ans.

Le forum pour la 4ième génération

La quantité d’uranium dans le monde permettrait de continuer à faire tourner des centrales pour 200 ans environ avec notre production actuelle mais bien entendu, si la production nucléaire augmente (ce qui est hautement probable avec des pays comme la Chine et l’Inde dans la course), ce sera beaucoup moins, les pronostics donnent la fin de l’uranium pour la fin du siècle et nos enfants sont donc concernés !! C’est entre autre pour cette raison qu’un forum nommé « Génération IV » a vu le jour entre 14 pays pour choisir une solution de 4ième génération pour le nucléaire. Aujourd’hui, le réacteur EPR en construction à Flamanville en Normandie fait partie de la 3ieme génération mais appartient toujours à la filière de réacteur à eau pressurisée (REP) et on ne peut pas dire que ce soit une réussite pour l’instant…. Bref, ce forum étudie ainsi 6 nouvelles filières prometteuses pourl’avenir nucléaire: https://www.gen-4.org/gif/jcms/c_40486/technology-systems.

Dans ces 6 propositions, il y en a une qui mérite notre attention et qui serait à mon avis la seule solution vraiment intéressante pour des raisons de sûreté et de déchets : Les réacteurs à sels fondus au Thorium.

Les réacteurs à sels fondus

Dans ce type de réacteur, le combustible est liquide et sert également de caloporteur. On mélange des éléments fissibles ou fertiles dans des sels fondus et on fait circuler le tout dans le réacteur ou une réaction en chaine peut se produire et générer beaucoup de chaleur suite à la fission de certains éléments. Il y a ensuite 2 grandes variantes de ce type de réacteurs

  • Les réacteurs à neutrons thermiques où un modérateur comme le graphite est indispensable pour ralentir les neutrons et contrôler la réaction en chaine.
  • Les réacteurs à neutrons rapides où aucun modérateur n’est nécessaire. Dans ce cas, ces réacteurs peuvent fonctionner en surgénérateurs, c’est-à-dire qu’ils peuvent produire plus d’éléments fissibles qu’ils n’en consomment en utilisant un élément fertile à la base comme le thorium-232, c’est-à-dire que cet élément peut produire un élément fissible en absorbant un neutron dans son noyau.

Schéma d’un réacteur à sels fondus.

Pour cette raison, un réacteur chargé uniquement avec du thorium ne peut pas démarrer. Pour initier la première fission avec un élement fertile comme du thorium, il faut un élément fissible comme de l’uranium ou du plutonium en quantité non négligeable (plusieurs tonnes pour réacteur de 1 GW) et une fois que c’est partie, le réacteur tourne en cycle fermé jusqu’à consommer pratiquement tous les éléments fissibles qui sont recyclés en son sein. C’est pour cette raison qu’un réacteur de ce type produit beaucoup moins de déchets nucléaires fissibles comme le plutonium et les transuraniens vu qu’il les consomme et surtout il permettrait de nous débarrasser de certains déchets embêtants dont nous ne savons que faire aujourd’hui. A titre d’information, après 70 ans de nucléaire, il y a 500 tonnes (déclarés) de plutonium dans le monde.  On peut d’ailleurs voir ce type de réacteur comme un incinérateur à déchets nucléaires qui a en plus l’avantage de pouvoir faire de l’électricité !

Les premiers à se pencher sur la question du réacteur à sels fondus furent les Américains du Laboratoire National d’Oak Ridge (ORNL) avec le fameux Alvin Weinberg, l’ancien directeur du laboratoire pendant le projet Manhattan. Le réacteur à sel fondu expérimental MSRE fonctionna entre 1965 et 1969, d’abord avec de l’uarium-235 puis avec l’uranium-233 et du plutonium la dernière année, prouvant alors la faisabilité et la viabilité d’un tel concept mais en 1973 le gouvernement américain coupe tous les budgets pour la filière des réacteurs à sels fondus et leur utilisation potentiel avec du thorium pour se concentrer sur la filière uranium exclusivement, plus en phase avec le côté militaire.

Voici un dessin pour vous donner une petite idée de la différence entre un réacteur à sels fondus au thorium et un réacteur à eau pressurisé « standard » à l’uranium. On comprend tout de suite l’intérêt de la chose en matière de quantité de minerai et de déchets.

Comparaison entre combustibles et déchets pour 2 réacteurs de 1 GW utilisant de l’uranium et de l’eau pressurisée en haut et un réacteur à sels fondus au thorium en bas (Source).

Les avantages de cette technologie sur les autres filières nucléaires sont les suivants:

  • Pérennité: Les ressources en thorium sur la Terre sont abondantes, on estime à 30 000 ans notre autonomie.
  • Sûreté: Pas d’emballement du réacteur possible comme Tchernobyl.
  • Sûreté: Combustibles liquides évitant le risque de dégradation et d’explosion des bâtiments comme à Fukushima. Ces explosions sont dues à l’hydrogène dégagé par le zirconium des crayons d’uranium actuels.
  • Sûreté: Pas de haute pression et donc moins de risque (circuit à 1 bar contre 155 bars).
  • Sûreté: En cas de panne de refroidissement : on peut vidanger de liquide dans une cuve isolée sous le réacteur à travers un « bouchon froid » qui fond en cas de panne électrique et éviter une catastrophe comme à Fukushima.
  • Déchets: 10 000 fois moins de déchets à vie longue (transuraniens comme plutonium).
  • Prolifération: Beaucoup plus difficile de faire une bombe atomique à partir de cette filière (mais pas impossible).

Néanmoins, il y a des inconvénients :

  • Démarrage: Il faut un élément fissible comme de l’uranium ou du plutonium au début pour initier la réaction en chaine (mais ce peut être un avantage pour se débarrasser de notre plutonium stocké).
  • Déchets : Il y a beaucoup moins de déchets à vie longue mais cette filière génère tout de même des déchets de fission qu’il faudra gérer sur des centaines d’années ainsi que du protactinium 231 (période : 33 000 ans).
  • Recherche: pour aboutir à un réacteur industriel, beaucoup de recherches sont encore à faire comme cette filière a été abandonnée dans les années 60. Daniel Heuer, directeur de recherche au CNRS de Grenoble et travaillant sur un tel réacteur estime qu’entre 10 et 15 ans de développement sont nécessaires et que si une filière thorium est choisie en 2040, il faudra attendre 2070 pour la voir sur le marché (source).

Au regard de ces avantages indéniables, les Chinois et les Indiens travaillent actuellement sur ce sujet très intéressant pour eux étant donné leurs réserves en thorium importantes comparées aux réserves en uranium mais la route sera encore longue. Il faut déjà qu’ils se réapproprient les connaissances qu’ont accumulé les Américains jusque dans les années 70 avant d’aller plus loin.

Quelques autres alternatives nucléaires

En 1993, Carlo Rubbia, prix Nobel de physique travaillant au CERN (Organisation Européenne pour la Recherche Nucléaire) propose d’utiliser un accélérateur de particules pour démarrer la réaction en chaine dans un réacteur sous-critique (comme un réacteur au thorium) et éviter ainsi la consommation d’uranium ou de plutonium pour démarrer et entretenir la réaction en chaine. On parle alors de réacteur nucléaire piloté par accélérateur (ADS). Ce projet est prometteur mais l’investissement en termes de recherche et d’infrastructures pour un tel réacteur parait actuellement peu envisageable pour l’étape industrielle.

Encore mieux que le réacteur à sels fondus au thorium : le réacteur à fusion thermonucléaire. Dans ce type de réacteur, plus de fission mais de la fusion et donc plus d’éléments lourds hautement radioactifs. Le combustible est quasi-infini (deutérium et tritium), il n’y a aucun déchets radioactif à vie longue (quelques déchets gérables sur une centaine d’années) et aucun risque d’emballement du réacteur (pas de réaction en chaine comme avec la fission). Beaucoup de recherches dans le monde vont dans ce sens comme le fameux projet international ITER en cours de construction à Cadarache dans le sud de la France qui sera une expérience scientifique de fusion nucléaire pour démontrer que cette voie est possible pour l’avenir. Mais ici, les spécialistes parlent d’une industrialisation possible pour la fin du siècle seulement car c’est une machine extrêmement complexe qu’il faut développer mais même s’il faut 100 ans de recherche et de développement pour voir des réacteurs à fusion dans le monde, ça vaut le coup, non, pour sauver la planète ? Vous pouvez lire ici un article sur ITER que j’ai fait il y a 10 ans. Aujourd’hui, c’est en construction et la première réaction de fusion est attendue pour 2025.

Construction du bâtiment principal qui hébergera ITER (photo personnelle prise en Octobre 2016).

Sources:

Une petite histoire de l’énergie nucléaire

Si vous pensiez que l’humanité s’est dite un jour « nous allons investir massivement pour faire de l’énergie d’origine nucléaire de la meilleure manière possible » eh bien vous vous trompiez. Le nucléaire « civil » comme on l’appelle, n’a été qu’une sorte d’opportunité pour servir la fabrication de bombes atomiques. Sans bombe atomique et sans propulsion nucléaire pour les sous-marins militaires, il n’y aurait sans doute pas eu de nucléaire civil tel qu’il est aujourd’hui…

Tout a donc commencé pendant la seconde guerre mondiale avec le programme de nucléaire militaire américain pour fabriquer la première bombe Atomique : le projet Manhattan. Une fois que les politiques et que les militaires ont compris le potentiel de destruction de la bombe atomique, tout est allé très vite… trop vite peut être…

Le tout début

Nos centrales nucléaires actuelles utilisent l’énergie de fission des noyaux atomiques qui a été décrit correctement la première fois à Berlin fin 1938 par Otto Hahn et Fritz Strassmann (voir ce billet sur l’énergie nucléaire de fission et de fusion). Dès 1939, en France, Fréderic Joliot-Curie publie avec 3 autres scientifiques un article dans la prestigieuse revue Nature expliquant le phénomène de réaction en chaine de l’uranium et dépose même un brevet le mois suivant sur les possibilités énergétiques et militaires d’un tel phénomène. Mais avec l’arrivé de la guerre, toutes les recherches françaises sur ce domaine sont stoppées en mai 1940.

Aux Etats-Unis, Le président Roosevelt est averti dès 1939 d’une possibilité de bombe atomique par une fameuse lettre en partie signée par un fameux Albert Einstein (qui d’ailleurs avouera plus tard regretter cette lettre). Le projet Manhattan est alors lancé en 1942 et on connait la suite avec son triste aboutissement en 1945 à Hiroshima et Nagasaki. Les USA ont pour cela dépensé l’équivalent de 25 milliards de dollars d’aujourd’hui en seulement 3 ans (imaginez qu’aujourd’hui, le plus grand projet scientifique mondial comme l’accélérateur de particules LHC de 27 km au CERN a coûté 9 milliards de dollars au total avec ses expériences répartis sur des dizaines d’années et une vingtaine de pays et plus de 600 instituts scientifiques de 113 pays). Bref, ce projet de bombe atomique complètement fou a été possible en partie grâce à la mise au point de réacteurs nucléaires permettant de transformer de l’uranium-238 en Plutonium-239, indispensable pour faire une bombe atomique efficace comme Fat Boy larguée sur Nagasaki (celle d’Hiroshima était constitués d’uranium enrichi et présentait à ce titre plusieurs inconvénients). Le premier réacteur nucléaire a ainsi vu le jour en 1942 avec le célèbre Enrico Fermi à Chicago et fonctionnait donc à l’uranium vu que l’objectif n’était pas de faire de l’électricité mais bien produire du plutonium pour la bombe atomique.

Chicago Pile-1 : dessin du premier réacteur nucléaire artificiel construit par Enrico Fermi en 1942 dans le cadre du projet Manhattan.

Du militaire au civil

Après la guerre, les scientifiques et industriels se sont donc intéressés à la possibilité d’utiliser l’énergie nucléaire dans un réacteur pour produire de l’électricité étant donné la gigantesque énergie dégagée sous forme de chaleur lors de la fission nucléaire. L’intérêt du rendement du nucléaire est vite compris : la fission de 1 g d’uranium-235 correspond à 1,6 tonne de fuel ou à 2,8 tonnes de charbon en terme énergétique.

Contrairement à ce que la plupart des gens pensent, ce sont les Russes qui ont les premiers fabriqué et mis en opération un réacteur nucléaire civil raccordé au réseau électrique en 1954 (d’une puissance modeste de 5 MW). Les Français, les Anglais et les Américains inaugureront leurs centrales nucléaires électriques dans les 2 ou 3 années suivantes avec Marcoule en France (7 MW), Sellafield en Grande-Bretagne (50 MW) et Shippingport aux Etats-Unis  (60 MW) en 1957, soit 12 ans après la bombe atomique !!

Mais la guerre froide se profile entre les USA et l’URSS et la course à l’armement nucléaire va nécessiter de grandes quantités d’uranium et de plutonium. Une stratégie commune entre applications militaires et civiles a vite été trouvée et promue par les gouvernements ! Le nucléaire civile va alors battre son plein dans plusieurs pays jusqu’à 1979 qui voit le premier accident « sérieux » de Three Mile Island aux Etats-Unis : le réacteur s’emballe et la moitié de ce dernier fond. La catastrophe est évitée de toute justesse mais 200 000 personnes ont dû évacuer la zone autour de la centrale. A partir de cette date, l’opinion publique aux USA et dans le reste du monde commence à comprendre que cette énergie qui paraissait parfaite peut être dangereuse et le nucléaire civil prend un virage clé dans son histoire. Mais la progression a ensuite repris et c’est bien sûr 7 ans plus tard avec l’accident de Tchernobyl en 1986 que le monde réalise alors vraiment le danger et la progression du nucléaire dans le monde est stoppée nette.

Evolution du parc nucléaire dans le monde (source : AIEA). On voir clairement l’impact de Three Mile Island (1979) et Tchernobyl (1986) qui stoppe la progression du nucléaire.

Les filières nucléaires

Les 4 premiers réacteurs industriels destinés à fabriquer de l’électricité en URSS, en France, en Grande-Bretagne et aux Etats-Unis sont tous basés sur le même combustible : l’uranium. Logique vu que ce sont des réacteurs de ce type qui peuvent produire du plutonium-239 permettant de faire des bombes atomiques…

En fait, pour faire un réacteur nucléaire, les scientifiques ont l’embarra du choix sur les technologies à utiliser : on parle alors de « filière » qui dépend de 3 ingrédients principaux:

  • Le combustible:
    • de l’uranium
    • du thorium
  • Le caloporteur (fluide pour transporter la chaleur) :
    • de l’eau pressurisée
    • de l’eau bouillante
    • du gaz (comme du CO2 ou de l’hélium)
    • du sodium
    • des sels fondus
  • Le modérateur (élément permettant de ralentir les neutrons et permettre une réaction en chaine) :
    • de l’eau ordinaire
    • de l’eau lourde
    • du graphite
    • aucun dans le cas de réacteur à neutrons rapides.

Avec un peu de mathématique de base, on peut ainsi dénombrer ici 2x5x4 = 40 grands types de réacteurs différents (sans compter les centaines de petites variantes possibles). Il faut alors faire un choix mais pas n’importe lequel car quand on s’embarque dans une filière, difficile de faire machine arrière. En effet, l’énergie nucléaire n’est pas à la portée de tout le monde et est très difficile à mettre en place. Si on considère l’argent, le temps, la recherche, les technologies, la politique, l’écologie et la sûreté qui doivent être mis en place à l’échelle d’un pays entier, le choix de la filière est extrêmement important. Sauf que si on considère la question militaire en même temps, le choix devient beaucoup plus simple… Et dans ce cas, les questions d’écologie et de sûreté sont reléguées derrière la priorité militaire…

C’est en partie pourquoi tous les réacteurs nucléaires dans le monde utilisent de l’uranium comme combustible de base et 63 % sont des « REP » : Réacteurs à Eau Pressurisée qui présentent en plus l’avantage d’être plutôt compacts en utilisant de l’eau ordinaire et donc parfaitement adapté pour propulser un sous-marin qui a de l’eau facilement à disposition ! Sur les 438 réacteurs nucléaires dans le monde en fonctionnement aujourd’hui, voici la répartition :

  • 279 à eau pressurisée (REP) dont font partie Three Mile Island et Fukushima,
  • 78 à eau bouillante (REB),
  • 49 à eau lourde pressurisée (PWHR),
  • 15 refroidis au gaz (GCR),
  • 15 à l’eau et au graphite (RMBK) dont fait partie Tchernobyl,
  • 2 réacteurs à neutrons rapides (RNR) pour études scientifiques.

Et vous constaterez qu’il y en a zéro utilisant du thorium avec des sels fondus comme caloporteur alors que ce type de réacteur avait été pressenti par tous les spécialistes dans les années 60 comme la meilleure solution pour produire de l’électricité en termes de déchets et en termes de sûreté (comme Alvin Weinberg, l’ancien directeur du laboratoire américain d’Oak Ridge ayant participé au projet Manhattan). Mais un réacteur à base de thorium ne produit pas de plutonium pour fabriquer des bombes et c’est bien là tout le problème de notre histoire, mais il n’est peut-être pas trop tard !

La suite dans le prochain billet pour plus de précisions sur les réacteurs à sels fondus utilisant du thorium qui pourraient être une meilleure solution dans l’avenir.

Les ondes gravitationnelles et l’interféromètre LIGO

A moins que vous ne viviez reclus, vous n’avez pas pu passer à côté de la nouvelle annoncée par l’expérience LIGO cette semaine: des ondes gravitationnelles ont été directement détectées.

Aerial5Vue aérienne de LIGO sur le site de Hanford (état de Washington, Etats-Unis). Source : LIGO.

Si vous n’aviez jamais entendu parlé de ces ondes gravitationnelles auparavant, c’est tout simplement parce que cela fait bien longtemps qu’on suppose leur existence et elles avaient même été déduites à partir de mesures indirectes sur un pulsar binaire en 1974 (ce qui d’ailleurs valut un prix Nobel à ses auteurs). L’existence de ces ondes découle directement de la relativité générale d’Einstein de 1916. On peut dire que la mesure directe de ces ondes permet d’enfoncer un peu plus le clou de la relativité générale qui constitue toujours aujourd’hui la théorie la plus avancée pour décrire la gravité: elle n’a jamais été mise en défaut ! Ce n’est donc pas une « découverte » au sens strict mais plutôt une confirmation expérimentale directe.

Si on fait le rapprochement avec la détection du Boson de Higgs au CERN en 2012, c’est un peu pareil car le Higgs avait été prédit depuis les années 60 et a permis de valider un peu plus le modèle standard (le modèle qui explique la matière et ses interactions, sauf la gravité…). Cependant, le boson de Higgs a été déduit de manière indirecte car c’est le produit de ses désintégrations qui a été détecté par des détecteurs, contrairement aux ondes gravitationnelles qui ont directement « excité » les détecteurs de LIGO au mois de Septembre 2015.

Un peu de théorie

Dans la relativité générale, l’espace et le temps sont liés dans une même structure : l’espace-temps. Dans cette structure, tout objet ayant une masse déforme l’espace-temps et si cet objet est accéléré fortement, il peut perturber cette structure selon sa forme, sa direction et sa vitesse. De cette manière, une vague le long de l’espace-temps peut se propager à la vitesse de la lumière et c’est cette vague dans l’espace-temps qu’on appelle « onde gravitationnelle ». Pour induire une onde détectable par nos moyens de mesure sur Terre, le cas idéal serait deux objets très massifs comme des trous noirs ou des étoiles à neutrons qui tourneraient autour d’un point situé entre ces 2 objets. C’est exactement ce qui se passe dans ce qu’on appelle en astrophysique des systèmes binaires composés de 2 étoiles à neutrons ou de 2 trous noirs tournant l’un autour de l’autre et se rapprochant au fur et à mesure jusqu’à se rencontrer (coalescence). C’est visiblement d’une telle coalescence que l’onde gravitationnelle détectée par LIGO était issue.

etoile binaireSystème binaire de 2 étoiles (source : Wikipédia)

Un peu d’expérimentation

La question est simple mais la réponse l’est moins : comment détecter le passage d’une onde gravitationnelle sur Terre ? On peut reformuler cette question comme: comment mesurer une déformation locale de notre espace-temps sur Terre ?

Eh bien, une solution consiste à mesurer la distance entre 2 points et de voir si cette distance serait par hasard soudainement allongée puis rétrécie. Si on double cette expérience de mesure à 2 points du globe et qu’on détecte un allongement/rétrécissement dans ces 2 expériences avec un intervalle de temps égal au temps nécessaire à la lumière pour parcourir cette distance, alors on pourra émettre l’hypothèse qu’une onde gravitationnelle a traversé les 2 expériences car une telle onde doit se propager à la vitesse de la lumière. C’est exactement ce que vient de réaliser LIGO aux États-Unis entre Hanford (état de Washington) et Livingston (état de Louisiane) qui sont distants de 3000 kilomètres et qui ont détecté une onde sur leurs détecteurs à 7 ms d’intervalle. Vous allez me dire que dans ce cas, l’intervalle devrait être alors de 10 ms pour parcourir 3000 km, pas 7 ms, mais l’onde gravitationnelle ne se propage pas forcément perpendiculairement aux 2 expériences mais de biais et donc, le décalage temporel permet également de compléter d’autres données pour trouver dans quelle direction cette onde a été émise. Dans le cas de l’onde détectée par LIGO, ce serait un point dans l’hémisphère sud en direction du grand nuage de Magellan (mais beaucoup plus loin, à environ 1 milliard d’années-lumière).

Interféromètre de Michelson

Pour détecter cette perturbation d’espace-temps entre 2 points, les scientifiques ont construit deux interféromètres de Michelson géants. Le fonctionnement d’un interféromètre Michelson est relativement simple à comprendre car il est simplement constitué de 2 miroirs placés perpendiculairement et d’une lame semi-transparente appelé séparatrice en son centre (plus une autre lame compensatrice si on travaille avec de la lumière blanche). On réalise d’ailleurs fréquemment cette expérience dans les salles de travaux pratiques à l’université ou en école d’ingénieur dans le cadre des cours d’optique ondulatoire pour comprendre le phénomène d’interférence.

Michelson-Morley_experiment_conducted_with_white_lightInterféromètre de Michelson (source : Wikipédia)

La lumière se comporte (parfois !) comme une onde et à ce titre, certaines ondes peuvent se « superposer » et former ainsi des figures d’interférence. Si on fait passer dans un interféromètre de Michelson un faisceau laser, on obtient 2 ondes avec la séparatrice et lorsque les 2 ondes se recombinent après avoir été renvoyées par les miroirs, on induit un déphasage entre les 2 ondes en fonction de la distance entre les miroirs et la séparatrice, ce qui provoque une interférence. Cette interférence apparait sous forme de franges de différentes couleurs selon la source de lumière utilisée. Ces franges sont fonction de la distance entre les 2 miroirs et donc lorsque la distance change, les franges bougent car les 2 ondes de lumière interfèrent différemment. Je me souviens parfaitement de cette expérience pendant mes études d’ingénieur et j’avais trouvé ça incroyable de pouvoir voir aussi facilement le phénomène d’interférence qui s’opère à une échelle si petite.

LIGO : le dispositif

Le concept d’interféromètre est donc assez simple mais pour atteindre la précision souhaitée pour détecter des ondes gravitationnelles, c’est un véritable tour de force car ces interféromètres qui mesurent 4 kilomètres de long doivent pouvoir mesurer une différence de distance de 10-18 m, soit un milliardième de milliardième de mètre ou encore le dix millième du diamètre d’un proton !! Le rapport de distance à mesurer est donc de 1021, ça revient à mesurer une différence de 1 centimètre entre la Terre et l’étoile la plus proche de notre système solaire (Proxima du Centaure située à 4 000 années-lumière). C’est juste incroyable !

Tout d’abord, LIGO possède bien des bras de 4 kilomètres mais en fait, la lumière en parcourt 1600 entre le miroir et la séparatrice car entre les 2, les scientifiques ont rajouté ce qu’on appelle une cavité de Fabry-Perrot dans laquelle le faisceau fait 400 aller/retours histoire de rallonger artificiellement les bras et donc d’améliorer la sensibilité du dispositif.

Basic_michelson_with_FP_labeledSchéma de principe de LIGO. Source : LIGO

Ensuite, les miroirs de 34 cm de diamètre et pesant 40kg chacun sont suspendus à un quadruple pendule géant qui permet de stabiliser les miroirs pour s’affranchir des vibrations du sol et des microséismes. Finalement, c’est bien entendu un LASER très perfectionné de 200 W dans le proche infra-rouge qui est utilisé comme source lumineuse et le faisceau voyage dans une enceinte à vide de 10 000 m3 qui est maintenue à une pression de 10-8 mbar pour éviter toute perturbation.

ligo_suspension

Schéma du quadruple pendule stabilisant les miroirs de LIGO. Source : LIGO.

Au final, il s’agit donc de détecter un signal d’écartement des miroirs au-dessus d’un bruit de fond produit par toutes les petites imperfections du système et de l’environnement et c’est ce qui s’est passé ! Ce qui est incroyable c’est que la forme du signal détecté est véritablement ce à quoi les scientifiques rêvaient: une oscillation qui grandit petit à petit et qui augmente en fréquence jusqu’à s’éteindre soudainement. Cela correspondrait à deux trous noirs qui tourneraient autour l’un de l’autre en se rapprochant de plus en plus vite jusqu’à fusionner pour ne faire qu’un. On flirte avec la science-fiction !

ligo20160211aMesure de l’écartement des miroirs dans les 2 sites de LIGO aux Etats-Unis lors du passage de l’onde gravitationnelle. Source : LIGO.

 La suite de l’aventure…

Eh bien, nous allons peut être pouvoir rajouter une nouvelle particule à notre bestiaire. Si ces ondes gravitationnelles existent bel et bien, cela signifie que la gravité se propage effectivement à la vitesse de la lumière et cette propagation de force peut être associée à une particule vecteur : le graviton. C’est la même chose qu’avec le photon qui « transporte » la force électromagnétique. On peut donc voir LIGO comme un « télescope » mais qui au lieu de détecter des photons, détecte des gravitons, c’est un genre de nouvel astronomie…

Dans les projets avenirs, n’oublions pas que le nouveau LIGO (advanced LIGO) rentre à peine en opération et on peut donc s’attendre à de nouveaux évènements très prochainement. Un projet quasi identique en Europe va bientôt aussi reprendre du service (VIRGO) en Italie près de Pise qui est un autre interféromètre de 3 kilomètres. Il faut aussi mentionner le projet eLISA de l’Agence Spatiale Européenne qui a pour objectif de déployer un interféromètre dans l’espace pour chercher des ondes gravitationnelles également (et on parle ici de faire parcourir 1 million de kilomètres aux faisceaux laser de l’interféromètre..).

A suivre…

Les carottes de glace

Question: comment les scientifiques arrivent-il à reconstituer la composition de l’atmosphère terrestre ainsi que sa température lors du dernier million d’années ?

La discipline qui s’intéresse à cette question s’appelle la paléoclimatologie et comporte de très nombreuses méthodes pour y répondre. L’une d’entre elle consiste à analyser la glace des profondeurs du Groenland et de l’Antarctique en extrayant des carottes de glace.

carotte_lapin En astrophysique on dit que regarder loin dans l’espace revient à regarder loin dans le temps à cause de la vitesse finie de la lumière. En glaciologie, c’est un peu différent : c’est en regardant plus profondément dans la glace que l’on regarde plus loin dans le temps… En effet, au fil des ans, la neige qui tombe se dépose sur la neige plus ancienne qui se transforme alors en glace en emprisonnant de nombreux gaz de l’atmosphère. L’analyse de ces gaz permet ainsi de remonter le temps en déduisant la composition de l’atmosphère au moment où les petites bulles d’air ont été emprisonnées.

cnrs_carotteProjet Aurora Basin North, Antarctique, décembre 2013-janvier 2014. À partir d’un forage de 115 mètres, Jérôme Chappellaz (à droite) et David Etheridge effectuent un prélèvement d’air dans le névé, cet amas de neige qui tend à se durcir et qui se trouve à l’origine d’un glacier. (source).

Le carottage

On fait des carottages depuis les années 50 grâce au glaciologue français Claude Lorius qui a eu cette idée en regardant un glaçon fondre dans son verre whisky lors d’une mission en Antarctique… Pour faire un carottage, il « suffit » de faire un trou dans la glace avec une foreuse et d’en extraire une « carotte » de glace d’une dizaine de centimètres de diamètre. Cette carotte est découpée en tronçons plus ou moins longs pour la transporter dans un frigo vers un laboratoire de glaciologie pour analyse des gaz qu’elle contient. Facile à dire comme ça, mais c’est tout un art de faire des carottes et de les stocker correctement.

Le laboratoire national américain des carottes de glace (NICL) est un centre pour entreposer, nettoyer et étudier les carottes de glaces. NSF Source: http://icecores.org

Le plus grand carottage actuel fait 3,2 kilomètres de profondeur en Antarctique, ce qui correspond à 740 000 ans de données, soit 8 cycles glaciaires ! Il a été réalisé dans le cadre du projet européen EPICA (European Project for Ice Coring in Antarctica), et permettra de recouper les données d’autres forages de profondeurs similaires au Groenland (projets GRIP et GISP2).

Une tête de perceuse pour réaliser les carottages. NSF Source : http://icecores.org

Déduire la température du passé

Pour retrouver la température qu’il faisait lors de la formation de la glace de la carotte, on utilise ce qu’on appelle un thermomètre isotopique mais ce dernier n’a pas grand-chose à voir avec un thermomètre au sens commun…

Cette méthode exploite le fait que plus il fait froid et moins l’eau possède des atomes lourds. On apprend à l’école que l’eau est constituée de 2 atomes d’hydrogène liés à un atome d’oxygène (H2O). C’est vrai mais les atomes peuvent être plus ou moins lourds, c’est ce qu’on appelle les isotopes d’un atome, car ces derniers peuvent comporter plus ou moins de neutrons dans leur noyau. Bref, l’oxygène de l’eau peut posséder 8 ou 10 neutrons et l’hydrogène 0 ou 1 neutron.  Donc, plus il fait froid et moins l’eau possède d’oxygène et d’hydrogène « lourd » (oxygène-18 et deutérium). En mesurant la teneur de ces différents isotopes dans la glace, le chercheur arrive ainsi à retrouver précisément la température qu’il faisait lorsque l’eau a gelé.

018-TempConcentration en oxygène-18 selon la température de surface (source : Jean Jouzel 1987)

Cependant, on utilise aussi un thermomètre  «classique » pour mesurer la température le long du trou de forage. Ce profil de température permet aux chercheurs de calibrer le thermomètre isotopique car ce dernier possède une erreur. Comme la température le long du forage doit évoluer de la même manière que la température de l’époque, on peut corriger la mesure du thermomètre isotopique mais pour cela il faut résoudre un problème inverse. En effet, les chercheurs possèdent un assez bon modèle qui explique comment la chaleur se propage dans la glace et donc comment la température va se répartir dans le temps à travers la glace. Le souci est qu’ici on connaît le résultat de ce modèle (la température dans la glace aujourd’hui après des milliers d’années dans chaque couche du forage) mais on ne connaît pas la donnée d’origine (la température initiale dans chaque couche de glace). Pour résoudre de tels problèmes inverses, les glaciologues doivent donc travailler avec des mathématiciens, des chercheurs en traitement du signal et des automaticiens qui sont familiers de ce genre de problèmes. Et ce qui est merveilleux, c’est que ça marche et que ce genre de corrections est même indispensable pour obtenir une bonne précision. De cette manière, les paléo-climatologues ont pu calculer avec une bonne estimation la température qu’il faisait sur Terre lors des derniers 800 000 ans.

Reconstruire l’atmosphère d’antan

Maintenant que vous savez comment les chercheurs déduisent la température du passé grâce aux carottes de glace, voyons comment on peut également retracer l’évolution des différents gaz constituant l’atmosphère terrestre, toujours avec les carottes. Tout d’abord, il faut bien comprendre comment la neige se dépose sur les anciennes couches et comment cette dernière se tasse et se transforme en glace.

Entre la neige fraiche qui tombe et la glace où les bulles de gaz sont emprisonnées, il y a une zone de transition appelée « névé ». Cette couche fait entre 50 mètres (au Groenland) et 120 mètres (en Antarctique) et dans cette couche, les bulles de gaz peuvent se déplacer soit par convection dans sa partie haute (due aux différences de températures et aux vents de surface), soit par diffusion dans sa partie basse (les molécules de gaz les plus lourdes migrent vers le froid en bas et les plus légères vers le chaud en haut), voir la figure ci-dessous.

neve_profilProfil d’un névé qui se situe entre la neige fraiche qui s’accumule à la surface et la glace en profondeur. (Source: Sowers 1992).

Les chercheurs sont donc une fois de plus amenés à résoudre un problème inverse car ils mesurent aujourd’hui la concentration des gaz dans la glace et doivent déduire quelle était la concentration des différents gaz à la date où la neige est tombée, en considérant toute la période de névé pendant laquelle les gaz ont pu se déplacer. Le problème est très compliqué car le gaz contenu dans une bulle emprisonnée peut donc provenir de différentes époques… C’est effectivement un vrai casse-tête et il existe plusieurs modèles pour rendre compte de tous ces phénomènes plus ou moins compliqués. De plus, les chercheurs s’intéressent à de nombreux gaz pour reconstruire le climat (le méthane, le CO2, l’oxygène, les CFC, etc.) et les modèles doivent donc aussi incorporer de la chimie et sont donc d’autant plus compliqués, surtout pour les inverser et les résoudre dans un temps raisonnable.

Encore une chose, pour corriger et ajuster tous les calculs, les glaciologues peuvent avoir recours à des contraintes chronologiques pour forcer une certaine couche de glace à une certaine période comme lors des grandes éruptions volcaniques ou lors de phénomènes astronomiques influençant le climat. Par exemple, il existe un pic de Bérilium-10 à environ 41 000 ans car à cette époque, la Terre a connu un très faible champ magnétique et ce phénomène a eu pour effet de laisser passer de nombreux isotopes venus du cosmos sur Terre comme le bérilium-10. On retrouve ce pic dans les différentes carottes de glace et c’est comme cela que les chercheurs « forcent » leur modèle pour obtenir cet âge à la profondeur correspondante (740 m dans le forage EPICA en Antarctique par exemple).

Les autres méthodes de la paléoclimatologie

Les carottes de glace ne sont pas l’unique méthode pour reconstituer le climat du passé. Les chercheurs ont aussi recours à la dendroclimatologie (analyse des arbres et plus particulièrement de leurs cernes), à la sclérochronologie (analyse des coraux et coquillages) ainsi que l’analyse de tous les fossiles de faune et de flore et des sédiments qui donnent de précieux indicateurs du climat. Toutes ces méthodes peuvent ensuite être comparées et combinées pour permettre de reconstituer le scénario le plus probable de notre climat passé.

All_palaeotempsReconstitution de la température moyenne sur Terre pendant les 500 derniers millions d’années. Les données jusqu’à 800 000 ans viennent des carottes de glace. Source Wikipedia.

La métallurgie et les alliages

Voici un sujet qui m’est étranger et c’est la raison pour laquelle je l’aborde dans mon blog : j’ai envie d’en savoir plus !

Les métaux

La métallurgie est avant tout une science : celle qui s’intéresse aux métaux et à ses alliages. Un métal est défini physiquement comme un matériau possédant des liaisons atomiques métalliques, c’est-à-dire que les différents atomes échangent plus d’un électron pour rester soudés. Au total, le tableau périodique des éléments contient 91 métaux sur 118 éléments connus, autant dire que les métaux sont omniprésents puisqu’ils représentent plus des trois quarts des éléments connus. En général, les métaux sont extraits de roches issues de la croûte terrestre : le minerai (d’où le nom de métal). Metallurgie-junker2

Tous les métaux sont très différents, certains sont radioactifs et dangereux comme l’uranium, et d’autres sont omniprésents dans notre corps comme le fer. Ils possèdent tous des propriétés chimiques et mécaniques distinctes qui leur confèrent des avantages et des inconvénients selon les applications industrielles (poids, solidité, élasticité, corrosion, etc.). Prenons quelques exemples de métaux:

  • L’argent est le meilleur conducteur électrique et thermique.
  • Le fer est très abondant sur Terre et s’aimante en présence d’un champ magnétique (ferromagnétisme).
  • L’osmium est l’élément naturel le plus dense sur Terre avec 22 tonnes pour un mètre cube (3 fois plus dense que du fer).
  • Le Tungstène est le métal ayant le plus grand module de Young, c’est-à-dire que c’est le métal le moins élastique.
  • Le mercure est le seul métal liquide à température et pression ambiante.
  • Le Nickel est très peu sensible à la corrosion et à l’oxydation.
  • L’or est un métal jaune, brillant et malléable, ce qui le prête bien à la bijouterie.

C’est à cause de leurs grandes disparités que l’homme a naturellement été tenté de « mélanger » les métaux ensemble pour fabriquer des alliages répondant mieux à ses exigences techniques.

Les alliages

Pour qu’il y ait alliage, les différents métaux de la composition doivent être miscibles entre eux, c’est-à-dire qu’en les chauffant à une température précise, ils se mélangent parfaitement de manière à obtenir un nouveau matériau homogène sans pouvoir distinguer les différentes espèces qui le composent. En général, les éléments ne sont pas complètement miscibles et doivent donc respecter certaines proportions à ne pas dépasser (limite de solubilité).

On trouve de nombreux alliages pour quasiment tous les métaux mais il existe trois grandes familles d’alliage à cause de leur abondance sur Terre et donc de leur prix raisonnable:

  • les alliages à base de fer (fonte, acier, inox)
  • les alliages à base de cuivre (bronze/arain, laiton, billon)
  • les alliages à base d’aluminium

chevalP1-10A Le cheval du trésor de Neuvy-en-Sullias. Un des plus beaux bronzes de la Gaule romaine, Ier siècle av. J.-C. – Ier siècle ap. J.-C. Alliage cuivreux coulé selon le procédé de la fonte à la cire perdue. (source : JF BRADU).

Au niveau physique, les atomes des différents métaux peuvent se « mélanger » plus ou moins bien selon la température, la nature des atomes et leur arrangement. Pendant longtemps, l’homme a naturellement trouvé des alliages de manière empirique et aujourd’hui notre meilleure compréhension de la matière nous permet de « penser » à des alliages selon nos besoins.

Il existe des alliages homogènes dans lequel l’élément d’addition peut soit remplacer un atome du métal de base (substitution), soit s’intercaler dans le réseau atomique (insertion). Quand il y a substitution, les atomes doivent avoir une taille semblable. Si les atomes des différents métaux sont de taille équivalente à 15 % près, il y a miscibilité totale, et, si les atomes diffèrent de 15 % à 30 % en taille, il y a miscibilité partielle. Au-delà, les métaux ne sont pas miscibles par substitution. En revanche, il peut y avoir une insertion d’un atome de petite taille dans un réseau d’atomes plus gros comme c’est le cas pour les aciers où des atomes de carbone ayant un rayon de 70 picomètres sont insérés dans un réseau d’atomes de fer ayant chacun un rayon de 140 picomètres, soit le double. Cette insertion fonctionne uniquement si la quantité d’éléments ajoutés est relativement faible par rapport au métal de base et dépend du schéma d’organisation des atomes, sinon la miscibilité est impossible.

fer_carbone_CFC_3Acier: Insertion d’atomes de carbone (en noir) dans une structure cubique à face centrée de fer (en rouge) (source : iutenligne).

Les aciers

Un des alliages les plus utilisé dans l’industrie aujourd’hui est l‘acier mais c’est un alliage relativement récent car découvert véritablement à la fin du 18ème siècle (contrairement à la fonte et le bronze qui sont connus depuis plus de 2000 ans). L’acier est un alliage très inégal car il est constitué de fer avec seulement 0,02% à 2% de carbone (au-delà de 2%, c’est de la fonte). Il existe aujourd’hui plusieurs centaines d’aciers différents selon la teneur en carbone et l’addition d’autres métaux dans l’alliage. Les procédés de fabrication sont extrêmement complexes avec des recettes de cuisine bien spéciales. Dans une voiture, on trouve plus de 40 types d’aciers différents (voir cet article intéressant sur l’acier).

Quelques types d’aciers:

  • acier inoxydable (inox) : fer contenant moins de 1,2% de carbone avec plus de 10,5% de chrome. D’aspect brillant, il résiste bien à la corrosion, il ne rouille pas. Il en existe une vingtaine de différents car on ajoute aussi généralement du nickel ou du manganèse (d’où l’expression « nickel-chrome« ). En cryogénie, on utilise généralement de l’acier inoxydable 304L (0,02% de carbone, 18% de chrome et 10% de nickel) qui résiste très bien aux très basses températures (< -200 °C).
  • acier galvanisé : ici on vient recouvrir l’acier d’une couche de zinc pour le protéger contre la corrosion. Ce dépôt fait entre 50 et 100 microns selon les applications et la durée de vie souhaitée. En milieu rural, un dépôt de 100 microns permet une protection pour 100 ans !
  • acier trempé : l’homme a découvert qu’en chauffant l’acier à haute température (autour de 900 °C pendant environ 30 minutes) et en le trempant dans l’eau froide soudainement, on améliore par la suite ses propriétés mécaniques en le rendant plus dur (mais plus fragile).

Durée_de_vie_de_la_galvanisation Durée de vie de la galvanisation selon l’épaisseur de zinc (source : wikipédia)

La bijouterie

L’alliage est de rigueur en bijouterie ! Si vous aviez des bijoux en or pur, ils se déformeraient trop, un coup de dent modéré laissant une empreinte dans l’or pur sans problème ! En France, un bijou est qualifié « en or » s’il possède au moins 75 % d’or, soit 18 carats (24 carats = 100%). Les joailliers ajoutent donc d’autres métaux pour des raisons mécaniques et esthétiques. Par exemple, on ajoute du cuivre pour faire de l’or rouge, du nickel pour l’or blanc, de l’argent et du cuivre pour l’or jaune ou rose selon les proportions. Avec de l’argent, c’est pratiquement toujours du cuivre qui est ajouté. On trouve aussi des bijoux en platine (plus cher encore que l’or), en bronze, en laiton, en cuivre ainsi qu’en vermeil (argent à 92,5% recouvert d’au moins 5 microns d’or à 75%).

350px-Ag-Au-Cu-colours-english.svg Différentes couleurs de l’or selon les proportions d’or, d’argent et de cuivre (source: wikipédia)

Des alliages high-tech

Il existe aujourd’hui des alliages de hautes technologies pour les applications de pointes comme l’aéronautique ou le spatial qui nécessitent des exigences en matière de solidité, de poids, d’élasticité et de durée de vie (mais pas trop en matière de prix). Ici, on parle généralement de titane, de tungstène et de cobalt.

Un des plus utilisés est le Ti 6Al-4V (alliage de titane avec 6% d’aluminium et 4% de vanadium) qui est très léger et robuste. De plus il peut fonctionner à haute température (300 °C) et est peu sensible à la corrosion. On le retrouve dans les pales de turbines, dans les structures d’avion et d’armes mais également dans des équipements de sport haut de gamme et dans des implants médicaux et dentaires. golfClub de golf en alliage Ti 6Al-4V (source : Tour spec golf)

On retrouve aussi des alliages sous forme de marque déposée par les entreprises qui les ont créés comme l’Invar® (64% de fer et 36% de Nickel) qui présente une étonnante propriété de dilatation thermique : l’Invar® ne se déforme presque pas quand sa température change (10 fois moins que du fer) et est donc utilisé abondamment en horlogerie ainsi que pour fabriquer des appareils de mesure. L’Invar® est également utilisé pour fabriquer les membranes des cuves des méthaniers transportant du gaz naturel liquéfié à -164 °C pour éviter leur déformation avec la température.

1024px-LNG_BONNYMéthanier possédant une membrane interne en Invar®.

Signalons aussi des alliages à base de tungstène qui sont très intéressants car très denses (19 tonnes par mètre cube) et résistants aux très hautes températures (point de fusion du tungstène à 3422 °C) comme le Densimet® (tungstene+nickel+fer), l’Inermet® (tungstene+nickel+cuivre) ou le Denal® (tungstene+nickel+acier+cobalt) qui possèdent une densité d’environ 17 tonnes par mètre cube et qui sont utilisés pour réaliser des blindages ou des systèmes de collimation pour les rayons X ou gamma dans les centres de radiothérapie.

Combien ca coûte ?

Coté prix, un kilo d’or vaut environ 20 000 euros contre 250 euros pour 1 kilo d’argent, 4,5 euros pour un kilo de cuivre et 4,5 centimes pour un kilo de fer ! Mais il y a des métaux beaucoup plus cher que l’or : un kilo de rhodium (métal parfois appliqué sur les bijoux en argent pour les rendre anti-corrosifs) coûte 300 000 euros !! Quant aux alliages, le prix dépend bien évidemment des métaux qui les composent mais surtout de la complexité du travail à accomplir pour l’obtenir. L’acier coûte ainsi 40 centimes le kilo, soit 10 fois plus cher que le fer qui est son constituant à 98%, et l’inox s’échange à 2 euros le kilo pour 90% de fer à 4,5 centimes par kilo (50 fois plus cher). Pas étonnant quand on voit la complexité d’une acierie…

L’accélération plasma par sillage

L’accélération plasma est devenue une technique très à la mode en physique des particules car prometteuse pour l’avenir, mais que ce que cache exactement derrière ce terme ?

En effet, ce type d’accélération s’oppose aux accélérateurs « conventionnels » où les particules sont accélérées par des cavités radiofréquences au sein d’accélérateurs gigantesques (et donc onéreux) de plusieurs dizaines de kilomètres pour les plus grands. Dans l’accélération plasma, fini les cavités radiofréquences ! Les particules sont accélérées par le sillage (wakefield en anglais) laissé par une particule dans un plasma et cela permet de réduire la taille des accélérateurs par un facteur d’au moins 500! La réduction de la taille et donc du coût de ces accélérateurs, en font d’excellents candidats pour les applications industrielles et médicales de demain mais il reste encore du chemin à parcourir…jean-gouffon2

Un peu d’histoire

Le concept a été imaginé à la fin des années 70 à l’université de Californie (UCLA), voir ce papier de Tajima et Dawson. Les premiers prototypes ont vu le jour dans les années 80 et se sont révélés prometteurs. Après plus de 30 ans d’expériences et d’idées nouvelles, plusieurs grands centres de recherche, aux Etats-Unis principalement, ont réussi à atteindre des énergies relativement importantes, de l’ordre du GeV (Giga Electronvolt) sur de petites distances tout en ayant une bonne répétabilité des expériences. Tous les grands centres de recherche en physique planchent aujourd’hui sur cette « nouvelle » technique.

Le principe

Tout d’abord, rappelons qu’un plasma est un état de la matière où les électrons se meuvent librement. Cela se produit en général dans des gaz chauffés à haute température (plus de 2000 degrés) ou exposés à de très forts champs magnétiques. L’état plasma est en fait l’était de la matière le plus commun dans l’univers car les étoiles sont des plasmas. Sur terre, on peut citer les éclairs et les néons qui sont aussi des plasmas.

Un plasma, vu de loin, est électriquement neutre: il y a autant de charges négatives dues aux électrons que de charges positives dues aux ions. Cependant, si on arrive à séparer les électrons des ions localement, on peut créer un champ électrique important sur une très faible distance et donc accélérer des particules. Pour séparer les électrons des ions longitudinalement, il existe plusieurs techniques pour former un sillage dans le plasma, créant ainsi localement d’importants champs électriques. Ce sillage peut être provoqué par plusieurs types de particules traversant le plasma :

  • Un paquet d’électrons
  • Un paquet de protons
  • Une impulsion laser (un paquet de photons)

Aux Etats-Unis : Laser-Plasma

La plupart des expériences aux Etats-Unis s’intéressent à l’accélération laser-plasma car plus simple à mettre en œuvre et jugée plus prometteuse pour les applications. En effet, il parait plus simple et plus économique de mettre en place un LASER très puissant, plutôt qu’un autre accélérateur de particules en amont pour fabriquer le sillage. Citons quelques réussites d’accélération laser-plasma aux Etats-Unis :

  • Au LBNL (Lawrence Berkley National Laboratory): des électrons sont accélérés à 1 GeV en 3,3 cm.
  • A l’université du Texas (Austin): des électrons sont accélérés à 2 GeV en 2 cm (c’est le record actuel).
  • Au SLAC : un gain de 40 GeV est apporté à un faisceau d’électrons en seulement 85cm.

berkley_laserplasmaLe LBNL a produit un faisceau d’électrons de 1GeV sur 3.3 cm. © Lawrence Berkeley National Laboratory.

A titre de comparaison, il faut aujourd’hui compter environ 65 mètres pour accélérer des électrons à 1 GeV avec les techniques traditionnelles (cavités radiofréquences), on voit bien ici l’immense potentiel de l’accélération plasma pour les applications industrielles et médicales.

 Au CERN : AWAKE

Quant au CERN à Genève (Organisation Européenne pour la Recherche Nucléaire), une nouvelle expérience est en train de voir jour sur cette thématique qui s’appelle AWAKE (Advanced Wakefield Acceleration). Ici, c’est un faisceau de protons provenant d’un accélérateur classique de 7km (le SPS) à 400 GeV qui va venir créer le sillage dans un plasma pour accélérer des électrons sur une dizaine de mètres jusqu’à une énergie de 1 TeV. Cette énergie (1TeV = 1 000 GeV) est mille fois plus importante que les autres expériences d’accélération plasma mais n’oublions pas qu’ici la source pour créer le sillage provient d’un accélérateur classique de 7 km de circonférence tout de même… Cette technique, encore jamais expérimentée, sera ici mise sur pied pour la première fois dans l’objectif de remplacer les cavités radiofréquences classiques des futurs grands accélérateurs de particules (on en est encore très loin, mais il faut bien commencer quelque part !). awake

Schéma général de l’expérience AWAKE. © CERN.

Vous constaterez tout de même la présence d’un LASER dans cette expérience AWAKE car les paquets de protons doivent être du même ordre de grandeur que la longueur d’onde du plasma et il faut donc les « découper » à la bonne taille. C’est avec un puissant laser qu’on va réaliser cette tâche : chaque paquet du SPS va être divisé en environ une centaine de plus petits paquets en utilisant une instabilité d’auto-modulation dans le faisceau de protons. Voir cette vidéo qui vaut toutes les explications du monde.

AWAKE réutilise des installations souterraines existantes au CERN qui hébergeaient auparavant CNGS (expériences sur les neutrinos vers Gran-Sasso). Cependant, deux nouveaux petits tunnels sont en train d’être excavés dans la zone existante pour héberger la ligne LASER ainsi que la source d’électrons. Si tout va bien, les premiers électrons devraient être accélérés fin 2016.

awake_tunnel

Excavation d’un nouveau tunnel pour AWAKE. © CERN.

La beauté des équations en physique

Certains vous dirons que la physique est ennuyeuse, d’autres qu’elle est compliquée ou encore difficile d’accès alors que les physiciens vous diront qu’elle est une science noble et que la physique  produit de « belles » équations. La beauté d’une équation ? Oui, parfaitement, une équation peut être esthétique. Cette beauté des équations peut revêtir à mon sens 2 traits distincts :

  • La beauté visuelle : elle est belle à regarder.
  • La beauté du sens : elle exprime une quantité d’informations extraordinaires avec un minimalisme et une exactitude mathématique.

equation3

A quand les musées d’équations ?

La beauté visuelle

Si une équation est belle esthétiquement, c’est d’abord parce que la physique utilise de nombreux signes différents, parfois inconnus du grand public. De plus, tous ces chiffres, lettres et signes étranges se côtoient les uns à côté des autres  sans logique apparente pour les non-initiés et c’est sans doute cet agencement un peu magique qui peut rendre une équation « belle ».

Une équation physique peut bien entendu contenir des chiffres arabes (0,1, 2, 3,…) pour définir une valeur, ainsi que des lettres pour définir une quantité physique (la masse, la vitesse, etc.).

Ces lettres, majuscules ou minuscules, peuvent être soit latines (a, b, c, d…) en caractère d’imprimerie ou en écriture cursive, soit grecques, ce qui apporte pour nous autres français une première touche d’exotisme dans les équations. Au total, ça nous fait déjà 166 caractères possibles pour nos équations !

alphabetgrecAlphabet grec majuscule et minuscule. Toutes les lettres sont utilisées en physique et certaines lettres ont pratiquement toujours la même signification. Par exemple lambda représente toujours une Longueur d’onde ou une conductivité thermique en thermodynamique.

 Le troisième type de caractère que l’on peut rencontrer en plus des chiffres et des lettres est le plus intéressant car sans doute le plus inaccessible et le plus puissant, à savoir les opérateurs mathématiques (en dehors des quatre opérateurs arithmétiques de base pour l’addition, la soustraction, la multiplication et la division). Ces opérateurs permettent de réaliser des calculs répétitifs (voir rébarbatifs) entre les lettres et les chiffres de manière à simplifier les écritures et éviter d’avoir des équations de 10 kilomètres de long !  Citons-en quelques-uns :

  • La somme, grande et majestueuse, est un sigma grec majuscule. Elle permet l’addition de nombreux termes dans une écriture compacte.
  • L’intégrale, avec sa belle courbe de chat, permet de sommer une infinité de quantité.
  • Nabla, qui n’est autre que le delta grec majuscule inversé, permet de simplifier la notation des équations aux dérivés partielles et d’économiser beaucoup de papier et d’encre.
  • Le Bra-Ket en physique quantique permet de simplifier grandement les équations utilisant des états quantiques.

 operateurs

 En plus de toutes ces « belles » lettres et symboles, le physicien possède toute une panoplie de petits signes supplémentaires pour surcharger les lettres. Au-dessus, on peut ajouter des flèches (les vecteurs), des points (les dérivés), des accents circonflexes (une estimation), ou bien des barres (un opposé). Autour, les lettres peuvent s’encadrer entre des barres verticales simples ou doubles (modules), entre des crochets, ou encore entre des accolades ou des parenthèses. Et puis évidemment, on a tous les indices et exposants à notre disposition pour continuer notre décoration.

Bref, tout un attirail pour faire de jolies choses, où les styles peuvent aller du minimalisme au rococo en passant par le baroque…

 La beauté du sens

En plus de l’esthétique, il y a bien sûr le « sens » d’une équation et surtout ses conséquences, tant sur le plan métaphysique que pratique. Le physicien trouve souvent une équation « belle » si avec peu de termes il peut en découler une théorie toute entière.

C’est par exemple ce qui fait la célébrité du fameux E=mc2 : seulement 5 caractères, chaque terme est facilement exprimable avec des mots communs (énergie, masse et vitesse de la lumière) et les conséquences sont énormes car cette équation signifie que masse et énergie sont équivalentes et que la masse inerte contient une énergie gigantesque. Sur le plan pratique, cette équation permet de penser à de nouvelles sources d’énergie pour l’humanité (centrales nucléaires) mais aussi malheureusement à des sources colossales de destruction (bombe atomique, bombe hydrogène).

Mais le physicien qualifie aussi parfois des équations compliquées de « belles » car il est parvenu à en percer le sens et à s’approprier chaque terme et chaque relation entre les grandeurs, et ceci a un petit côté magique. C’est le moment où on arrive à comprendre une équation, à en saisir le sens profond et tout d’un coup, une vulgaire équation devient belle…

Il faut aussi savoir qu’une équation possède toujours un domaine de validité, c’est-à-dire un contexte physique dans lequel l’équation est vraie. En dehors de ce domaine, l’équation ne marche plus. Par exemple, la loi universelle de la gravitation établie par Isaac Newton en 1684 n’est pas universelle contrairement à son intitulée, elle est valide uniquement si la vitesse relative des corps est très inférieure à la vitesse de la lumière ((v/c)2 << 1). En effet, depuis 1915, la relativité générale d’Einstein explique la gravité dans toutes les situations observées jusqu’à aujourd’hui et possède donc à l’heure actuelle un domaine de validité infini (mais qui sera peut-être un jour réduit). On peut conclure que l’équation de la relativité générale est belle car elle s’applique en toutes circonstances mais elle est très difficile d’accès pour ce qui est d’en saisir le sens profond, alors que la loi universelle de la gravitation de Newton est belle car très simple à comprendre mais elle n’est pas toujours valide.

 graviteNewton contre Einstein : 2 équations expliquant la gravité. Quelle est la plus belle ? La plus simple à saisir ou celle ayant le plus grand domaine de validité ?

 Les 4 équations que j’aime bien

Voici 4 équations que j’aime bien et que je trouve belles. Je vous les présente par ordre chronologique ci-dessous.

L’équation de bilan d’énergie d’un fluide newtonien en mouvement dans l’approximation des milieux continus est décrite par la 3eme équation de Navier-Stokes (1845). Un million de dollars sera offert par l’institut Clay à celui qui trouve la solution générale. Je l’aime bien car je l’ai utilisée dans ma thèse et j’ai pas mal travaillé dessus : je la trouve donc tout simplement belle…

navierstokesL’équation de Maxwell-Faraday (1865) est une des 4 équations de Maxwell qui décrivent l’interaction électromagnétique et donc tous les phénomènes lumineux. Cette équation nous dit notamment qu’une variation du champ magnétique dans le temps permet d’induire un champ électrique dans l’espace et donc un éventuel courant dans un câble. Toutes les génératrices électriques comme les dynamos de vélo utilisent cette équation. J’ai représenté ici la même équation sous sa forme locale (dérivée) et sous sa forme intégrale que certains trouveront plus « esthétique ».

maxwellfaradaymaxwellfaraday_integraleLe principe d’incertitude d’Heisenberg (1927). Celle-ci je l’aime bien pour son style minimaliste et parce qu’elle est simple à comprendre (même si en détail, ce n’est pas aussi simple) : le produit des « erreurs » de mesure sur la position (sigma x) et sur le moment (sigma p) d’une particule est toujours supérieur à une valeur constante  qui dépend de la constante de Planck (h). Autrement dit, il est impossible de bien connaitre la position et la vitesse d’une particule en même temps, plus on connait bien l’un, moins on connait l’autre. C’est un des piliers de la physique quantique. heisenbergLe lagrangien du modèle standard de la physique des particules (1974). Cette équation résume en gros notre monde et ses interactions sans la gravité (force électromagnétique, force forte et force faible). Elle est en quelque sorte l’aboutissement de la physique du 20ème siècle et les expériences se poursuivent dans les accélérateurs de particules du monde entier pour conforter ce modèle qui n’a jamais vraiment été mis en défaut jusqu’à aujourd’hui. La dernière grande validation de ce modèle a été la prédiction et la découverte du boson de Higgs au CERN en 2012.

cernmug

Écrire les équations à la main

Je n’ai pas une belle écriture, on peut même dire que mon écriture est exécrable (d’ailleurs quand j ’étais étudiant personne ne voulait de mes cours car c’était illisible) mais j’aime bien écrire quand même pour moi-même, et j’aime encore plus écrire des équations à la main ! C’est d’ailleurs intéressant de noter que pour des questions de rapidité, certains signes sont par convention toujours « écorchés » à la main comme les flèches des vecteurs qu’on ne trace généralement qu’à moitié.

Voici le résultat ci-dessous avec mes équations préférées citées plus haut (équations écrites avec un feutre-pinceau japonais volé à ma femme) :

equation_main

Signification des lettres grecques

Un dernier petit paragraphe sur les significations usuelles des lettres grecques en physique, évidemment ce n’est pas exhaustif et j’ai mis simplement les significations que je connais.

  • alpha. Etant la première lettre de l’alphabet, alpha s’emploie à peu près pour tout et n’importe quoi, même si souvent elle représente un facteur adimensionnel. On l’utilise aussi pour désigner la constante de structure fine qui régit la force électromagnétique.
  • bêta. S’emploie aussi très souvent. Signalons peut être juste qu’en relativité restreinte, bêta représente la vitesse réduite d’un objet, c’est-à-dire le rapport entre la vitesse d’un objet et la vitesse de la lumière.
  •  gamma. Représente les photons en physique des particules, les rayons gamma en électromagnétisme et le facteur de Lorentz en relativité restreinte.
  • delta. Généralement utilisé pour représenter une petite grandeur. Le delta minuscule est aussi utilisé comme un opérateur pour représenter la variation infinitésimale d’une grandeur.
  • epsilon. Représente une constante positive arbitrairement petite ou une erreur. Symbolise aussi la permittivité électrique.
  •  zêta : peu utilisé.
  • êta. Représente souvent un rendement. Permet aussi de dénoter la viscosité dynamique en mécanique des fluides.
  • thêta. Lettre représentant généralement un angle ou bien la température en thermodynamique.
  • iota. Peu utilisé.
  • kappa. Représente une constante dans l’équation d’Einstein de la relativité générale.
  • lambda. représente toujours une Longueur d’onde ou une conductivité thermique en thermodynamique.
  • mu. Permittivité magnétique en électromagnétisme ou viscosité dynamique en mécanique des fluides.
  • nu. Fréquence d’une onde ou viscosité cinématique en mécanique des fluides.
  • ksi. Fonction d’onde.
  •  omicron. Peu utilisé
  • pi. Utilisée comme la constante connue.
  • rho. Résistivité électrique ou masse volumique en mécanique.
  • sigma. Conductivité électrique.
  • tau. Constante de temps d’un système.
  •  upsilon. Peu utilisé.
  • phi. Flux magnétique ou déphasage d’une onde.
  • khi. Coefficient de compressibilité en thermodynamique.
  •  Psi. Flux électrique en électromagnétisme et fonction d’onde en mécanique quantique.
  • oméga. Pulsation d’une onde qui se propage.