Le CERN en 13 photos de 2016

Bonne année 2017 !

Pour commencer l’année, voici ma sélection d’une photo par mois prises en 2016 au CERN (Organisation Européenne pour la Recherche Nucléaire), pour parler un peu de tous les projets, et pas seulement de l’accélérateur de particules LHC. Vous noterez néanmoins que 3 photos sont liées au HL-LHC qui rentrera en service en 2026 et constituera une amélioration majeure du LHC.

Mais avant tout, voici ma photo préférée hors catégorie pour 2016 : une photo prise en Novembre 2016 du calorimètre 4-Pi de nTOF EAR1. Cette expérience de physique s’intéresse au temps de vol des neutrons pour déterminer avec précision leur énergie cinétique et ainsi mieux les comprendre. Ces neutrons sont produits à partir de collisions entre un faisceau de protons pulsé de 20 GeV/c du Proton-Synchrotron (PS) et d’une cible fixe de spallation en plomb. Après 185 mètres de vol, les neutrons arrivent dans ce calorimètre pour mesurer leur énergie.

© CERN. Photograph: Brice, Maximilien

Janvier 2016

Transport du TDI pour HL-LHC. Le TDI (Target Dump Injection) permet d’absorber les éventuelles pertes de faisceau lors de son injection entre une ligne de transfert et un accélérateur. Cet élément est ainsi une protection de la machine pour éviter d’éventuels dommages occasionnés par le faisceau si son insertion dans la machine est défaillante.

© CERN. Photograph: Bennett, Sophia Elizabeth

Février 2016

Installation de la cellule plasma de AWAKE dans l’ancienne zone souterraine de CNGS. Voir mon billet de l’année dernière sur AWAKE qui accélèrera très prochainement des électrons par effet sillage dans un plasma de rubidium à partir d’un faisceau de protons de 400 GeV provenant du SPS.

© CERN. Photograph: Brice, Maximilien

Mars 2016

Test de modules pour HIE-ISOLDE en salle blanche au SM18. Isolde est une expérience de séparation d’isotopes pour produire des éléments exotiques. HIE-ISOLDE permettra de ré-accélérer à hautes énergies (jusqu’à 5,5 MeV/u) des faisceaux d’ions radioactifs créés à partir de collisions entre un faisceau de protons de 1.4 GeV issu du PSB (Proton-Synchrotron Booster) et d’une cible fixe.

© CERN. Photograph: Brice, Maximilien

Avril 2016

Prototype d’écran de faisceau pour le FCC-hh. Vous connaissez ce projet d’accélérateur de particules de 100 km de circonférence ? C’est le FCC (Future Circular Collider). Voir ce billet de juillet 2015 pour plus d’informations. L’écran de faisceau permet de capturer toutes les sources de chaleur (lumière synchrotron, courant image, nuage d’électrons) issus du faisceau pour limiter les charges thermiques sur les aimants supraconducteurs refroidis à très basse température tout en assurant un vide extrême dans le tube faisceau.

© CERN. Photograph: Brice, Maximilien

Mai 2016

Premier câble supraconducteur en niobium-étain pour le HL-LHC en train d’être fabriqué à l’aide d’une machine Rutherford au bâtiment 163. Ce câble sera utilisé dans un dipôle de 11 Teslas ! Les câbles supraconducteurs des aimants du LHC sont actuellement tous en niobium-titane et produisent un champ magnétique de 8 Teslas. A partir de 2026, le HL-LHC possèdera 8 nouveaux dipôles de 11 Teslas et 24 nouveaux quadrupôles de 12 Teslas autour des points de collisions de ATLAS et CMS. C’est plus de 1 km de LHC qui sera remplacé.

© CERN. Photograph: Brice, Maximilien

Juin 2016

Un bébé faucon sauvé par un employé sur un parking du CERN à Meyrin. Il a été remis aux autorités compétentes pour le nourrir et le protéger. Il sera ensuite remis en liberté dans la région.

© CERN. Photograph: Bennett, Sophia Elizabeth

Juillet 2016

Le groupe de rock « MUSE » visite le Centre de Contrôle du CERN (CCC) en présence de Mike Lamont, le chef de l’opération des accélérateurs (à gauche). C’est depuis cette salle que tous les accélérateurs et leurs infrastructures sont pilotés 7j/7 et 24h/24. Le CERN reçoit régulièrement des « VIP » souhaitant visiter ses installations et le CERN reçoit au total plus de 100 000 visiteurs par an !  Si l’envie vous prend, n’hésitez pas : https://visit.cern/

© CERN. Photograph: Brice, Maximilien

Aout 2016

Salle de contrôle du centre de calcul (bâtiment 513). Tout est « vert » : les données issues des collisions des détecteurs du LHC sont en sécurité.

© CERN. Photograph: Brice, Maximilien

Septembre 2016

Expérience ALFA, au point 1 du LHC (détecteur ATLAS). ALFA (Absolute Luminosity For ATLAS) est constitué de 4 « pots romains » (2 de chaque côté du point de collision) qui permettent de mesurer la luminosité lors des collisions élastiques de protons dans le détecteur ATLAS. Ces collisions élastiques n’ont lieu que lorsque les faisceaux se croisent avec un angle très faible dans le LHC (avec un très grand beta*). Dans ce cas, les protons se « traversent » l’un l’autre tout en restant intacts mais en changeant de direction. Un article récent du bulletin du CERN explique tout cela assez clairement. Extrait: « L’objectif de physique de l’expérience ATLAS/ALFA consiste également à réaliser une mesure précise de la section efficace proton-proton totale, puis d’utiliser cette mesure afin de déterminer la luminosité absolue du LHC au point 1 pour l’exploitation avec un bêta étoile de 2,5 km. »

© CERN. Photograph: Suykerbuyk, Ronaldus

Octobre 2016

Fin des travaux de ICARUS au bâtiment 156 avant son transport vers les USA. ICARUS est un ancien détecteur de neutrinos utilisé au laboratoire de Gran Sasso en Italie en collaboration avec le CERN (ancienne expérience CNGS). Ce détecteur a été entièrement « remis à jour » au CERN cette année pour être réutilisé dans deux nouvelles expériences de neutrinos à Fermilab aux USA près de Chicago.

© CERN.Photograph: Steyaert, Didier.

Novembre 2016

Premier faisceau dans le tout nouveau décélérateur ELENA. Eh oui, au CERN, on ne fait pas qu’accélérer des protons, on décélère aussi des anti-protons pour étudier l’antimatière. ELENA permet de décélérer encore plus des anti-protons venant de AD (Antiproton Decelerator) jusqu’à 5,3 MeV.

© CERN. Photograph: Brice, Maximilien

Décembre 2016

Non ce n’est pas un gâteau d’anniversaire mais un prototype de quadrupôle 12 Teslas pour le HL-LHC imprimé en 3D. Les futurs quadrupôles du HL-LHC permettront de beaucoup plus concentrer les faisceaux qu’avec le LHC pour produire 10 fois plus de collisions dans le même temps. Les imprimantes 3D permettent aujourd’hui de concevoir des prototypes réalistes en peu de temps et à moindre coût avant de passer au prototypage avec les matériaux réels souvent très onéreux.

© CERN. Photograph: Bennett, Sophia Elizabeth.

Le nucléaire au thorium: une « vieille » solution pour l’avenir ?

Ce billet est la suite de mon billet Une petite histoire de l’énergie nucléaire. Donc, à lire en guise d’introduction sur les différentes filières nucléaires.

Mais avant de parler du thorium-232 en détail, juste un petit rappel sur les éléments chimiques et leurs isotopes. Le numéro cité après l’élément considéré (232 dans le cas du thorium) s’appelle le nombre de masse et représente le nombre total de protons et de neutrons dans le noyau (les nucléons). Donc plus le nombre de masse est grand, plus l’élément est lourd. Ainsi, l’uranium-238 possède 3 neutrons de plus que l’uranium-235 et chaque « variété » d’un même élément s’appelle un isotope. A ce jour, 117 éléments ont été découverts  pour 2 934 isotopes. Certains sont explosifs, d’autres corrosifs ou encore inoffensifs. Tous les éléments dont nous sommes familiers (oxygene-16, fer-56, carbone-12, etc.) sont stables dans le temps mais beaucoup d’autres sont instables et donc radioactifs avec des durées de demi-vie variables, de quelques millisecondes à des millions d’années, tout dépend du nombre de protons et de neutrons dans le noyau!

 Le thorium

Le thorium, est un métal lourd radioactif de la même famille que l’uranium (actinide). Il possède 90 protons dans son noyau (contre 92 pour l’uranium) et a une demi-vie radioactive très longue de 14 milliards d’années, soit plus de 3 fois l’âge du système solaire. Sa présence sur Terre est estimée entre 3 et 4 fois plus abondante que l’uranium et est plutôt bien réparti. En France, il y a des gisements en Bretagne et AREVA, le CEA et Rhodia ont déjà 8 500 tonnes de thorium  stockées sur leur étagère via l’extraction d’autres minerais. Selon cette source, une tonne de thorium permettrait en gros de générer 10 TWh d’électricité donc la France a déjà assez de thorium pour subvenir à environ 190 ans d’électricité avec sa consommation actuelle !

Couverture de Science & Vie en Novembre 2011 : Le Nucléaire sans uranium c’est possible. Plus sûr, plus propre… et pourtant ignoré depuis 50ans.

Le forum pour la 4ième génération

La quantité d’uranium dans le monde permettrait de continuer à faire tourner des centrales pour 200 ans environ avec notre production actuelle mais bien entendu, si la production nucléaire augmente (ce qui est hautement probable avec des pays comme la Chine et l’Inde dans la course), ce sera beaucoup moins, les pronostics donnent la fin de l’uranium pour la fin du siècle et nos enfants sont donc concernés !! C’est entre autre pour cette raison qu’un forum nommé « Génération IV » a vu le jour entre 14 pays pour choisir une solution de 4ième génération pour le nucléaire. Aujourd’hui, le réacteur EPR en construction à Flamanville en Normandie fait partie de la 3ieme génération mais appartient toujours à la filière de réacteur à eau pressurisée (REP) et on ne peut pas dire que ce soit une réussite pour l’instant…. Bref, ce forum étudie ainsi 6 nouvelles filières prometteuses pourl’avenir nucléaire: https://www.gen-4.org/gif/jcms/c_40486/technology-systems.

Dans ces 6 propositions, il y en a une qui mérite notre attention et qui serait à mon avis la seule solution vraiment intéressante pour des raisons de sûreté et de déchets : Les réacteurs à sels fondus au Thorium.

Les réacteurs à sels fondus

Dans ce type de réacteur, le combustible est liquide et sert également de caloporteur. On mélange des éléments fissibles ou fertiles dans des sels fondus et on fait circuler le tout dans le réacteur ou une réaction en chaine peut se produire et générer beaucoup de chaleur suite à la fission de certains éléments. Il y a ensuite 2 grandes variantes de ce type de réacteurs

  • Les réacteurs à neutrons thermiques où un modérateur comme le graphite est indispensable pour ralentir les neutrons et contrôler la réaction en chaine.
  • Les réacteurs à neutrons rapides où aucun modérateur n’est nécessaire. Dans ce cas, ces réacteurs peuvent fonctionner en surgénérateurs, c’est-à-dire qu’ils peuvent produire plus d’éléments fissibles qu’ils n’en consomment en utilisant un élément fertile à la base comme le thorium-232, c’est-à-dire que cet élément peut produire un élément fissible en absorbant un neutron dans son noyau.

Schéma d’un réacteur à sels fondus.

Pour cette raison, un réacteur chargé uniquement avec du thorium ne peut pas démarrer. Pour initier la première fission avec un élement fertile comme du thorium, il faut un élément fissible comme de l’uranium ou du plutonium en quantité non négligeable (plusieurs tonnes pour réacteur de 1 GW) et une fois que c’est partie, le réacteur tourne en cycle fermé jusqu’à consommer pratiquement tous les éléments fissibles qui sont recyclés en son sein. C’est pour cette raison qu’un réacteur de ce type produit beaucoup moins de déchets nucléaires fissibles comme le plutonium et les transuraniens vu qu’il les consomme et surtout il permettrait de nous débarrasser de certains déchets embêtants dont nous ne savons que faire aujourd’hui. A titre d’information, après 70 ans de nucléaire, il y a 500 tonnes (déclarés) de plutonium dans le monde.  On peut d’ailleurs voir ce type de réacteur comme un incinérateur à déchets nucléaires qui a en plus l’avantage de pouvoir faire de l’électricité !

Les premiers à se pencher sur la question du réacteur à sels fondus furent les Américains du Laboratoire National d’Oak Ridge (ORNL) avec le fameux Alvin Weinberg, l’ancien directeur du laboratoire pendant le projet Manhattan. Le réacteur à sel fondu expérimental MSRE fonctionna entre 1965 et 1969, d’abord avec de l’uarium-235 puis avec l’uranium-233 et du plutonium la dernière année, prouvant alors la faisabilité et la viabilité d’un tel concept mais en 1973 le gouvernement américain coupe tous les budgets pour la filière des réacteurs à sels fondus et leur utilisation potentiel avec du thorium pour se concentrer sur la filière uranium exclusivement, plus en phase avec le côté militaire.

Voici un dessin pour vous donner une petite idée de la différence entre un réacteur à sels fondus au thorium et un réacteur à eau pressurisé « standard » à l’uranium. On comprend tout de suite l’intérêt de la chose en matière de quantité de minerai et de déchets.

Comparaison entre combustibles et déchets pour 2 réacteurs de 1 GW utilisant de l’uranium et de l’eau pressurisée en haut et un réacteur à sels fondus au thorium en bas (Source).

Les avantages de cette technologie sur les autres filières nucléaires sont les suivants:

  • Pérennité: Les ressources en thorium sur la Terre sont abondantes, on estime à 30 000 ans notre autonomie.
  • Sûreté: Pas d’emballement du réacteur possible comme Tchernobyl.
  • Sûreté: Combustibles liquides évitant le risque de dégradation et d’explosion des bâtiments comme à Fukushima. Ces explosions sont dues à l’hydrogène dégagé par le zirconium des crayons d’uranium actuels.
  • Sûreté: Pas de haute pression et donc moins de risque (circuit à 1 bar contre 155 bars).
  • Sûreté: En cas de panne de refroidissement : on peut vidanger de liquide dans une cuve isolée sous le réacteur à travers un « bouchon froid » qui fond en cas de panne électrique et éviter une catastrophe comme à Fukushima.
  • Déchets: 10 000 fois moins de déchets à vie longue (transuraniens comme plutonium).
  • Prolifération: Beaucoup plus difficile de faire une bombe atomique à partir de cette filière (mais pas impossible).

Néanmoins, il y a des inconvénients :

  • Démarrage: Il faut un élément fissible comme de l’uranium ou du plutonium au début pour initier la réaction en chaine (mais ce peut être un avantage pour se débarrasser de notre plutonium stocké).
  • Déchets : Il y a beaucoup moins de déchets à vie longue mais cette filière génère tout de même des déchets de fission qu’il faudra gérer sur des centaines d’années ainsi que du protactinium 231 (période : 33 000 ans).
  • Recherche: pour aboutir à un réacteur industriel, beaucoup de recherches sont encore à faire comme cette filière a été abandonnée dans les années 60. Daniel Heuer, directeur de recherche au CNRS de Grenoble et travaillant sur un tel réacteur estime qu’entre 10 et 15 ans de développement sont nécessaires et que si une filière thorium est choisie en 2040, il faudra attendre 2070 pour la voir sur le marché (source).

Au regard de ces avantages indéniables, les Chinois et les Indiens travaillent actuellement sur ce sujet très intéressant pour eux étant donné leurs réserves en thorium importantes comparées aux réserves en uranium mais la route sera encore longue. Il faut déjà qu’ils se réapproprient les connaissances qu’ont accumulé les Américains jusque dans les années 70 avant d’aller plus loin.

Quelques autres alternatives nucléaires

En 1993, Carlo Rubbia, prix Nobel de physique travaillant au CERN (Organisation Européenne pour la Recherche Nucléaire) propose d’utiliser un accélérateur de particules pour démarrer la réaction en chaine dans un réacteur sous-critique (comme un réacteur au thorium) et éviter ainsi la consommation d’uranium ou de plutonium pour démarrer et entretenir la réaction en chaine. On parle alors de réacteur nucléaire piloté par accélérateur (ADS). Ce projet est prometteur mais l’investissement en termes de recherche et d’infrastructures pour un tel réacteur parait actuellement peu envisageable pour l’étape industrielle.

Encore mieux que le réacteur à sels fondus au thorium : le réacteur à fusion thermonucléaire. Dans ce type de réacteur, plus de fission mais de la fusion et donc plus d’éléments lourds hautement radioactifs. Le combustible est quasi-infini (deutérium et tritium), il n’y a aucun déchets radioactif à vie longue (quelques déchets gérables sur une centaine d’années) et aucun risque d’emballement du réacteur (pas de réaction en chaine comme avec la fission). Beaucoup de recherches dans le monde vont dans ce sens comme le fameux projet international ITER en cours de construction à Cadarache dans le sud de la France qui sera une expérience scientifique de fusion nucléaire pour démontrer que cette voie est possible pour l’avenir. Mais ici, les spécialistes parlent d’une industrialisation possible pour la fin du siècle seulement car c’est une machine extrêmement complexe qu’il faut développer mais même s’il faut 100 ans de recherche et de développement pour voir des réacteurs à fusion dans le monde, ça vaut le coup, non, pour sauver la planète ? Vous pouvez lire ici un article sur ITER que j’ai fait il y a 10 ans. Aujourd’hui, c’est en construction et la première réaction de fusion est attendue pour 2025.

Construction du bâtiment principal qui hébergera ITER (photo personnelle prise en Octobre 2016).

Sources:

Une petite histoire de l’énergie nucléaire

Si vous pensiez que l’humanité s’est dite un jour « nous allons investir massivement pour faire de l’énergie d’origine nucléaire de la meilleure manière possible » eh bien vous vous trompiez. Le nucléaire « civil » comme on l’appelle, n’a été qu’une sorte d’opportunité pour servir la fabrication de bombes atomiques. Sans bombe atomique et sans propulsion nucléaire pour les sous-marins militaires, il n’y aurait sans doute pas eu de nucléaire civil tel qu’il est aujourd’hui…

Tout a donc commencé pendant la seconde guerre mondiale avec le programme de nucléaire militaire américain pour fabriquer la première bombe Atomique : le projet Manhattan. Une fois que les politiques et que les militaires ont compris le potentiel de destruction de la bombe atomique, tout est allé très vite… trop vite peut être…

Le tout début

Nos centrales nucléaires actuelles utilisent l’énergie de fission des noyaux atomiques qui a été décrit correctement la première fois à Berlin fin 1938 par Otto Hahn et Fritz Strassmann (voir ce billet sur l’énergie nucléaire de fission et de fusion). Dès 1939, en France, Fréderic Joliot-Curie publie avec 3 autres scientifiques un article dans la prestigieuse revue Nature expliquant le phénomène de réaction en chaine de l’uranium et dépose même un brevet le mois suivant sur les possibilités énergétiques et militaires d’un tel phénomène. Mais avec l’arrivé de la guerre, toutes les recherches françaises sur ce domaine sont stoppées en mai 1940.

Aux Etats-Unis, Le président Roosevelt est averti dès 1939 d’une possibilité de bombe atomique par une fameuse lettre en partie signée par un fameux Albert Einstein (qui d’ailleurs avouera plus tard regretter cette lettre). Le projet Manhattan est alors lancé en 1942 et on connait la suite avec son triste aboutissement en 1945 à Hiroshima et Nagasaki. Les USA ont pour cela dépensé l’équivalent de 25 milliards de dollars d’aujourd’hui en seulement 3 ans (imaginez qu’aujourd’hui, le plus grand projet scientifique mondial comme l’accélérateur de particules LHC de 27 km au CERN a coûté 9 milliards de dollars au total avec ses expériences répartis sur des dizaines d’années et une vingtaine de pays et plus de 600 instituts scientifiques de 113 pays). Bref, ce projet de bombe atomique complètement fou a été possible en partie grâce à la mise au point de réacteurs nucléaires permettant de transformer de l’uranium-238 en Plutonium-239, indispensable pour faire une bombe atomique efficace comme Fat Boy larguée sur Nagasaki (celle d’Hiroshima était constitués d’uranium enrichi et présentait à ce titre plusieurs inconvénients). Le premier réacteur nucléaire a ainsi vu le jour en 1942 avec le célèbre Enrico Fermi à Chicago et fonctionnait donc à l’uranium vu que l’objectif n’était pas de faire de l’électricité mais bien produire du plutonium pour la bombe atomique.

Chicago Pile-1 : dessin du premier réacteur nucléaire artificiel construit par Enrico Fermi en 1942 dans le cadre du projet Manhattan.

Du militaire au civil

Après la guerre, les scientifiques et industriels se sont donc intéressés à la possibilité d’utiliser l’énergie nucléaire dans un réacteur pour produire de l’électricité étant donné la gigantesque énergie dégagée sous forme de chaleur lors de la fission nucléaire. L’intérêt du rendement du nucléaire est vite compris : la fission de 1 g d’uranium-235 correspond à 1,6 tonne de fuel ou à 2,8 tonnes de charbon en terme énergétique.

Contrairement à ce que la plupart des gens pensent, ce sont les Russes qui ont les premiers fabriqué et mis en opération un réacteur nucléaire civil raccordé au réseau électrique en 1954 (d’une puissance modeste de 5 MW). Les Français, les Anglais et les Américains inaugureront leurs centrales nucléaires électriques dans les 2 ou 3 années suivantes avec Marcoule en France (7 MW), Sellafield en Grande-Bretagne (50 MW) et Shippingport aux Etats-Unis  (60 MW) en 1957, soit 12 ans après la bombe atomique !!

Mais la guerre froide se profile entre les USA et l’URSS et la course à l’armement nucléaire va nécessiter de grandes quantités d’uranium et de plutonium. Une stratégie commune entre applications militaires et civiles a vite été trouvée et promue par les gouvernements ! Le nucléaire civile va alors battre son plein dans plusieurs pays jusqu’à 1979 qui voit le premier accident « sérieux » de Three Mile Island aux Etats-Unis : le réacteur s’emballe et la moitié de ce dernier fond. La catastrophe est évitée de toute justesse mais 200 000 personnes ont dû évacuer la zone autour de la centrale. A partir de cette date, l’opinion publique aux USA et dans le reste du monde commence à comprendre que cette énergie qui paraissait parfaite peut être dangereuse et le nucléaire civil prend un virage clé dans son histoire. Mais la progression a ensuite repris et c’est bien sûr 7 ans plus tard avec l’accident de Tchernobyl en 1986 que le monde réalise alors vraiment le danger et la progression du nucléaire dans le monde est stoppée nette.

Evolution du parc nucléaire dans le monde (source : AIEA). On voir clairement l’impact de Three Mile Island (1979) et Tchernobyl (1986) qui stoppe la progression du nucléaire.

Les filières nucléaires

Les 4 premiers réacteurs industriels destinés à fabriquer de l’électricité en URSS, en France, en Grande-Bretagne et aux Etats-Unis sont tous basés sur le même combustible : l’uranium. Logique vu que ce sont des réacteurs de ce type qui peuvent produire du plutonium-239 permettant de faire des bombes atomiques…

En fait, pour faire un réacteur nucléaire, les scientifiques ont l’embarra du choix sur les technologies à utiliser : on parle alors de « filière » qui dépend de 3 ingrédients principaux:

  • Le combustible:
    • de l’uranium
    • du thorium
  • Le caloporteur (fluide pour transporter la chaleur) :
    • de l’eau pressurisée
    • de l’eau bouillante
    • du gaz (comme du CO2 ou de l’hélium)
    • du sodium
    • des sels fondus
  • Le modérateur (élément permettant de ralentir les neutrons et permettre une réaction en chaine) :
    • de l’eau ordinaire
    • de l’eau lourde
    • du graphite
    • aucun dans le cas de réacteur à neutrons rapides.

Avec un peu de mathématique de base, on peut ainsi dénombrer ici 2x5x4 = 40 grands types de réacteurs différents (sans compter les centaines de petites variantes possibles). Il faut alors faire un choix mais pas n’importe lequel car quand on s’embarque dans une filière, difficile de faire machine arrière. En effet, l’énergie nucléaire n’est pas à la portée de tout le monde et est très difficile à mettre en place. Si on considère l’argent, le temps, la recherche, les technologies, la politique, l’écologie et la sûreté qui doivent être mis en place à l’échelle d’un pays entier, le choix de la filière est extrêmement important. Sauf que si on considère la question militaire en même temps, le choix devient beaucoup plus simple… Et dans ce cas, les questions d’écologie et de sûreté sont reléguées derrière la priorité militaire…

C’est en partie pourquoi tous les réacteurs nucléaires dans le monde utilisent de l’uranium comme combustible de base et 63 % sont des « REP » : Réacteurs à Eau Pressurisée qui présentent en plus l’avantage d’être plutôt compacts en utilisant de l’eau ordinaire et donc parfaitement adapté pour propulser un sous-marin qui a de l’eau facilement à disposition ! Sur les 438 réacteurs nucléaires dans le monde en fonctionnement aujourd’hui, voici la répartition :

  • 279 à eau pressurisée (REP) dont font partie Three Mile Island et Fukushima,
  • 78 à eau bouillante (REB),
  • 49 à eau lourde pressurisée (PWHR),
  • 15 refroidis au gaz (GCR),
  • 15 à l’eau et au graphite (RMBK) dont fait partie Tchernobyl,
  • 2 réacteurs à neutrons rapides (RNR) pour études scientifiques.

Et vous constaterez qu’il y en a zéro utilisant du thorium avec des sels fondus comme caloporteur alors que ce type de réacteur avait été pressenti par tous les spécialistes dans les années 60 comme la meilleure solution pour produire de l’électricité en termes de déchets et en termes de sûreté (comme Alvin Weinberg, l’ancien directeur du laboratoire américain d’Oak Ridge ayant participé au projet Manhattan). Mais un réacteur à base de thorium ne produit pas de plutonium pour fabriquer des bombes et c’est bien là tout le problème de notre histoire, mais il n’est peut-être pas trop tard !

La suite dans le prochain billet pour plus de précisions sur les réacteurs à sels fondus utilisant du thorium qui pourraient être une meilleure solution dans l’avenir.

Les ondes gravitationnelles et l’interféromètre LIGO

A moins que vous ne viviez reclus, vous n’avez pas pu passer à côté de la nouvelle annoncée par l’expérience LIGO cette semaine: des ondes gravitationnelles ont été directement détectées.

Aerial5Vue aérienne de LIGO sur le site de Hanford (état de Washington, Etats-Unis). Source : LIGO.

Si vous n’aviez jamais entendu parlé de ces ondes gravitationnelles auparavant, c’est tout simplement parce que cela fait bien longtemps qu’on suppose leur existence et elles avaient même été déduites à partir de mesures indirectes sur un pulsar binaire en 1974 (ce qui d’ailleurs valut un prix Nobel à ses auteurs). L’existence de ces ondes découle directement de la relativité générale d’Einstein de 1916. On peut dire que la mesure directe de ces ondes permet d’enfoncer un peu plus le clou de la relativité générale qui constitue toujours aujourd’hui la théorie la plus avancée pour décrire la gravité: elle n’a jamais été mise en défaut ! Ce n’est donc pas une « découverte » au sens strict mais plutôt une confirmation expérimentale directe.

Si on fait le rapprochement avec la détection du Boson de Higgs au CERN en 2012, c’est un peu pareil car le Higgs avait été prédit depuis les années 60 et a permis de valider un peu plus le modèle standard (le modèle qui explique la matière et ses interactions, sauf la gravité…). Cependant, le boson de Higgs a été déduit de manière indirecte car c’est le produit de ses désintégrations qui a été détecté par des détecteurs, contrairement aux ondes gravitationnelles qui ont directement « excité » les détecteurs de LIGO au mois de Septembre 2015.

Un peu de théorie

Dans la relativité générale, l’espace et le temps sont liés dans une même structure : l’espace-temps. Dans cette structure, tout objet ayant une masse déforme l’espace-temps et si cet objet est accéléré fortement, il peut perturber cette structure selon sa forme, sa direction et sa vitesse. De cette manière, une vague le long de l’espace-temps peut se propager à la vitesse de la lumière et c’est cette vague dans l’espace-temps qu’on appelle « onde gravitationnelle ». Pour induire une onde détectable par nos moyens de mesure sur Terre, le cas idéal serait deux objets très massifs comme des trous noirs ou des étoiles à neutrons qui tourneraient autour d’un point situé entre ces 2 objets. C’est exactement ce qui se passe dans ce qu’on appelle en astrophysique des systèmes binaires composés de 2 étoiles à neutrons ou de 2 trous noirs tournant l’un autour de l’autre et se rapprochant au fur et à mesure jusqu’à se rencontrer (coalescence). C’est visiblement d’une telle coalescence que l’onde gravitationnelle détectée par LIGO était issue.

etoile binaireSystème binaire de 2 étoiles (source : Wikipédia)

Un peu d’expérimentation

La question est simple mais la réponse l’est moins : comment détecter le passage d’une onde gravitationnelle sur Terre ? On peut reformuler cette question comme: comment mesurer une déformation locale de notre espace-temps sur Terre ?

Eh bien, une solution consiste à mesurer la distance entre 2 points et de voir si cette distance serait par hasard soudainement allongée puis rétrécie. Si on double cette expérience de mesure à 2 points du globe et qu’on détecte un allongement/rétrécissement dans ces 2 expériences avec un intervalle de temps égal au temps nécessaire à la lumière pour parcourir cette distance, alors on pourra émettre l’hypothèse qu’une onde gravitationnelle a traversé les 2 expériences car une telle onde doit se propager à la vitesse de la lumière. C’est exactement ce que vient de réaliser LIGO aux États-Unis entre Hanford (état de Washington) et Livingston (état de Louisiane) qui sont distants de 3000 kilomètres et qui ont détecté une onde sur leurs détecteurs à 7 ms d’intervalle. Vous allez me dire que dans ce cas, l’intervalle devrait être alors de 10 ms pour parcourir 3000 km, pas 7 ms, mais l’onde gravitationnelle ne se propage pas forcément perpendiculairement aux 2 expériences mais de biais et donc, le décalage temporel permet également de compléter d’autres données pour trouver dans quelle direction cette onde a été émise. Dans le cas de l’onde détectée par LIGO, ce serait un point dans l’hémisphère sud en direction du grand nuage de Magellan (mais beaucoup plus loin, à environ 1 milliard d’années-lumière).

Interféromètre de Michelson

Pour détecter cette perturbation d’espace-temps entre 2 points, les scientifiques ont construit deux interféromètres de Michelson géants. Le fonctionnement d’un interféromètre Michelson est relativement simple à comprendre car il est simplement constitué de 2 miroirs placés perpendiculairement et d’une lame semi-transparente appelé séparatrice en son centre (plus une autre lame compensatrice si on travaille avec de la lumière blanche). On réalise d’ailleurs fréquemment cette expérience dans les salles de travaux pratiques à l’université ou en école d’ingénieur dans le cadre des cours d’optique ondulatoire pour comprendre le phénomène d’interférence.

Michelson-Morley_experiment_conducted_with_white_lightInterféromètre de Michelson (source : Wikipédia)

La lumière se comporte (parfois !) comme une onde et à ce titre, certaines ondes peuvent se « superposer » et former ainsi des figures d’interférence. Si on fait passer dans un interféromètre de Michelson un faisceau laser, on obtient 2 ondes avec la séparatrice et lorsque les 2 ondes se recombinent après avoir été renvoyées par les miroirs, on induit un déphasage entre les 2 ondes en fonction de la distance entre les miroirs et la séparatrice, ce qui provoque une interférence. Cette interférence apparait sous forme de franges de différentes couleurs selon la source de lumière utilisée. Ces franges sont fonction de la distance entre les 2 miroirs et donc lorsque la distance change, les franges bougent car les 2 ondes de lumière interfèrent différemment. Je me souviens parfaitement de cette expérience pendant mes études d’ingénieur et j’avais trouvé ça incroyable de pouvoir voir aussi facilement le phénomène d’interférence qui s’opère à une échelle si petite.

LIGO : le dispositif

Le concept d’interféromètre est donc assez simple mais pour atteindre la précision souhaitée pour détecter des ondes gravitationnelles, c’est un véritable tour de force car ces interféromètres qui mesurent 4 kilomètres de long doivent pouvoir mesurer une différence de distance de 10-18 m, soit un milliardième de milliardième de mètre ou encore le dix millième du diamètre d’un proton !! Le rapport de distance à mesurer est donc de 1021, ça revient à mesurer une différence de 1 centimètre entre la Terre et l’étoile la plus proche de notre système solaire (Proxima du Centaure située à 4 000 années-lumière). C’est juste incroyable !

Tout d’abord, LIGO possède bien des bras de 4 kilomètres mais en fait, la lumière en parcourt 1600 entre le miroir et la séparatrice car entre les 2, les scientifiques ont rajouté ce qu’on appelle une cavité de Fabry-Perrot dans laquelle le faisceau fait 400 aller/retours histoire de rallonger artificiellement les bras et donc d’améliorer la sensibilité du dispositif.

Basic_michelson_with_FP_labeledSchéma de principe de LIGO. Source : LIGO

Ensuite, les miroirs de 34 cm de diamètre et pesant 40kg chacun sont suspendus à un quadruple pendule géant qui permet de stabiliser les miroirs pour s’affranchir des vibrations du sol et des microséismes. Finalement, c’est bien entendu un LASER très perfectionné de 200 W dans le proche infra-rouge qui est utilisé comme source lumineuse et le faisceau voyage dans une enceinte à vide de 10 000 m3 qui est maintenue à une pression de 10-8 mbar pour éviter toute perturbation.

ligo_suspension

Schéma du quadruple pendule stabilisant les miroirs de LIGO. Source : LIGO.

Au final, il s’agit donc de détecter un signal d’écartement des miroirs au-dessus d’un bruit de fond produit par toutes les petites imperfections du système et de l’environnement et c’est ce qui s’est passé ! Ce qui est incroyable c’est que la forme du signal détecté est véritablement ce à quoi les scientifiques rêvaient: une oscillation qui grandit petit à petit et qui augmente en fréquence jusqu’à s’éteindre soudainement. Cela correspondrait à deux trous noirs qui tourneraient autour l’un de l’autre en se rapprochant de plus en plus vite jusqu’à fusionner pour ne faire qu’un. On flirte avec la science-fiction !

ligo20160211aMesure de l’écartement des miroirs dans les 2 sites de LIGO aux Etats-Unis lors du passage de l’onde gravitationnelle. Source : LIGO.

 La suite de l’aventure…

Eh bien, nous allons peut être pouvoir rajouter une nouvelle particule à notre bestiaire. Si ces ondes gravitationnelles existent bel et bien, cela signifie que la gravité se propage effectivement à la vitesse de la lumière et cette propagation de force peut être associée à une particule vecteur : le graviton. C’est la même chose qu’avec le photon qui « transporte » la force électromagnétique. On peut donc voir LIGO comme un « télescope » mais qui au lieu de détecter des photons, détecte des gravitons, c’est un genre de nouvel astronomie…

Dans les projets avenirs, n’oublions pas que le nouveau LIGO (advanced LIGO) rentre à peine en opération et on peut donc s’attendre à de nouveaux évènements très prochainement. Un projet quasi identique en Europe va bientôt aussi reprendre du service (VIRGO) en Italie près de Pise qui est un autre interféromètre de 3 kilomètres. Il faut aussi mentionner le projet eLISA de l’Agence Spatiale Européenne qui a pour objectif de déployer un interféromètre dans l’espace pour chercher des ondes gravitationnelles également (et on parle ici de faire parcourir 1 million de kilomètres aux faisceaux laser de l’interféromètre..).

A suivre…

Les carottes de glace

Question: comment les scientifiques arrivent-il à reconstituer la composition de l’atmosphère terrestre ainsi que sa température lors du dernier million d’années ?

La discipline qui s’intéresse à cette question s’appelle la paléoclimatologie et comporte de très nombreuses méthodes pour y répondre. L’une d’entre elle consiste à analyser la glace des profondeurs du Groenland et de l’Antarctique en extrayant des carottes de glace.

carotte_lapin En astrophysique on dit que regarder loin dans l’espace revient à regarder loin dans le temps à cause de la vitesse finie de la lumière. En glaciologie, c’est un peu différent : c’est en regardant plus profondément dans la glace que l’on regarde plus loin dans le temps… En effet, au fil des ans, la neige qui tombe se dépose sur la neige plus ancienne qui se transforme alors en glace en emprisonnant de nombreux gaz de l’atmosphère. L’analyse de ces gaz permet ainsi de remonter le temps en déduisant la composition de l’atmosphère au moment où les petites bulles d’air ont été emprisonnées.

cnrs_carotteProjet Aurora Basin North, Antarctique, décembre 2013-janvier 2014. À partir d’un forage de 115 mètres, Jérôme Chappellaz (à droite) et David Etheridge effectuent un prélèvement d’air dans le névé, cet amas de neige qui tend à se durcir et qui se trouve à l’origine d’un glacier. (source).

Le carottage

On fait des carottages depuis les années 50 grâce au glaciologue français Claude Lorius qui a eu cette idée en regardant un glaçon fondre dans son verre whisky lors d’une mission en Antarctique… Pour faire un carottage, il « suffit » de faire un trou dans la glace avec une foreuse et d’en extraire une « carotte » de glace d’une dizaine de centimètres de diamètre. Cette carotte est découpée en tronçons plus ou moins longs pour la transporter dans un frigo vers un laboratoire de glaciologie pour analyse des gaz qu’elle contient. Facile à dire comme ça, mais c’est tout un art de faire des carottes et de les stocker correctement.

Le laboratoire national américain des carottes de glace (NICL) est un centre pour entreposer, nettoyer et étudier les carottes de glaces. NSF Source: http://icecores.org

Le plus grand carottage actuel fait 3,2 kilomètres de profondeur en Antarctique, ce qui correspond à 740 000 ans de données, soit 8 cycles glaciaires ! Il a été réalisé dans le cadre du projet européen EPICA (European Project for Ice Coring in Antarctica), et permettra de recouper les données d’autres forages de profondeurs similaires au Groenland (projets GRIP et GISP2).

Une tête de perceuse pour réaliser les carottages. NSF Source : http://icecores.org

Déduire la température du passé

Pour retrouver la température qu’il faisait lors de la formation de la glace de la carotte, on utilise ce qu’on appelle un thermomètre isotopique mais ce dernier n’a pas grand-chose à voir avec un thermomètre au sens commun…

Cette méthode exploite le fait que plus il fait froid et moins l’eau possède des atomes lourds. On apprend à l’école que l’eau est constituée de 2 atomes d’hydrogène liés à un atome d’oxygène (H2O). C’est vrai mais les atomes peuvent être plus ou moins lourds, c’est ce qu’on appelle les isotopes d’un atome, car ces derniers peuvent comporter plus ou moins de neutrons dans leur noyau. Bref, l’oxygène de l’eau peut posséder 8 ou 10 neutrons et l’hydrogène 0 ou 1 neutron.  Donc, plus il fait froid et moins l’eau possède d’oxygène et d’hydrogène « lourd » (oxygène-18 et deutérium). En mesurant la teneur de ces différents isotopes dans la glace, le chercheur arrive ainsi à retrouver précisément la température qu’il faisait lorsque l’eau a gelé.

018-TempConcentration en oxygène-18 selon la température de surface (source : Jean Jouzel 1987)

Cependant, on utilise aussi un thermomètre  «classique » pour mesurer la température le long du trou de forage. Ce profil de température permet aux chercheurs de calibrer le thermomètre isotopique car ce dernier possède une erreur. Comme la température le long du forage doit évoluer de la même manière que la température de l’époque, on peut corriger la mesure du thermomètre isotopique mais pour cela il faut résoudre un problème inverse. En effet, les chercheurs possèdent un assez bon modèle qui explique comment la chaleur se propage dans la glace et donc comment la température va se répartir dans le temps à travers la glace. Le souci est qu’ici on connaît le résultat de ce modèle (la température dans la glace aujourd’hui après des milliers d’années dans chaque couche du forage) mais on ne connaît pas la donnée d’origine (la température initiale dans chaque couche de glace). Pour résoudre de tels problèmes inverses, les glaciologues doivent donc travailler avec des mathématiciens, des chercheurs en traitement du signal et des automaticiens qui sont familiers de ce genre de problèmes. Et ce qui est merveilleux, c’est que ça marche et que ce genre de corrections est même indispensable pour obtenir une bonne précision. De cette manière, les paléo-climatologues ont pu calculer avec une bonne estimation la température qu’il faisait sur Terre lors des derniers 800 000 ans.

Reconstruire l’atmosphère d’antan

Maintenant que vous savez comment les chercheurs déduisent la température du passé grâce aux carottes de glace, voyons comment on peut également retracer l’évolution des différents gaz constituant l’atmosphère terrestre, toujours avec les carottes. Tout d’abord, il faut bien comprendre comment la neige se dépose sur les anciennes couches et comment cette dernière se tasse et se transforme en glace.

Entre la neige fraiche qui tombe et la glace où les bulles de gaz sont emprisonnées, il y a une zone de transition appelée « névé ». Cette couche fait entre 50 mètres (au Groenland) et 120 mètres (en Antarctique) et dans cette couche, les bulles de gaz peuvent se déplacer soit par convection dans sa partie haute (due aux différences de températures et aux vents de surface), soit par diffusion dans sa partie basse (les molécules de gaz les plus lourdes migrent vers le froid en bas et les plus légères vers le chaud en haut), voir la figure ci-dessous.

neve_profilProfil d’un névé qui se situe entre la neige fraiche qui s’accumule à la surface et la glace en profondeur. (Source: Sowers 1992).

Les chercheurs sont donc une fois de plus amenés à résoudre un problème inverse car ils mesurent aujourd’hui la concentration des gaz dans la glace et doivent déduire quelle était la concentration des différents gaz à la date où la neige est tombée, en considérant toute la période de névé pendant laquelle les gaz ont pu se déplacer. Le problème est très compliqué car le gaz contenu dans une bulle emprisonnée peut donc provenir de différentes époques… C’est effectivement un vrai casse-tête et il existe plusieurs modèles pour rendre compte de tous ces phénomènes plus ou moins compliqués. De plus, les chercheurs s’intéressent à de nombreux gaz pour reconstruire le climat (le méthane, le CO2, l’oxygène, les CFC, etc.) et les modèles doivent donc aussi incorporer de la chimie et sont donc d’autant plus compliqués, surtout pour les inverser et les résoudre dans un temps raisonnable.

Encore une chose, pour corriger et ajuster tous les calculs, les glaciologues peuvent avoir recours à des contraintes chronologiques pour forcer une certaine couche de glace à une certaine période comme lors des grandes éruptions volcaniques ou lors de phénomènes astronomiques influençant le climat. Par exemple, il existe un pic de Bérilium-10 à environ 41 000 ans car à cette époque, la Terre a connu un très faible champ magnétique et ce phénomène a eu pour effet de laisser passer de nombreux isotopes venus du cosmos sur Terre comme le bérilium-10. On retrouve ce pic dans les différentes carottes de glace et c’est comme cela que les chercheurs « forcent » leur modèle pour obtenir cet âge à la profondeur correspondante (740 m dans le forage EPICA en Antarctique par exemple).

Les autres méthodes de la paléoclimatologie

Les carottes de glace ne sont pas l’unique méthode pour reconstituer le climat du passé. Les chercheurs ont aussi recours à la dendroclimatologie (analyse des arbres et plus particulièrement de leurs cernes), à la sclérochronologie (analyse des coraux et coquillages) ainsi que l’analyse de tous les fossiles de faune et de flore et des sédiments qui donnent de précieux indicateurs du climat. Toutes ces méthodes peuvent ensuite être comparées et combinées pour permettre de reconstituer le scénario le plus probable de notre climat passé.

All_palaeotempsReconstitution de la température moyenne sur Terre pendant les 500 derniers millions d’années. Les données jusqu’à 800 000 ans viennent des carottes de glace. Source Wikipedia.

La métallurgie et les alliages

Voici un sujet qui m’est étranger et c’est la raison pour laquelle je l’aborde dans mon blog : j’ai envie d’en savoir plus !

Les métaux

La métallurgie est avant tout une science : celle qui s’intéresse aux métaux et à ses alliages. Un métal est défini physiquement comme un matériau possédant des liaisons atomiques métalliques, c’est-à-dire que les différents atomes échangent plus d’un électron pour rester soudés. Au total, le tableau périodique des éléments contient 91 métaux sur 118 éléments connus, autant dire que les métaux sont omniprésents puisqu’ils représentent plus des trois quarts des éléments connus. En général, les métaux sont extraits de roches issues de la croûte terrestre : le minerai (d’où le nom de métal). Metallurgie-junker2

Tous les métaux sont très différents, certains sont radioactifs et dangereux comme l’uranium, et d’autres sont omniprésents dans notre corps comme le fer. Ils possèdent tous des propriétés chimiques et mécaniques distinctes qui leur confèrent des avantages et des inconvénients selon les applications industrielles (poids, solidité, élasticité, corrosion, etc.). Prenons quelques exemples de métaux:

  • L’argent est le meilleur conducteur électrique et thermique.
  • Le fer est très abondant sur Terre et s’aimante en présence d’un champ magnétique (ferromagnétisme).
  • L’osmium est l’élément naturel le plus dense sur Terre avec 22 tonnes pour un mètre cube (3 fois plus dense que du fer).
  • Le Tungstène est le métal ayant le plus grand module de Young, c’est-à-dire que c’est le métal le moins élastique.
  • Le mercure est le seul métal liquide à température et pression ambiante.
  • Le Nickel est très peu sensible à la corrosion et à l’oxydation.
  • L’or est un métal jaune, brillant et malléable, ce qui le prête bien à la bijouterie.

C’est à cause de leurs grandes disparités que l’homme a naturellement été tenté de « mélanger » les métaux ensemble pour fabriquer des alliages répondant mieux à ses exigences techniques.

Les alliages

Pour qu’il y ait alliage, les différents métaux de la composition doivent être miscibles entre eux, c’est-à-dire qu’en les chauffant à une température précise, ils se mélangent parfaitement de manière à obtenir un nouveau matériau homogène sans pouvoir distinguer les différentes espèces qui le composent. En général, les éléments ne sont pas complètement miscibles et doivent donc respecter certaines proportions à ne pas dépasser (limite de solubilité).

On trouve de nombreux alliages pour quasiment tous les métaux mais il existe trois grandes familles d’alliage à cause de leur abondance sur Terre et donc de leur prix raisonnable:

  • les alliages à base de fer (fonte, acier, inox)
  • les alliages à base de cuivre (bronze/arain, laiton, billon)
  • les alliages à base d’aluminium

chevalP1-10A Le cheval du trésor de Neuvy-en-Sullias. Un des plus beaux bronzes de la Gaule romaine, Ier siècle av. J.-C. – Ier siècle ap. J.-C. Alliage cuivreux coulé selon le procédé de la fonte à la cire perdue. (source : JF BRADU).

Au niveau physique, les atomes des différents métaux peuvent se « mélanger » plus ou moins bien selon la température, la nature des atomes et leur arrangement. Pendant longtemps, l’homme a naturellement trouvé des alliages de manière empirique et aujourd’hui notre meilleure compréhension de la matière nous permet de « penser » à des alliages selon nos besoins.

Il existe des alliages homogènes dans lequel l’élément d’addition peut soit remplacer un atome du métal de base (substitution), soit s’intercaler dans le réseau atomique (insertion). Quand il y a substitution, les atomes doivent avoir une taille semblable. Si les atomes des différents métaux sont de taille équivalente à 15 % près, il y a miscibilité totale, et, si les atomes diffèrent de 15 % à 30 % en taille, il y a miscibilité partielle. Au-delà, les métaux ne sont pas miscibles par substitution. En revanche, il peut y avoir une insertion d’un atome de petite taille dans un réseau d’atomes plus gros comme c’est le cas pour les aciers où des atomes de carbone ayant un rayon de 70 picomètres sont insérés dans un réseau d’atomes de fer ayant chacun un rayon de 140 picomètres, soit le double. Cette insertion fonctionne uniquement si la quantité d’éléments ajoutés est relativement faible par rapport au métal de base et dépend du schéma d’organisation des atomes, sinon la miscibilité est impossible.

fer_carbone_CFC_3Acier: Insertion d’atomes de carbone (en noir) dans une structure cubique à face centrée de fer (en rouge) (source : iutenligne).

Les aciers

Un des alliages les plus utilisé dans l’industrie aujourd’hui est l‘acier mais c’est un alliage relativement récent car découvert véritablement à la fin du 18ème siècle (contrairement à la fonte et le bronze qui sont connus depuis plus de 2000 ans). L’acier est un alliage très inégal car il est constitué de fer avec seulement 0,02% à 2% de carbone (au-delà de 2%, c’est de la fonte). Il existe aujourd’hui plusieurs centaines d’aciers différents selon la teneur en carbone et l’addition d’autres métaux dans l’alliage. Les procédés de fabrication sont extrêmement complexes avec des recettes de cuisine bien spéciales. Dans une voiture, on trouve plus de 40 types d’aciers différents (voir cet article intéressant sur l’acier).

Quelques types d’aciers:

  • acier inoxydable (inox) : fer contenant moins de 1,2% de carbone avec plus de 10,5% de chrome. D’aspect brillant, il résiste bien à la corrosion, il ne rouille pas. Il en existe une vingtaine de différents car on ajoute aussi généralement du nickel ou du manganèse (d’où l’expression « nickel-chrome« ). En cryogénie, on utilise généralement de l’acier inoxydable 304L (0,02% de carbone, 18% de chrome et 10% de nickel) qui résiste très bien aux très basses températures (< -200 °C).
  • acier galvanisé : ici on vient recouvrir l’acier d’une couche de zinc pour le protéger contre la corrosion. Ce dépôt fait entre 50 et 100 microns selon les applications et la durée de vie souhaitée. En milieu rural, un dépôt de 100 microns permet une protection pour 100 ans !
  • acier trempé : l’homme a découvert qu’en chauffant l’acier à haute température (autour de 900 °C pendant environ 30 minutes) et en le trempant dans l’eau froide soudainement, on améliore par la suite ses propriétés mécaniques en le rendant plus dur (mais plus fragile).

Durée_de_vie_de_la_galvanisation Durée de vie de la galvanisation selon l’épaisseur de zinc (source : wikipédia)

La bijouterie

L’alliage est de rigueur en bijouterie ! Si vous aviez des bijoux en or pur, ils se déformeraient trop, un coup de dent modéré laissant une empreinte dans l’or pur sans problème ! En France, un bijou est qualifié « en or » s’il possède au moins 75 % d’or, soit 18 carats (24 carats = 100%). Les joailliers ajoutent donc d’autres métaux pour des raisons mécaniques et esthétiques. Par exemple, on ajoute du cuivre pour faire de l’or rouge, du nickel pour l’or blanc, de l’argent et du cuivre pour l’or jaune ou rose selon les proportions. Avec de l’argent, c’est pratiquement toujours du cuivre qui est ajouté. On trouve aussi des bijoux en platine (plus cher encore que l’or), en bronze, en laiton, en cuivre ainsi qu’en vermeil (argent à 92,5% recouvert d’au moins 5 microns d’or à 75%).

350px-Ag-Au-Cu-colours-english.svg Différentes couleurs de l’or selon les proportions d’or, d’argent et de cuivre (source: wikipédia)

Des alliages high-tech

Il existe aujourd’hui des alliages de hautes technologies pour les applications de pointes comme l’aéronautique ou le spatial qui nécessitent des exigences en matière de solidité, de poids, d’élasticité et de durée de vie (mais pas trop en matière de prix). Ici, on parle généralement de titane, de tungstène et de cobalt.

Un des plus utilisés est le Ti 6Al-4V (alliage de titane avec 6% d’aluminium et 4% de vanadium) qui est très léger et robuste. De plus il peut fonctionner à haute température (300 °C) et est peu sensible à la corrosion. On le retrouve dans les pales de turbines, dans les structures d’avion et d’armes mais également dans des équipements de sport haut de gamme et dans des implants médicaux et dentaires. golfClub de golf en alliage Ti 6Al-4V (source : Tour spec golf)

On retrouve aussi des alliages sous forme de marque déposée par les entreprises qui les ont créés comme l’Invar® (64% de fer et 36% de Nickel) qui présente une étonnante propriété de dilatation thermique : l’Invar® ne se déforme presque pas quand sa température change (10 fois moins que du fer) et est donc utilisé abondamment en horlogerie ainsi que pour fabriquer des appareils de mesure. L’Invar® est également utilisé pour fabriquer les membranes des cuves des méthaniers transportant du gaz naturel liquéfié à -164 °C pour éviter leur déformation avec la température.

1024px-LNG_BONNYMéthanier possédant une membrane interne en Invar®.

Signalons aussi des alliages à base de tungstène qui sont très intéressants car très denses (19 tonnes par mètre cube) et résistants aux très hautes températures (point de fusion du tungstène à 3422 °C) comme le Densimet® (tungstene+nickel+fer), l’Inermet® (tungstene+nickel+cuivre) ou le Denal® (tungstene+nickel+acier+cobalt) qui possèdent une densité d’environ 17 tonnes par mètre cube et qui sont utilisés pour réaliser des blindages ou des systèmes de collimation pour les rayons X ou gamma dans les centres de radiothérapie.

Combien ca coûte ?

Coté prix, un kilo d’or vaut environ 20 000 euros contre 250 euros pour 1 kilo d’argent, 4,5 euros pour un kilo de cuivre et 4,5 centimes pour un kilo de fer ! Mais il y a des métaux beaucoup plus cher que l’or : un kilo de rhodium (métal parfois appliqué sur les bijoux en argent pour les rendre anti-corrosifs) coûte 300 000 euros !! Quant aux alliages, le prix dépend bien évidemment des métaux qui les composent mais surtout de la complexité du travail à accomplir pour l’obtenir. L’acier coûte ainsi 40 centimes le kilo, soit 10 fois plus cher que le fer qui est son constituant à 98%, et l’inox s’échange à 2 euros le kilo pour 90% de fer à 4,5 centimes par kilo (50 fois plus cher). Pas étonnant quand on voit la complexité d’une acierie…

L’accélération plasma par sillage

L’accélération plasma est devenue une technique très à la mode en physique des particules car prometteuse pour l’avenir, mais que ce que cache exactement derrière ce terme ?

En effet, ce type d’accélération s’oppose aux accélérateurs « conventionnels » où les particules sont accélérées par des cavités radiofréquences au sein d’accélérateurs gigantesques (et donc onéreux) de plusieurs dizaines de kilomètres pour les plus grands. Dans l’accélération plasma, fini les cavités radiofréquences ! Les particules sont accélérées par le sillage (wakefield en anglais) laissé par une particule dans un plasma et cela permet de réduire la taille des accélérateurs par un facteur d’au moins 500! La réduction de la taille et donc du coût de ces accélérateurs, en font d’excellents candidats pour les applications industrielles et médicales de demain mais il reste encore du chemin à parcourir…jean-gouffon2

Un peu d’histoire

Le concept a été imaginé à la fin des années 70 à l’université de Californie (UCLA), voir ce papier de Tajima et Dawson. Les premiers prototypes ont vu le jour dans les années 80 et se sont révélés prometteurs. Après plus de 30 ans d’expériences et d’idées nouvelles, plusieurs grands centres de recherche, aux Etats-Unis principalement, ont réussi à atteindre des énergies relativement importantes, de l’ordre du GeV (Giga Electronvolt) sur de petites distances tout en ayant une bonne répétabilité des expériences. Tous les grands centres de recherche en physique planchent aujourd’hui sur cette « nouvelle » technique.

Le principe

Tout d’abord, rappelons qu’un plasma est un état de la matière où les électrons se meuvent librement. Cela se produit en général dans des gaz chauffés à haute température (plus de 2000 degrés) ou exposés à de très forts champs magnétiques. L’état plasma est en fait l’était de la matière le plus commun dans l’univers car les étoiles sont des plasmas. Sur terre, on peut citer les éclairs et les néons qui sont aussi des plasmas.

Un plasma, vu de loin, est électriquement neutre: il y a autant de charges négatives dues aux électrons que de charges positives dues aux ions. Cependant, si on arrive à séparer les électrons des ions localement, on peut créer un champ électrique important sur une très faible distance et donc accélérer des particules. Pour séparer les électrons des ions longitudinalement, il existe plusieurs techniques pour former un sillage dans le plasma, créant ainsi localement d’importants champs électriques. Ce sillage peut être provoqué par plusieurs types de particules traversant le plasma :

  • Un paquet d’électrons
  • Un paquet de protons
  • Une impulsion laser (un paquet de photons)

Aux Etats-Unis : Laser-Plasma

La plupart des expériences aux Etats-Unis s’intéressent à l’accélération laser-plasma car plus simple à mettre en œuvre et jugée plus prometteuse pour les applications. En effet, il parait plus simple et plus économique de mettre en place un LASER très puissant, plutôt qu’un autre accélérateur de particules en amont pour fabriquer le sillage. Citons quelques réussites d’accélération laser-plasma aux Etats-Unis :

  • Au LBNL (Lawrence Berkley National Laboratory): des électrons sont accélérés à 1 GeV en 3,3 cm.
  • A l’université du Texas (Austin): des électrons sont accélérés à 2 GeV en 2 cm (c’est le record actuel).
  • Au SLAC : un gain de 40 GeV est apporté à un faisceau d’électrons en seulement 85cm.

berkley_laserplasmaLe LBNL a produit un faisceau d’électrons de 1GeV sur 3.3 cm. © Lawrence Berkeley National Laboratory.

A titre de comparaison, il faut aujourd’hui compter environ 65 mètres pour accélérer des électrons à 1 GeV avec les techniques traditionnelles (cavités radiofréquences), on voit bien ici l’immense potentiel de l’accélération plasma pour les applications industrielles et médicales.

 Au CERN : AWAKE

Quant au CERN à Genève (Organisation Européenne pour la Recherche Nucléaire), une nouvelle expérience est en train de voir jour sur cette thématique qui s’appelle AWAKE (Advanced Wakefield Acceleration). Ici, c’est un faisceau de protons provenant d’un accélérateur classique de 7km (le SPS) à 400 GeV qui va venir créer le sillage dans un plasma pour accélérer des électrons sur une dizaine de mètres jusqu’à une énergie de 1 TeV. Cette énergie (1TeV = 1 000 GeV) est mille fois plus importante que les autres expériences d’accélération plasma mais n’oublions pas qu’ici la source pour créer le sillage provient d’un accélérateur classique de 7 km de circonférence tout de même… Cette technique, encore jamais expérimentée, sera ici mise sur pied pour la première fois dans l’objectif de remplacer les cavités radiofréquences classiques des futurs grands accélérateurs de particules (on en est encore très loin, mais il faut bien commencer quelque part !). awake

Schéma général de l’expérience AWAKE. © CERN.

Vous constaterez tout de même la présence d’un LASER dans cette expérience AWAKE car les paquets de protons doivent être du même ordre de grandeur que la longueur d’onde du plasma et il faut donc les « découper » à la bonne taille. C’est avec un puissant laser qu’on va réaliser cette tâche : chaque paquet du SPS va être divisé en environ une centaine de plus petits paquets en utilisant une instabilité d’auto-modulation dans le faisceau de protons. Voir cette vidéo qui vaut toutes les explications du monde.

AWAKE réutilise des installations souterraines existantes au CERN qui hébergeaient auparavant CNGS (expériences sur les neutrinos vers Gran-Sasso). Cependant, deux nouveaux petits tunnels sont en train d’être excavés dans la zone existante pour héberger la ligne LASER ainsi que la source d’électrons. Si tout va bien, les premiers électrons devraient être accélérés fin 2016.

awake_tunnel

Excavation d’un nouveau tunnel pour AWAKE. © CERN.

La beauté des équations en physique

Certains vous dirons que la physique est ennuyeuse, d’autres qu’elle est compliquée ou encore difficile d’accès alors que les physiciens vous diront qu’elle est une science noble et que la physique  produit de « belles » équations. La beauté d’une équation ? Oui, parfaitement, une équation peut être esthétique. Cette beauté des équations peut revêtir à mon sens 2 traits distincts :

  • La beauté visuelle : elle est belle à regarder.
  • La beauté du sens : elle exprime une quantité d’informations extraordinaires avec un minimalisme et une exactitude mathématique.

equation3

A quand les musées d’équations ?

La beauté visuelle

Si une équation est belle esthétiquement, c’est d’abord parce que la physique utilise de nombreux signes différents, parfois inconnus du grand public. De plus, tous ces chiffres, lettres et signes étranges se côtoient les uns à côté des autres  sans logique apparente pour les non-initiés et c’est sans doute cet agencement un peu magique qui peut rendre une équation « belle ».

Une équation physique peut bien entendu contenir des chiffres arabes (0,1, 2, 3,…) pour définir une valeur, ainsi que des lettres pour définir une quantité physique (la masse, la vitesse, etc.).

Ces lettres, majuscules ou minuscules, peuvent être soit latines (a, b, c, d…) en caractère d’imprimerie ou en écriture cursive, soit grecques, ce qui apporte pour nous autres français une première touche d’exotisme dans les équations. Au total, ça nous fait déjà 166 caractères possibles pour nos équations !

alphabetgrecAlphabet grec majuscule et minuscule. Toutes les lettres sont utilisées en physique et certaines lettres ont pratiquement toujours la même signification. Par exemple lambda représente toujours une Longueur d’onde ou une conductivité thermique en thermodynamique.

 Le troisième type de caractère que l’on peut rencontrer en plus des chiffres et des lettres est le plus intéressant car sans doute le plus inaccessible et le plus puissant, à savoir les opérateurs mathématiques (en dehors des quatre opérateurs arithmétiques de base pour l’addition, la soustraction, la multiplication et la division). Ces opérateurs permettent de réaliser des calculs répétitifs (voir rébarbatifs) entre les lettres et les chiffres de manière à simplifier les écritures et éviter d’avoir des équations de 10 kilomètres de long !  Citons-en quelques-uns :

  • La somme, grande et majestueuse, est un sigma grec majuscule. Elle permet l’addition de nombreux termes dans une écriture compacte.
  • L’intégrale, avec sa belle courbe de chat, permet de sommer une infinité de quantité.
  • Nabla, qui n’est autre que le delta grec majuscule inversé, permet de simplifier la notation des équations aux dérivés partielles et d’économiser beaucoup de papier et d’encre.
  • Le Bra-Ket en physique quantique permet de simplifier grandement les équations utilisant des états quantiques.

 operateurs

 En plus de toutes ces « belles » lettres et symboles, le physicien possède toute une panoplie de petits signes supplémentaires pour surcharger les lettres. Au-dessus, on peut ajouter des flèches (les vecteurs), des points (les dérivés), des accents circonflexes (une estimation), ou bien des barres (un opposé). Autour, les lettres peuvent s’encadrer entre des barres verticales simples ou doubles (modules), entre des crochets, ou encore entre des accolades ou des parenthèses. Et puis évidemment, on a tous les indices et exposants à notre disposition pour continuer notre décoration.

Bref, tout un attirail pour faire de jolies choses, où les styles peuvent aller du minimalisme au rococo en passant par le baroque…

 La beauté du sens

En plus de l’esthétique, il y a bien sûr le « sens » d’une équation et surtout ses conséquences, tant sur le plan métaphysique que pratique. Le physicien trouve souvent une équation « belle » si avec peu de termes il peut en découler une théorie toute entière.

C’est par exemple ce qui fait la célébrité du fameux E=mc2 : seulement 5 caractères, chaque terme est facilement exprimable avec des mots communs (énergie, masse et vitesse de la lumière) et les conséquences sont énormes car cette équation signifie que masse et énergie sont équivalentes et que la masse inerte contient une énergie gigantesque. Sur le plan pratique, cette équation permet de penser à de nouvelles sources d’énergie pour l’humanité (centrales nucléaires) mais aussi malheureusement à des sources colossales de destruction (bombe atomique, bombe hydrogène).

Mais le physicien qualifie aussi parfois des équations compliquées de « belles » car il est parvenu à en percer le sens et à s’approprier chaque terme et chaque relation entre les grandeurs, et ceci a un petit côté magique. C’est le moment où on arrive à comprendre une équation, à en saisir le sens profond et tout d’un coup, une vulgaire équation devient belle…

Il faut aussi savoir qu’une équation possède toujours un domaine de validité, c’est-à-dire un contexte physique dans lequel l’équation est vraie. En dehors de ce domaine, l’équation ne marche plus. Par exemple, la loi universelle de la gravitation établie par Isaac Newton en 1684 n’est pas universelle contrairement à son intitulée, elle est valide uniquement si la vitesse relative des corps est très inférieure à la vitesse de la lumière ((v/c)2 << 1). En effet, depuis 1915, la relativité générale d’Einstein explique la gravité dans toutes les situations observées jusqu’à aujourd’hui et possède donc à l’heure actuelle un domaine de validité infini (mais qui sera peut-être un jour réduit). On peut conclure que l’équation de la relativité générale est belle car elle s’applique en toutes circonstances mais elle est très difficile d’accès pour ce qui est d’en saisir le sens profond, alors que la loi universelle de la gravitation de Newton est belle car très simple à comprendre mais elle n’est pas toujours valide.

 graviteNewton contre Einstein : 2 équations expliquant la gravité. Quelle est la plus belle ? La plus simple à saisir ou celle ayant le plus grand domaine de validité ?

 Les 4 équations que j’aime bien

Voici 4 équations que j’aime bien et que je trouve belles. Je vous les présente par ordre chronologique ci-dessous.

L’équation de bilan d’énergie d’un fluide newtonien en mouvement dans l’approximation des milieux continus est décrite par la 3eme équation de Navier-Stokes (1845). Un million de dollars sera offert par l’institut Clay à celui qui trouve la solution générale. Je l’aime bien car je l’ai utilisée dans ma thèse et j’ai pas mal travaillé dessus : je la trouve donc tout simplement belle…

navierstokesL’équation de Maxwell-Faraday (1865) est une des 4 équations de Maxwell qui décrivent l’interaction électromagnétique et donc tous les phénomènes lumineux. Cette équation nous dit notamment qu’une variation du champ magnétique dans le temps permet d’induire un champ électrique dans l’espace et donc un éventuel courant dans un câble. Toutes les génératrices électriques comme les dynamos de vélo utilisent cette équation. J’ai représenté ici la même équation sous sa forme locale (dérivée) et sous sa forme intégrale que certains trouveront plus « esthétique ».

maxwellfaradaymaxwellfaraday_integraleLe principe d’incertitude d’Heisenberg (1927). Celle-ci je l’aime bien pour son style minimaliste et parce qu’elle est simple à comprendre (même si en détail, ce n’est pas aussi simple) : le produit des « erreurs » de mesure sur la position (sigma x) et sur le moment (sigma p) d’une particule est toujours supérieur à une valeur constante  qui dépend de la constante de Planck (h). Autrement dit, il est impossible de bien connaitre la position et la vitesse d’une particule en même temps, plus on connait bien l’un, moins on connait l’autre. C’est un des piliers de la physique quantique. heisenbergLe lagrangien du modèle standard de la physique des particules (1974). Cette équation résume en gros notre monde et ses interactions sans la gravité (force électromagnétique, force forte et force faible). Elle est en quelque sorte l’aboutissement de la physique du 20ème siècle et les expériences se poursuivent dans les accélérateurs de particules du monde entier pour conforter ce modèle qui n’a jamais vraiment été mis en défaut jusqu’à aujourd’hui. La dernière grande validation de ce modèle a été la prédiction et la découverte du boson de Higgs au CERN en 2012.

cernmug

Écrire les équations à la main

Je n’ai pas une belle écriture, on peut même dire que mon écriture est exécrable (d’ailleurs quand j ’étais étudiant personne ne voulait de mes cours car c’était illisible) mais j’aime bien écrire quand même pour moi-même, et j’aime encore plus écrire des équations à la main ! C’est d’ailleurs intéressant de noter que pour des questions de rapidité, certains signes sont par convention toujours « écorchés » à la main comme les flèches des vecteurs qu’on ne trace généralement qu’à moitié.

Voici le résultat ci-dessous avec mes équations préférées citées plus haut (équations écrites avec un feutre-pinceau japonais volé à ma femme) :

equation_main

Signification des lettres grecques

Un dernier petit paragraphe sur les significations usuelles des lettres grecques en physique, évidemment ce n’est pas exhaustif et j’ai mis simplement les significations que je connais.

  • alpha. Etant la première lettre de l’alphabet, alpha s’emploie à peu près pour tout et n’importe quoi, même si souvent elle représente un facteur adimensionnel. On l’utilise aussi pour désigner la constante de structure fine qui régit la force électromagnétique.
  • bêta. S’emploie aussi très souvent. Signalons peut être juste qu’en relativité restreinte, bêta représente la vitesse réduite d’un objet, c’est-à-dire le rapport entre la vitesse d’un objet et la vitesse de la lumière.
  •  gamma. Représente les photons en physique des particules, les rayons gamma en électromagnétisme et le facteur de Lorentz en relativité restreinte.
  • delta. Généralement utilisé pour représenter une petite grandeur. Le delta minuscule est aussi utilisé comme un opérateur pour représenter la variation infinitésimale d’une grandeur.
  • epsilon. Représente une constante positive arbitrairement petite ou une erreur. Symbolise aussi la permittivité électrique.
  •  zêta : peu utilisé.
  • êta. Représente souvent un rendement. Permet aussi de dénoter la viscosité dynamique en mécanique des fluides.
  • thêta. Lettre représentant généralement un angle ou bien la température en thermodynamique.
  • iota. Peu utilisé.
  • kappa. Représente une constante dans l’équation d’Einstein de la relativité générale.
  • lambda. représente toujours une Longueur d’onde ou une conductivité thermique en thermodynamique.
  • mu. Permittivité magnétique en électromagnétisme ou viscosité dynamique en mécanique des fluides.
  • nu. Fréquence d’une onde ou viscosité cinématique en mécanique des fluides.
  • ksi. Fonction d’onde.
  •  omicron. Peu utilisé
  • pi. Utilisée comme la constante connue.
  • rho. Résistivité électrique ou masse volumique en mécanique.
  • sigma. Conductivité électrique.
  • tau. Constante de temps d’un système.
  •  upsilon. Peu utilisé.
  • phi. Flux magnétique ou déphasage d’une onde.
  • khi. Coefficient de compressibilité en thermodynamique.
  •  Psi. Flux électrique en électromagnétisme et fonction d’onde en mécanique quantique.
  • oméga. Pulsation d’une onde qui se propage.

Farfadets rouges, elfes et jets bleus…

Un farfadet dans un blog de science sérieux ? Eh bien oui, mais pas de n’importe quelle couleur : ici, je ne parlerai que des farfadets rouges, qui ne sont pas des petites créatures du folklore du Poitou, mais des phénomènes lumineux transitoires de la haute atmosphère, tout comme les elfes et les jets bleus.

farfadets2

Phénomènes lumineux transitoires

En effet, depuis un siècle, plusieurs témoignages parlent de phénomènes extrêmement brefs et impressionnants dans la haute atmosphère, c’est-à-dire au-dessus des nuages entre 20 km et 100 km d’altitude, mais ce n’est que depuis les années 90 qu’on a pu les photographier et les étudier de manière scientifique car pour les observer, il faut en général être sur un haut sommet ou en orbite basse autour de la Terre lors d’orages violents.

En effet, ces phénomènes optiques sont déclenchés par les orages qui occasionnent des décharges électriques violentes en dessous dans la troposphère. Aujourd’hui ces phénomènes ont été observés des dizaines de milliers de fois et on estime leur occurrence à environ un million par année sur Terre.

Upperatmoslight1 Résumé des phénomènes lumineux transitoires entre 20 et 100 km d’altitude

 Farfadet

Egalement désigné par le terme « sylphes rouges » ou encore « red sprites » en anglais, les farfadets sont sans doutes les phénomènes les plus impressionnants. Ils ont lieu entre 50 km et 100 km d’altitude et durent quelques millisecondes seulement. Ils sont caractérisés par une forme de méduse de couleur rouge avec les filaments qui s’étendent vers la Terre. Ces farfadets peuvent mesurer jusqu’à 50 km de large et ont été signalés pour la première fois au début du 20ème siècle mais le premier farfadet photographié date de 1989, photo prise par hasard par une navette spatiale.

farfadet Farfadets photographiés depuis le sol en aout 2012 au Danemark. © Jesper Grønne.

 BigRed-Sprite Première image en couleur de sylphes rouges et de jets bleus.

Elfes

Les elfes sont des phénomènes qui ont lieu à très haute altitude, au-dessus de 100 km dans l’ionosphère et peuvent mesurer jusqu’à 400 km de diamètre. ELFE est en fait un acronyme pour Emission of Light and Very low-frequency perturbations from Electromagnetic pulse sources (ELVE en anglais). Les elfes ont été identifiés la première fois au début des années 90 par une navette spatiale américaine au-dessus de la Guyane. Ce phénomène semblerait provoqué par une très importante impulsion électromagnétique lors de violents orage qui se propagent dans toutes les directions dans une sphère en accélérant des électrons. Lorsque cette sphère rencontre l’ionosphère, qui possède une importante conductibilité électrique et où les gaz sont ionisés, l’azote s’illumine à cause de son interaction avec les électrons accélérés à haute énergie. Il en résulte des disques de couleur jaune/rouge qui se propagent du centre vers l’extérieur. Ces disques sont en fait le résultat de la rencontre entre la sphère (issue de l’impulsion électromagnétique de l’orage) et la couche de l’ionosphère à environ une centaine de kilomètres.

elve_345 Un elf

 Jets bleus

Les jets bleus se produisent juste au-dessus des orages, ils naissent au sommet des nuages pour se propager vers le haut à une vitesse de 100 km/s dans un cône de plusieurs dizaines de kilomètres de haut et d’environ 15 degrés de large. Ils sont beaucoup moins fréquents que les farfadets mais plus facile à observer car plus lumineux et moins haut. Cependant, seulement quelques centaines d’images de jets bleus existent aujourd’hui.

blujetDes jets bleus

Etudes spatiales sur les phénomènes lumineux transitoires

Pour mieux étudier ces phénomènes, 2 expériences scientifiques ont été mises sur pied depuis l’espace :

  • L’expérience LSO (Lightning and Sprites Observations) est localisée sur la station spatiale internationale (ISS), donc sur une orbite terrestre basse à environ 400 km d’altitude. Elle est constituée de deux micro-caméras sur un bras rotatif qui filment la Terre pendant les orages pour obtenir des statistiques sur les farfadets et les elfes. Voir plus de détails ici.
  • Le micro satellite Taranis (Tool for the Analysis of RAdiations from lightNIngs and Sprites) aura pour objectif d’étudier tous les phénomènes transitoires entre 20km et 100 km d’altitude à partir d’une orbite polaire à 700 km. Le satellite est en cours de construction par le CNES et devrait être opérationnel à partir de 2017. Voir plus de détails ici.

taranisVue d’artiste du satellite Taranis avec des farfadets en arrière-plan. © CNES.

Le CERN 2014 en 10 photos

Aujourd’hui, mon billet est consacré à 9 photos du CERN qui m’ont marqué en 2014 plus une photo de ce début 2015. Vous trouverez à chaque fois des liens hypertextes si vous souhaitez plus de détails.

Ma première photo sélectionnée, la seule de 2015, est le drapeau du CERN mis en berne le vendredi 09 Janvier lors de la minute de silence en hommage aux journalistes assassinés de Charlie Hebdo

CERN_flagCrédit image Maximilien Brice/CERN © CERN

 Formation sécurité de chariot-tracteur sur le site du CERN Prévessin (Décembre 2014).Towing Tractor Training Session

Crédit image Christoph Balle /CERN © CERN

 Insertion du détecteur à pixel de CMS proche du tube faisceau du LHC (Décembre 2014).CERN_CMS

Crédit image Noemi Caraban Gonzalez/CERN © CERN

John Ellis dans son bureau avec son nouveau pullover symbolisant le fameux diagramme pingouin inventé par le physicien en 1977 (Octobre 2014).CERN_Ellis

Crédit image Guillaune Jeanneret / CERN © CERN

 Début du perçage du futur tunnel qui hébergera l’expérience AWAKE au CERN. Cette expérience permettra d’accélérer des électrons par accélération plasma (Aout 2014). CERN_AWAKE

Crédit image Maximilien Brice/CERN © CERN

Le directeur général du CERN, Rolf Heuer, rencontre le pape François au Vatican (Juin 2014). Voir cet article du temps intéressant de Rolf Heuer sur les différences entre Benoit XVI et le pape François au sujet de la Science.LHC_pape

Image credit: Photographic Service – L’Osservatore Romano

Installation du détecteur IBL juste autour du tube faisceau de l’expérience ATLAS (Mai 2014). CERN_IBL

Crédit image Claudia Marcelloni De Oliveira /CERN © CERN

 Installation du dernier des 27000 « shunts » des aimants supraconducteurs du LHC (Avril 2014) LHC_Soudure

Crédit image Maximilien Brice/CERN © CERN

Cavités radio fréquence « drift tube » du futur accélérateur linéaire LINAC4 qui injectera les protons vers le LHC à partir de 2020.CERN_LINAC4

Crédit image Maximilien Brice/CERN © CERN

 Et pour finir, ma photo préférée: Maria et Giuseppe Fidecaro, célèbre couple fidèle au restaurant 1 du CERN (Février 2014). Ils sont au CERN depuis 1956 et sont toujours actifs aujourd’hui, comme quoi, la physique des particules, ça conserve ! Plus de détails sur ce couple fabuleux ici si vous le souhaitez.CERN_fidecaro

Crédit image Anna Pantelia / CERN © CERN