Archives pour la catégorie Thermo/Energie

Le nucléaire au thorium: une « vieille » solution pour l’avenir ?

Ce billet est la suite de mon billet Une petite histoire de l’énergie nucléaire. Donc, à lire en guise d’introduction sur les différentes filières nucléaires.

Mais avant de parler du thorium-232 en détail, juste un petit rappel sur les éléments chimiques et leurs isotopes. Le numéro cité après l’élément considéré (232 dans le cas du thorium) s’appelle le nombre de masse et représente le nombre total de protons et de neutrons dans le noyau (les nucléons). Donc plus le nombre de masse est grand, plus l’élément est lourd. Ainsi, l’uranium-238 possède 3 neutrons de plus que l’uranium-235 et chaque « variété » d’un même élément s’appelle un isotope. A ce jour, 117 éléments ont été découverts  pour 2 934 isotopes. Certains sont explosifs, d’autres corrosifs ou encore inoffensifs. Tous les éléments dont nous sommes familiers (oxygene-16, fer-56, carbone-12, etc.) sont stables dans le temps mais beaucoup d’autres sont instables et donc radioactifs avec des durées de demi-vie variables, de quelques millisecondes à des millions d’années, tout dépend du nombre de protons et de neutrons dans le noyau!

 Le thorium

Le thorium, est un métal lourd radioactif de la même famille que l’uranium (actinide). Il possède 90 protons dans son noyau (contre 92 pour l’uranium) et a une demi-vie radioactive très longue de 14 milliards d’années, soit plus de 3 fois l’âge du système solaire. Sa présence sur Terre est estimée entre 3 et 4 fois plus abondante que l’uranium et est plutôt bien réparti. En France, il y a des gisements en Bretagne et AREVA, le CEA et Rhodia ont déjà 8 500 tonnes de thorium  stockées sur leur étagère via l’extraction d’autres minerais. Selon cette source, une tonne de thorium permettrait en gros de générer 10 TWh d’électricité donc la France a déjà assez de thorium pour subvenir à environ 190 ans d’électricité avec sa consommation actuelle !

Couverture de Science & Vie en Novembre 2011 : Le Nucléaire sans uranium c’est possible. Plus sûr, plus propre… et pourtant ignoré depuis 50ans.

Le forum pour la 4ième génération

La quantité d’uranium dans le monde permettrait de continuer à faire tourner des centrales pour 200 ans environ avec notre production actuelle mais bien entendu, si la production nucléaire augmente (ce qui est hautement probable avec des pays comme la Chine et l’Inde dans la course), ce sera beaucoup moins, les pronostics donnent la fin de l’uranium pour la fin du siècle et nos enfants sont donc concernés !! C’est entre autre pour cette raison qu’un forum nommé « Génération IV » a vu le jour entre 14 pays pour choisir une solution de 4ième génération pour le nucléaire. Aujourd’hui, le réacteur EPR en construction à Flamanville en Normandie fait partie de la 3ieme génération mais appartient toujours à la filière de réacteur à eau pressurisée (REP) et on ne peut pas dire que ce soit une réussite pour l’instant…. Bref, ce forum étudie ainsi 6 nouvelles filières prometteuses pourl’avenir nucléaire: https://www.gen-4.org/gif/jcms/c_40486/technology-systems.

Dans ces 6 propositions, il y en a une qui mérite notre attention et qui serait à mon avis la seule solution vraiment intéressante pour des raisons de sûreté et de déchets : Les réacteurs à sels fondus au Thorium.

Les réacteurs à sels fondus

Dans ce type de réacteur, le combustible est liquide et sert également de caloporteur. On mélange des éléments fissibles ou fertiles dans des sels fondus et on fait circuler le tout dans le réacteur ou une réaction en chaine peut se produire et générer beaucoup de chaleur suite à la fission de certains éléments. Il y a ensuite 2 grandes variantes de ce type de réacteurs

  • Les réacteurs à neutrons thermiques où un modérateur comme le graphite est indispensable pour ralentir les neutrons et contrôler la réaction en chaine.
  • Les réacteurs à neutrons rapides où aucun modérateur n’est nécessaire. Dans ce cas, ces réacteurs peuvent fonctionner en surgénérateurs, c’est-à-dire qu’ils peuvent produire plus d’éléments fissibles qu’ils n’en consomment en utilisant un élément fertile à la base comme le thorium-232, c’est-à-dire que cet élément peut produire un élément fissible en absorbant un neutron dans son noyau.

Schéma d’un réacteur à sels fondus.

Pour cette raison, un réacteur chargé uniquement avec du thorium ne peut pas démarrer. Pour initier la première fission avec un élement fertile comme du thorium, il faut un élément fissible comme de l’uranium ou du plutonium en quantité non négligeable (plusieurs tonnes pour réacteur de 1 GW) et une fois que c’est partie, le réacteur tourne en cycle fermé jusqu’à consommer pratiquement tous les éléments fissibles qui sont recyclés en son sein. C’est pour cette raison qu’un réacteur de ce type produit beaucoup moins de déchets nucléaires fissibles comme le plutonium et les transuraniens vu qu’il les consomme et surtout il permettrait de nous débarrasser de certains déchets embêtants dont nous ne savons que faire aujourd’hui. A titre d’information, après 70 ans de nucléaire, il y a 500 tonnes (déclarés) de plutonium dans le monde.  On peut d’ailleurs voir ce type de réacteur comme un incinérateur à déchets nucléaires qui a en plus l’avantage de pouvoir faire de l’électricité !

Les premiers à se pencher sur la question du réacteur à sels fondus furent les Américains du Laboratoire National d’Oak Ridge (ORNL) avec le fameux Alvin Weinberg, l’ancien directeur du laboratoire pendant le projet Manhattan. Le réacteur à sel fondu expérimental MSRE fonctionna entre 1965 et 1969, d’abord avec de l’uarium-235 puis avec l’uranium-233 et du plutonium la dernière année, prouvant alors la faisabilité et la viabilité d’un tel concept mais en 1973 le gouvernement américain coupe tous les budgets pour la filière des réacteurs à sels fondus et leur utilisation potentiel avec du thorium pour se concentrer sur la filière uranium exclusivement, plus en phase avec le côté militaire.

Voici un dessin pour vous donner une petite idée de la différence entre un réacteur à sels fondus au thorium et un réacteur à eau pressurisé « standard » à l’uranium. On comprend tout de suite l’intérêt de la chose en matière de quantité de minerai et de déchets.

Comparaison entre combustibles et déchets pour 2 réacteurs de 1 GW utilisant de l’uranium et de l’eau pressurisée en haut et un réacteur à sels fondus au thorium en bas (Source).

Les avantages de cette technologie sur les autres filières nucléaires sont les suivants:

  • Pérennité: Les ressources en thorium sur la Terre sont abondantes, on estime à 30 000 ans notre autonomie.
  • Sûreté: Pas d’emballement du réacteur possible comme Tchernobyl.
  • Sûreté: Combustibles liquides évitant le risque de dégradation et d’explosion des bâtiments comme à Fukushima. Ces explosions sont dues à l’hydrogène dégagé par le zirconium des crayons d’uranium actuels.
  • Sûreté: Pas de haute pression et donc moins de risque (circuit à 1 bar contre 155 bars).
  • Sûreté: En cas de panne de refroidissement : on peut vidanger de liquide dans une cuve isolée sous le réacteur à travers un « bouchon froid » qui fond en cas de panne électrique et éviter une catastrophe comme à Fukushima.
  • Déchets: 10 000 fois moins de déchets à vie longue (transuraniens comme plutonium).
  • Prolifération: Beaucoup plus difficile de faire une bombe atomique à partir de cette filière (mais pas impossible).

Néanmoins, il y a des inconvénients :

  • Démarrage: Il faut un élément fissible comme de l’uranium ou du plutonium au début pour initier la réaction en chaine (mais ce peut être un avantage pour se débarrasser de notre plutonium stocké).
  • Déchets : Il y a beaucoup moins de déchets à vie longue mais cette filière génère tout de même des déchets de fission qu’il faudra gérer sur des centaines d’années ainsi que du protactinium 231 (période : 33 000 ans).
  • Recherche: pour aboutir à un réacteur industriel, beaucoup de recherches sont encore à faire comme cette filière a été abandonnée dans les années 60. Daniel Heuer, directeur de recherche au CNRS de Grenoble et travaillant sur un tel réacteur estime qu’entre 10 et 15 ans de développement sont nécessaires et que si une filière thorium est choisie en 2040, il faudra attendre 2070 pour la voir sur le marché (source).

Au regard de ces avantages indéniables, les Chinois et les Indiens travaillent actuellement sur ce sujet très intéressant pour eux étant donné leurs réserves en thorium importantes comparées aux réserves en uranium mais la route sera encore longue. Il faut déjà qu’ils se réapproprient les connaissances qu’ont accumulé les Américains jusque dans les années 70 avant d’aller plus loin.

Quelques autres alternatives nucléaires

En 1993, Carlo Rubbia, prix Nobel de physique travaillant au CERN (Organisation Européenne pour la Recherche Nucléaire) propose d’utiliser un accélérateur de particules pour démarrer la réaction en chaine dans un réacteur sous-critique (comme un réacteur au thorium) et éviter ainsi la consommation d’uranium ou de plutonium pour démarrer et entretenir la réaction en chaine. On parle alors de réacteur nucléaire piloté par accélérateur (ADS). Ce projet est prometteur mais l’investissement en termes de recherche et d’infrastructures pour un tel réacteur parait actuellement peu envisageable pour l’étape industrielle.

Encore mieux que le réacteur à sels fondus au thorium : le réacteur à fusion thermonucléaire. Dans ce type de réacteur, plus de fission mais de la fusion et donc plus d’éléments lourds hautement radioactifs. Le combustible est quasi-infini (deutérium et tritium), il n’y a aucun déchets radioactif à vie longue (quelques déchets gérables sur une centaine d’années) et aucun risque d’emballement du réacteur (pas de réaction en chaine comme avec la fission). Beaucoup de recherches dans le monde vont dans ce sens comme le fameux projet international ITER en cours de construction à Cadarache dans le sud de la France qui sera une expérience scientifique de fusion nucléaire pour démontrer que cette voie est possible pour l’avenir. Mais ici, les spécialistes parlent d’une industrialisation possible pour la fin du siècle seulement car c’est une machine extrêmement complexe qu’il faut développer mais même s’il faut 100 ans de recherche et de développement pour voir des réacteurs à fusion dans le monde, ça vaut le coup, non, pour sauver la planète ? Vous pouvez lire ici un article sur ITER que j’ai fait il y a 10 ans. Aujourd’hui, c’est en construction et la première réaction de fusion est attendue pour 2025.

Construction du bâtiment principal qui hébergera ITER (photo personnelle prise en Octobre 2016).

Sources:

Une petite histoire de l’énergie nucléaire

Si vous pensiez que l’humanité s’est dite un jour « nous allons investir massivement pour faire de l’énergie d’origine nucléaire de la meilleure manière possible » eh bien vous vous trompiez. Le nucléaire « civil » comme on l’appelle, n’a été qu’une sorte d’opportunité pour servir la fabrication de bombes atomiques. Sans bombe atomique et sans propulsion nucléaire pour les sous-marins militaires, il n’y aurait sans doute pas eu de nucléaire civil tel qu’il est aujourd’hui…

Tout a donc commencé pendant la seconde guerre mondiale avec le programme de nucléaire militaire américain pour fabriquer la première bombe Atomique : le projet Manhattan. Une fois que les politiques et que les militaires ont compris le potentiel de destruction de la bombe atomique, tout est allé très vite… trop vite peut être…

Le tout début

Nos centrales nucléaires actuelles utilisent l’énergie de fission des noyaux atomiques qui a été décrit correctement la première fois à Berlin fin 1938 par Otto Hahn et Fritz Strassmann (voir ce billet sur l’énergie nucléaire de fission et de fusion). Dès 1939, en France, Fréderic Joliot-Curie publie avec 3 autres scientifiques un article dans la prestigieuse revue Nature expliquant le phénomène de réaction en chaine de l’uranium et dépose même un brevet le mois suivant sur les possibilités énergétiques et militaires d’un tel phénomène. Mais avec l’arrivé de la guerre, toutes les recherches françaises sur ce domaine sont stoppées en mai 1940.

Aux Etats-Unis, Le président Roosevelt est averti dès 1939 d’une possibilité de bombe atomique par une fameuse lettre en partie signée par un fameux Albert Einstein (qui d’ailleurs avouera plus tard regretter cette lettre). Le projet Manhattan est alors lancé en 1942 et on connait la suite avec son triste aboutissement en 1945 à Hiroshima et Nagasaki. Les USA ont pour cela dépensé l’équivalent de 25 milliards de dollars d’aujourd’hui en seulement 3 ans (imaginez qu’aujourd’hui, le plus grand projet scientifique mondial comme l’accélérateur de particules LHC de 27 km au CERN a coûté 9 milliards de dollars au total avec ses expériences répartis sur des dizaines d’années et une vingtaine de pays et plus de 600 instituts scientifiques de 113 pays). Bref, ce projet de bombe atomique complètement fou a été possible en partie grâce à la mise au point de réacteurs nucléaires permettant de transformer de l’uranium-238 en Plutonium-239, indispensable pour faire une bombe atomique efficace comme Fat Boy larguée sur Nagasaki (celle d’Hiroshima était constitués d’uranium enrichi et présentait à ce titre plusieurs inconvénients). Le premier réacteur nucléaire a ainsi vu le jour en 1942 avec le célèbre Enrico Fermi à Chicago et fonctionnait donc à l’uranium vu que l’objectif n’était pas de faire de l’électricité mais bien produire du plutonium pour la bombe atomique.

Chicago Pile-1 : dessin du premier réacteur nucléaire artificiel construit par Enrico Fermi en 1942 dans le cadre du projet Manhattan.

Du militaire au civil

Après la guerre, les scientifiques et industriels se sont donc intéressés à la possibilité d’utiliser l’énergie nucléaire dans un réacteur pour produire de l’électricité étant donné la gigantesque énergie dégagée sous forme de chaleur lors de la fission nucléaire. L’intérêt du rendement du nucléaire est vite compris : la fission de 1 g d’uranium-235 correspond à 1,6 tonne de fuel ou à 2,8 tonnes de charbon en terme énergétique.

Contrairement à ce que la plupart des gens pensent, ce sont les Russes qui ont les premiers fabriqué et mis en opération un réacteur nucléaire civil raccordé au réseau électrique en 1954 (d’une puissance modeste de 5 MW). Les Français, les Anglais et les Américains inaugureront leurs centrales nucléaires électriques dans les 2 ou 3 années suivantes avec Marcoule en France (7 MW), Sellafield en Grande-Bretagne (50 MW) et Shippingport aux Etats-Unis  (60 MW) en 1957, soit 12 ans après la bombe atomique !!

Mais la guerre froide se profile entre les USA et l’URSS et la course à l’armement nucléaire va nécessiter de grandes quantités d’uranium et de plutonium. Une stratégie commune entre applications militaires et civiles a vite été trouvée et promue par les gouvernements ! Le nucléaire civile va alors battre son plein dans plusieurs pays jusqu’à 1979 qui voit le premier accident « sérieux » de Three Mile Island aux Etats-Unis : le réacteur s’emballe et la moitié de ce dernier fond. La catastrophe est évitée de toute justesse mais 200 000 personnes ont dû évacuer la zone autour de la centrale. A partir de cette date, l’opinion publique aux USA et dans le reste du monde commence à comprendre que cette énergie qui paraissait parfaite peut être dangereuse et le nucléaire civil prend un virage clé dans son histoire. Mais la progression a ensuite repris et c’est bien sûr 7 ans plus tard avec l’accident de Tchernobyl en 1986 que le monde réalise alors vraiment le danger et la progression du nucléaire dans le monde est stoppée nette.

Evolution du parc nucléaire dans le monde (source : AIEA). On voir clairement l’impact de Three Mile Island (1979) et Tchernobyl (1986) qui stoppe la progression du nucléaire.

Les filières nucléaires

Les 4 premiers réacteurs industriels destinés à fabriquer de l’électricité en URSS, en France, en Grande-Bretagne et aux Etats-Unis sont tous basés sur le même combustible : l’uranium. Logique vu que ce sont des réacteurs de ce type qui peuvent produire du plutonium-239 permettant de faire des bombes atomiques…

En fait, pour faire un réacteur nucléaire, les scientifiques ont l’embarra du choix sur les technologies à utiliser : on parle alors de « filière » qui dépend de 3 ingrédients principaux:

  • Le combustible:
    • de l’uranium
    • du thorium
  • Le caloporteur (fluide pour transporter la chaleur) :
    • de l’eau pressurisée
    • de l’eau bouillante
    • du gaz (comme du CO2 ou de l’hélium)
    • du sodium
    • des sels fondus
  • Le modérateur (élément permettant de ralentir les neutrons et permettre une réaction en chaine) :
    • de l’eau ordinaire
    • de l’eau lourde
    • du graphite
    • aucun dans le cas de réacteur à neutrons rapides.

Avec un peu de mathématique de base, on peut ainsi dénombrer ici 2x5x4 = 40 grands types de réacteurs différents (sans compter les centaines de petites variantes possibles). Il faut alors faire un choix mais pas n’importe lequel car quand on s’embarque dans une filière, difficile de faire machine arrière. En effet, l’énergie nucléaire n’est pas à la portée de tout le monde et est très difficile à mettre en place. Si on considère l’argent, le temps, la recherche, les technologies, la politique, l’écologie et la sûreté qui doivent être mis en place à l’échelle d’un pays entier, le choix de la filière est extrêmement important. Sauf que si on considère la question militaire en même temps, le choix devient beaucoup plus simple… Et dans ce cas, les questions d’écologie et de sûreté sont reléguées derrière la priorité militaire…

C’est en partie pourquoi tous les réacteurs nucléaires dans le monde utilisent de l’uranium comme combustible de base et 63 % sont des « REP » : Réacteurs à Eau Pressurisée qui présentent en plus l’avantage d’être plutôt compacts en utilisant de l’eau ordinaire et donc parfaitement adapté pour propulser un sous-marin qui a de l’eau facilement à disposition ! Sur les 438 réacteurs nucléaires dans le monde en fonctionnement aujourd’hui, voici la répartition :

  • 279 à eau pressurisée (REP) dont font partie Three Mile Island et Fukushima,
  • 78 à eau bouillante (REB),
  • 49 à eau lourde pressurisée (PWHR),
  • 15 refroidis au gaz (GCR),
  • 15 à l’eau et au graphite (RMBK) dont fait partie Tchernobyl,
  • 2 réacteurs à neutrons rapides (RNR) pour études scientifiques.

Et vous constaterez qu’il y en a zéro utilisant du thorium avec des sels fondus comme caloporteur alors que ce type de réacteur avait été pressenti par tous les spécialistes dans les années 60 comme la meilleure solution pour produire de l’électricité en termes de déchets et en termes de sûreté (comme Alvin Weinberg, l’ancien directeur du laboratoire américain d’Oak Ridge ayant participé au projet Manhattan). Mais un réacteur à base de thorium ne produit pas de plutonium pour fabriquer des bombes et c’est bien là tout le problème de notre histoire, mais il n’est peut-être pas trop tard !

La suite dans le prochain billet pour plus de précisions sur les réacteurs à sels fondus utilisant du thorium qui pourraient être une meilleure solution dans l’avenir.

Le verre dans tous ses états

Une histoire de vitrail de cathédrales

Lors d’une visite de cathédrale en région centre pendant mon enfance (oui, j’ai eu une enfance difficile), je me rappelle qu’on m’a expliqué que les vitraux étaient très vieux (genre XIIème siècle) et que la preuve était la suivante: le verre qui constitue le vitrail a coulé avec la gravité et les vitres sont plus épaisses en bas qu’en haut. Me rappelant cette anecdote,  je vais chercher un peu sur le net et cette explication est finalement complètement erronée (la preuve ici dans ce papier paru dans l’American Journal of Physics en 1998). Ce papier permet de calculer le temps qu’il faut au verre pour couler (ce qu’on appelle le temps de relaxation) après l’étude chimique des verres employés aux temps des cathédrales. Dans les vitraux du 12ème siècle, il faudrait compter plusieurs milliards d’années avant de voir le verre couler ! Ça serait physiquement possible en « seulement » 800 ans mais avec une température moyenne de 400 degrés ! En fait, c’est la méthode de fabrication de l’époque qui ne permettait pas la fabrication de vitraux « plats » mais plus épais d’un côté. Le coté le plus épais était donc naturellement placé en bas pour des questions de stabilité du vitrail.

    vitrail-blog

Verre : Solide ou liquide ?

OK, le verre peut donc quand même couler mais dans des temps très longs à température ambiante. Mais au fait, le verre, c’est un liquide ou un solide ? Physiquement parlant, le verre est un solide amorphe : c’est un solide car il possède un volume et une forme propre mais il est qualifié de amorphe car ses atomes ne sont pas structurés de manière organisée à moyenne et à grande échelle, contrairement aux solides cristallisés qui nous sont plus familiers comme les métaux, la neige, le sucre, etc. En fait, cette question est tout de même encore débattue par certains scientifiques mais la communauté considère bien le verre comme un solide, même s’il possède la structure atomique désorganisée d’un liquide.

Transition vitreuse

Pour comprendre la confusion des thermodynamiciens sur l’état du verre, il faut regarder comment le verre est fabriqué :

  • On prend de l’oxyde de silicium (constituant du sable) avec un fondant (qui permet d’abaisser la température fusion) et on les fait fondre à haute température (environ 1300 C) : ces composés sont alors sous forme liquide.
  • On procède ensuite à un refroidissement extrêmement rapide de ce liquide de manière à passer le point de fusion très vite et à ne pas laisser le temps aux atomes de se cristalliser pour former un solide classique, on obtient alors un liquide surfondu.
  • Si on abaisse encore la température mais cette fois-ci doucement, on obtient un « verre » à partir de la « température  de transition vitreuse » où la viscosité augmente alors brutalement pour former un solide amorphe.

 thermo_verre

Le cristal… de verre

Nous venons de voir que par définition, le verre est un solide amorphe, ce qui est l’opposé d’un cristal. Mais alors, comment peut-on fabriquer des verres (à boire) et des carafes en cristal ? Eh bien c’est tout bonnement impossible ! Le mot « cristal » est ici un abus de langage (au sens du physicien) car la structure atomique du « cristal de verre » n’est pas un cristal mais bien un verre !

cristal-francais-verre-vinEn fait, le cristal de verre est un verre dans lequel il y a au moins 24% de plomb (on parle même de cristal supérieur quand la proportion de plomb dépasse les 30% de la masse totale). C’est pour cela que les verres en cristal sont si lourds ! En effet, le plomb a de nombreux avantages dans la fabrication du verre : il permet d’abaisser la température de fusion du verre et donc permet un travail plus facile car plus malléable pendant plus de temps. De plus, le cristal de verre possède un bel éclat à cause de son indice de réfraction important ainsi qu’une sonorité cristalline.

saturnismeAutre chose de très important : ne jamais boire de coca  ayant été conservé dans une carafe en cristal, ça peut être mortel ou rendre votre enfant débile (je ne rigole pas). En effet, les liquides acides (comme le coca et les alcools) peuvent devenir toxiques s’ils sont conservés dans une carafe en cristal ayant peu servi car ils se chargent en plomb jusqu’à des niveaux toxiques et on peut alors en ingérer avec tous les problèmes que cela peut occasionner comme le saturnisme. Il y a même de nombreuses personnes qui pensent que la goutte qui est observée dans la bourgeoisie européenne et nord-américaines serait en fait du saturnisme chronique (qui présente les mêmes symptomes) à cause de leur consommation régulière d’alcool dans des carafes en cristal (voir cet article du American Journal of Medecine par exemple).
Mais bon, si les carafes sont utilisées seulement quelques heures et qu’elles sont bien nettoyées, ça ne pose pas de problème et les carafes en cristal modernes sont souvent pourvues d’une couche protectrice à l’intérieur pour justement éviter de contaminer en plomb les liquides qui s’y trouvent.

Du cristal dans les détecteurs de particules ?

On m’avait déjà trompé dans mon enfance avec les vitraux de cathédrales et maintenant, à l’âge adulte, on me trompe encore dans les détecteurs de particules ! J’ai entendu au CERN que le détecteur de particules CMS détectait dans le LHC certaines particules à l’aide de cristaux de « verre au plomb ». Effectivement, on peut voir ces espèces de lingots de verre, extrêmement lourds, installés dans le détecteur. Eh bien c’est encore faux ! Ces cristaux sont de vrais cristaux au sens physique du terme, avec une structure atomique bien ordonnée, et ce ne sont absolument pas des verres !

En fait, ces cristaux « plombés » permettent de freiner certaines particules et donc de mesurer leur énergie (on parle de calorimètres). Par exemple, le détecteur de particules CMS au CERN possède 80 000 cristaux de tungstate de plomb (PbWO4) pour mesurer l’énergie des particules sensibles à la force électromagnétique comme les photons et électrons. A leur passage dans ces cristaux, les électrons et photons scintillent et génèrent de la lumière de manière proportionnelle à leur énergie et cette lumière générée est ensuite transformée en signal électrique. Ce signal est alors amplifié pour être par la suite traité informatiquement de manière à recalculer avec une très grande précision l’énergie de la particule qui a traversé le cristal (mais pour que ça marche, il faut contrôler la température du cristal au dixième de degré, ce qui n’est pas super facile).

Au total, il a fallu plus de 10 ans aux scientifiques et ingénieurs pour fabriquer ces 80 000 cristaux aux propriétés très spéciales dans une ancienne base militaire russe ainsi que dans un institut chinois à Shanghai. Imaginez que la densité de ces cristaux est de 8,3 tonnes par m3, soit plus que de l’acier (7,8 tonnes par m3) !! Chaque petit cristal pèse 1,5 kg alors que son volume est analogue à une petite tasse à café (parallélépipède de 2,2 cm de côté et 23 cm de long).

 CMS_CristalCristaux de tungstate de plomb utilisés dans le détecteur CMS (et ce n’est pas du verre !)

 Des particules plus rapides que la lumière dans le verre au plomb

En revanche, il est vrai qu’il existe bel et bien des détecteurs de particules utilisant du verre au plomb pour détecter des particules énergétique comme les muons. Ces verres au plomb ont également une grande densité (plus de 6 tonnes par m3) et quand des muons ultra-relativistes (qui vont presque aussi vite que la lumière) traversent du verre au plomb, ils sont beaucoup moins freinés que les photons de lumière et vont alors plus vite que la lumière dans le verre au plomb (mais attention, en aucun cas ils ne dépassent la vitesse de la lumière dans le vide). Ce faisant, un cône de lumière bleue est émis le long de la trajectoire de ces muons qui dépassent la vitesse des photons, c’est ce qu’on appelle l’effet Tcherenkov. C’est le même effet qu’on peut observer dans les piscines de stockage des déchets radioactifs dans les centrales nucléaires où une belle lumière bleue est émise du fait que plusieurs particules vont plus vites que les photons dans l’eau de la piscine.

L’Andra: stocker les déchets nucléaires pour un million d’années

Ce week-end, le C@fé des Sciences était en déplacement pour visiter le laboratoire de recherche souterrain de Meuse/Haute-Marne piloté par l’Andra (l’Agence Nationale pour la gestion des Déchets RAdioactifs). En effet, depuis 2006, une loi votée par l’Assemblée Nationale et de Sénat (La loi du 28 juin 2006) donne à l’Andra la mission de concevoir et d’implanter le stockage qui accueillera les déchets nucléaires les plus toxiques.

andra_Eric     Notre Guide Eric, à 500 mètres sous terre, nous fait un petit cours de géologie à 1h du matin.

Je vais essayer de vous relater ici notre visite qui a été extrêmement intéressante, particulièrement grâce à notre guide Eric, qui a su nous captiver et nous émerveiller tout en nous faisant prendre conscience de l’importance et de la difficulté d’un tel projet que l’on ne peut qualifier que d’ambitieux mais indispensable si l’on veut être responsable et continuer à dormir sur nos deux oreilles.

Les déchets concernés

En gros, on peut catégoriser deux grandes catégories de déchets nucléaires :

  • Les déchets technologiques et de démantèlement : ce sont tous les matériaux qui ont été en contact avec des sources radioactives et qui ont été activés à leur tour comme les combinaisons, les gants, les outils, le béton environnant, les tuyaux, etc.
  • Les déchets de combustibles dans lesquels on ne peut plus rien exploiter suite à la fission dans le réacteur puis au retraitement à la Hague.

Ici, on va s’intéresser seulement aux déchets de combustibles qualifiés de Haute Activité (HA) et de Moyenne Activité à Vie Longue (MA-VL). Ces déchets ne représentent que 3,2% du volume total des déchets mais 99,9 % de la radioactivité totale (et donc en gros de la dangerosité pour faire court). L’élimination totale du danger de certains déchets HA peut atteindre le million d’années à cause de certains éléments. Les 7 produits de fissions les plus longs à disparaitre sont par ordre d’abondance :

  • Le césium 135, demi-vie de 2,3 millions d’années pour 3,45 %.
  • Le zirconium 93, demi-vie de 1,53 million d’années pour 3,06  %.
  • Le technétium 99, demi-vie de 211 100 ans pour 3,06 %.
  • L’iode 129, demi-vie de 15,7 millions d’années pour 0,64 %.
  • Le palladium 107, demi-vie de 6,5 millions d’années pour 0,09 %.
  • L’étain 126, demi-vie de 100 000 ans pour 0,03 %.
  • Le sélénium 79, demi-vie de 280 000 ans pour 0,025 %.

A noter qu’il existe aussi d’autres éléments lourds non fissionnés que l’on appelle les actinides mineurs comme l’américium ou le neptunium mais je n’en parlerai pas ici en détail.

Le labo de Bure

Le laboratoire de recherche souterrain de Meuse/Haute-Marne, ou  « labo de Bure » pour les intimes, est situé à la frontière entre la Haute-Marne et la Meuse, à mi-chemin entre Troyes et Nancy. Il a pour objectif depuis 2000 d’étudier la formation géologique de cette région à environ 500 mètres sous terre. En effet, à cette profondeur se cache une couche d’argilite (mélange dargile et de quartz) de  plus de 100 mètres d’épaisseur qui est particulièrement propice au stockage des déchets nucléaires à une échelle de temps avoisinant le million d’années pour plusieurs raisons:

  • Couche crée il y a 150 millions d’années entre 2 couches de calcaire. On connait bien son histoire géologique sur une longue période et on peut extrapoler raisonnablement.
  • Stabilité tectonique de la région évitant de déformer la roche et les déchets qui y sont stockés.
  • Roche homogène, sans faille et sans surprise pour les forages.
  • Bonne résistance à la compression (équivalent à du béton).
  • Faible conductivité thermique pour éviter de chauffer les alentours avec les déchets radioactifs qui vont rayonner et donc chauffer pendant un bon moment.
  • Roche plutôt bien imperméables dans laquelle l’eau se déplace très lentement et les déchets devraient donc rester au sec relativement longtemps mais inévitablement, sur plus de 100 000 ans, l’eau atteindra les déchets et il faut donc s’assurer que l’eau qui peut transporter des éléments radioactifs se déplace peu et que cela arrivera le plus tard possible.

andra_alveoleAlvéole creusée dans une galerie visant à expérimenter comment la roche se comporte et se déforme après le creusement (c’est dans de telles alvéoles que les colis de déchets HA seront insérés en file indienne)

Aujourd’hui le laboratoire de Bure compte 1,5 kilomètres de galeries dans lesquelles 660 forages ont été réalisés et équipés avec plus de 3 000 capteurs fournissant plus de 7 000 points de mesure (pression, température, déformation, composition chimique, PH, etc.).  L’idée consiste donc à valider un futur stockage profond des déchets nucléaires HA et MA-VL dans les environs. Des expérimentations dans ce laboratoire souterrain visent notamment à :

  • Etudier l’eau contenue dans la roche, sa composition et ses déplacements.
  • Comprendre comment la roche se comporte après des forages et creusements en tout genre. Eh oui, à cette profondeur, si vous faites un trou « rond » de plusieurs dizaine de mètres de long, en peu de temps, vous obtiendrez un trou « carré » à cause des contraintes de la roche sous pression.
  • Etudier la conduction thermique dans la roche pour comprendre comment la chaleur se propage.
  • Etudier la diffusion des éléments radioactifs dans la roche : un élément en forte concentration à un endroit à toujours tendance à se diffuser dans la matière environnante de manière à équilibrer les concentrations.
  • Etudier comment le verre, l’acier et le béton se comportent dans la roche et dans l’eau sous haute pression car ce sont principalement ces 3 matériaux qui vont permettre de contenir les déchets le plus longtemps possible.

Bure_eauExpérience visant à analyser l’eau contenue dans la couche d’argilite

Vous l’aurez compris, ce laboratoire souterrain est unique en France et permet une analyse géologique, chimique et physique de cette couche d’argilite dans l’objectif d’y mettre nos déchets nucléaires pour longtemps, très longtemps…

Le projet Cigéo

Suite à la confirmation que ce site est propice au stockage, l’Andra a donc mis sur pied un projet pharaonique dénommé Cigéo pour stocker tous les déchets de combustibles HA et MA-VL produits jusqu’à présent ainsi que ceux qui seront produits jusqu’à la fin du parc nucléaire français actuel. On parle ainsi des déchets issus des 58 réacteurs nucléaires actuels plus le réacteur de Flamanville actuellement en construction.

Les déchets sont conditionnés sous forme de colis provenant principalement de la Hague. Un colis HA fait 180 litres et possède « seulement » 70 kg de déchets pour 420 kg d’emballage. Les déchets sont noyés dans une espèce de verre (vitrification) de manière à ce que les déchets soient noyés et dilués le plus possible pour s’assurer que la masse critique des éléments les plus lourds ne soit pas atteinte pour entamer une nouvelle réaction de fission. Les colis MA-VL contiennent quant à eux 550 kg de déchets pour 160 kg d’emballage. Le volume des colis pour Cigéo est estimé à 80 000 m3 (10 000 m3 de colis HA et 70 000 m3 de colis MA-VL), soit une vingtaine de piscines olympiques à enterrer à 500 mètres.

 andra_HAVLUn colis de déchet HA (Haute activité) : 180 litres pour 490 kg au total dont 70 kg de déchet

Une fois arrivés en Haute-Marne, les colis seront alors mis dans des conteneurs de stockage avant de descendre à 500 mètres de profondeur pour être stocker dans la couche d’argilite. Le volume à stocker avec les conteneurs sera ainsi de 380 000 m3 au total, soit un peu plus que la Tour Montparnasse à Paris… Au total, le site Cigéo couvrira environ 15 km2.

En termes de financement, ce sont les producteurs de déchets qui financent l’Andra à travers une « taxe recherche » depuis 2006 qui constitue une enveloppe de 118 millions d’euros annuelle. Ainsi, EDF est le premier contributeur avec 78% du total, puis le CEA avec 17% et enfin AREVA au titre de 5%.

Le projet Cigéo est évalué à environ 15 milliards d’euros par l’Andra sur 100 ans pour la construction, l’exploitation et la fermeture du site. Bien évidemment, ce genre d’exercice est toujours à considérer avec précaution dans ce genre de projet où les dépassements sont courants et inévitables. Cigéo peut en toute logique subir une explosion du coût selon les futures décisions politiques sur le nucléaire.

Selon l’ANDRA, pour un nouveau réacteur nucléaire sur l’ensemble de sa durée de fonctionnement, ce coût représente de l’ordre de 1 à 2 % du coût total de la production d’électricité qui est en principe reflété dans la facture d’électricité. A préciser que l’Andra prévoit environ 2000 emplois sur le site pendant 100 ans.

Au niveau du planning actuel :

  • Cigéo devrait être autorisé par le conseil d’état vers 2018 après la validation des différents organismes français experts dans le domaine.
  • 2019-2025 : Début du creusement
  • 2025-2125 : un siècle de remplissage et de creusement en parallèle (exploitation). Les premier colis HA ne seront pas stockés avant 2075 car ils ne doivent pas dégager plus de 500W avant de descendre au fond (90 C en surface).
  • 2125-2225 : au moins un siècle pendant lequel les déchets pourront toujours être récupérés. Cigéo intègre une clause de réversibilité du projet au cas où une meilleure solution s’offrirait à nous, la durée et les modalités de cette réversibilité ne sont pas encore arrêtées et demeurent encore un peu floues.

 Andra_resersiblePrototype de la machine permettant d’insérer les colis dans les alvéoles et de les récupérer en cas de besoin.

Vous l’aurez compris, le projet est hautement complexe et fait interagir de nombreux domaines scientifiques comme la physique, la chimie, la géologie et tous les domaines de l’ingénieur sans parler des grandes questions sociétales, historiques et économiques qui en découlent. Cela parait réalisable en vue des compétences actuelles et du contexte économique mais nécessite encore certaines recherches pour s’assurer de la viabilité du projet sur une échelle de temps géologique.

Retenez que ce n’est pas parce qu’on est pour ou contre l’énergie nucléaire qu’il ne faut pas s’intéresser à la question du stockage des déchets. Cela permet de vraiment réfléchir à la problématique de cette énergie. Notre pays et nos prédécesseurs ont fait ce choix et nous devons assumer ces déchets qui existent aujourd’hui.

J’espère juste que la fusion nucléaire (voir mon billet de 2006 sur ITER) verra le jour à l’échelle industrielle le plus tôt possible (ça viendra forcement) et que la fission ne sera plus qu’un souvenir pour les générations futures qui n’auront pas ce problème de stockage à long terme.

Et si vous avez de meilleures idées, les commentaires sont là pour ça !

L’eau chaude gèle avant l’eau froide : l’effet Mpemba

Alors que j’étais en train de lire un livre au coin du feu dans le canapé (Impasciences de J-M. Lévy-Leblond que je vous conseille en passant), j’apprends que si on place un verre d’eau à 50 C et un verre d’eau à 20 C dans le congélateur, le verre d’eau initialement à 50 C gèle avant celui à 20 C ! Je questionne alors ma voisine de canapé, ma belle-sœur (qui est autant physicienne que je suis trapéziste volant), à ce sujet qui me répond sans ciller que évidemment, l’eau chaude gèle avant, et que tout le monde sait cela. J’étais abasourdi de cette révélation alors que je n’en avais jamais entendu parler, moi, ayant fait une bonne partie de mon doctorat en thermodynamique ! Je m’indigne de cet effet en contradiction totale avec mon intuition ainsi qu’avec mon raisonnement scientifique. Je vais alors consulter sur Wikipédia l’effet Mpemba, qui stipule que l’eau chaude peut geler avant l’eau froide. Ce serait donc vrai… C’est même connu depuis l’Antiquité et redécouvert plus « scientifiquement » en 1963 par un lycéen nommé E.B. Mpemba en Tanzanie.

Mpemba1

Refroidissement et solidification de 30mL d’eau déminéralisée dans un bécher en verre non couvert et non agité

Expérience à la maison

Je m’empare alors de trois verres que je remplis avec 60 g d’eau à 21 C, 31 C, et 53 C (mesurés avec un thermomètre infrarouge). Je les mets au congélateur sur le même étage et je mesure les températures des 3 verres toutes les 5 minutes. Verdict : pas d’effet Mpemba, c’est clairement le verre initialement à 21 C qui gèle, puis celui à 31 C, puis celui à 53 C, les 3 courbes ne se sont pas croisées. Mystère, ça n’a pas marché avec moi…

glaciation

Explications scientifiques

Je cherche alors un peu partout une explication scientifique de l’effet Mpemba et là abomination : personne ne sait vraiment pourquoi et en plus ça n’arrive pas à tous les coups, ça a même l’air difficilement reproductible selon les expériences mais ça a néanmoins été abondamment observé. Ce phénomène reste donc inexpliqué aujourd’hui ! Les scientifiques s’étant penchés sur la question sont tous d’accord pour dire que c’est sans doute un agglomérat de phénomènes interagissant les uns avec les autres qui se produisent dans cette expérience simple beaucoup plus compliquée qu’il n’y parait. Sont en cause :

  • Les conditions expérimentales : Dans un congélateur domestique, la température n’est ni constante ni uniforme à l’intérieur. De plus, la composition de l’eau varie et la température initiale du récipient ainsi que sa nature ont leur importance. La température du congélateur est aussi un facteur important à prendre en compte.
  • L’évaporation de l’eau chaude et donc la perte de masse mais non satisfaisant comme explication car même sur des récipients fermés hermétiquement on peut observer le phénomène et après pesage de la masse perdue, ça ne justifie pas cet effet.
  • Les gaz dissous dans l’eau chaude changent ses propriétés comme la conductivité thermique ou la capacité calorifique (chaleur à extraire d’un kilogramme d’eau pour la refroidir de un degré). Cependant, même en préchauffant l’eau à l’avance de manière à obtenir la même composition de gaz dissous, l’effet Mpembra perdure.
  • La surfusion de l’eau: l’eau peut geler bien en dessous des 0 C à pression atmosphérique dans certaines conditions (jusqu’ à -39 C !). De plus, la présence de gaz dissous renforce cet effet. Le passage entre la surfusion et l’état solide a lieu si des poussières tombent dans l’eau ou si des cristaux de glace se forment : processus très aléatoire difficilement reproductible.

 Mpemba3

Différence de surfusion (et donc de temps pour geler) entre différents échantillons d’eau contenus dans des bouteilles ayant la même température initiale. La courbe bleue foncée en bas représente la température du congélateur.

  • Les courants de convection plus prononcés dans l’eau chaude accélèrent les échanges de chaleur et donc le refroidissement. La profondeur du récipient ainsi que le gradient de température sont des éléments significatifs à prendre en compte également dans les phénomènes convectifs.

Interprétations

Dans tous les cas, la raison scientifique dit que de l’eau à 50 C passe forcément par de l’eau à 20 C avant de geler car le refroidissement est un processus continu donc on retombe sur la même condition qu’avec le verre à 20 C à un temps postérieur. Il y a donc 2 solutions plausibles à cette observation :

  • Le processus de refroidissement de l’eau est très complexe comme l’eau est composée de nombreux éléments et que de nombreux phénomènes physiques rentrent en jeu (convection et surfusion). Le phénomène est donc non reproductible facilement, ce pour quoi on observe parfois que l’eau chaude gèle avant l’eau froide. Je n’ai malheureusement pas de trouver des statistiques sérieuses à ce sujet.
  • L’eau subit une transformation lorsqu’elle est chauffée, ce pour quoi l’eau chaude refroidie rapidement à 20 C n’a pas les  mêmes propriétés que l’eau à 20 C du robinet. Là encore, difficile de trouver des explications.

Quand on regarde de plus près les nombreuses expériences faites pour trouver la cause majeure expliquant l’effet Mpemba, on découvre que la convection a clairement un rôle important : lorsque que l’eau est mélangée constamment pendant le refroidissement, l’influence des différences de convection est très réduite et on observe que l’effet Mpemba est grandement diminuée           (quasiment plus de différence entre de l’eau initialement à 20 C ou 35 C) mais néanmoins possible donc ce n’est pas la seule cause.

Mpemba2

Refroidissement et solidification de 30mL d’eau déminéralisée dans un bécher en verre non couvert et agité continuellement

Vient ensuite la surfusion de l’eau qui peut faire pencher la balance : une surfusion entre 0 C et -6 C (assez courant lors des expériences) entraine un retard de gèle d’environ 10 minutes par rapport à de l’eau qui gèle directement à 0 C, ce qui fait que les expériences sont peu reproductibles et que l’effet Mpemba n’est pas toujours observable. Même avec deux échantillons d’eau provenant de la même bouteille, on observe que la surfusion est différente. Cependant, pourquoi de l’eau initialement à 35 C aurait une surfusion plus prononcée qu’une eau initialement à 20 C ?? Je n’ai pas non plus réussi a trouver une bonne explication à cela.

Si jamais vous avez plus d’info sur ce sujet, n’hésitez pas à le signaler en commentaires.

Sources

Le démon de Maxwell

 Mes deux domaines scientifiques préférés sont sans doute la thermodynamique et la théorie de l’information. L’histoire a su allier ces 2 grands domaines avec élégance pour comprendre le paradoxe du démon de Maxwell.

En 1871, James Clerk Maxwell (celui de la théorie électromagnétique) tente de contredire le second principe de la thermodynamique en inventant une expérience de pensée dans laquelle il invoque un « démon » mais ce n’est véritablement qu’en 1949 que Léon Brillouin, en utilisant la théorie de l’information, va permettre de lever le voile sur le paradoxe de cette expérience de pensée et redonner au second principe de la thermodynamique son caractère universel.

Le second principe de la thermodynamique

C’est un des principes de la physique les plus intéressants dans le sens où il cache de nombreuses implications. Il est au premier abord difficile à comprendre à cause de la notion d’entropie qui n’est pas facile à appréhender mais on l’entend souvent de la manière vulgarisée suivante :

« Le désordre d’un système isolé ne peut qu’augmenter dans le temps »

 L’entropie d’un système est en quelque sorte son désordre. Si tous les atomes d’un gaz bougent lentement, il y a peu de chocs entre eux et l’entropie sera alors faible (et le gaz sera froid). Au contraire, si tous les atomes d’un gaz bougent rapidement, les chocs entre eux sont nombreux et l’entropie est grande (et le gaz sera chaud). On considère ici des systèmes isolés, c’est-à-dire qui n’échangent ni matière ni énergie avec l’extérieur (donc pas de chaleur non plus).

 Le second principe stipule donc que toutes les transformations que peut subir un système isolé génèrent de l’entropie (du désordre) et que cette grandeur ne peut donc qu’augmenter dans le temps. Ceci veut dire que pour créer de l’ordre (faire baisser l’entropie), un agent extérieur doit forcément intervenir. Notre Univers voit donc son entropie totale augmenter vers l’infinie en permanence vue que rien n’est externe à l’Univers par définition.

 Une des conséquences importantes de ce principe est que toutes les transformations que peut subir un système isolé ne peuvent se dérouler que dans un sens précis en suivant « la flèche du temps ». Les transformations sont ainsi qualifiées d’irréversibles dans le temps car génératrices d’entropie. Quelques exemples de transformations irréversibles évidentes dans la vie quotidienne :

  • Lorsque l’on mélange du sirop dans un verre d’eau, jamais le sirop et l’eau ne vont complètement se re-séparer spontanément dans le verre.
  • Lorsque l’on mélange de l’eau chaude et de l’eau froide dans un verre, jamais l’eau chaude et l’eau froide ne vont complètement se re-séparer spontanément dans le verre.
  • Si un verre tombe par terre et se casse, jamais il ne se reconstituera par lui-même.

L’expérience de Maxwell

L’expérience pensée par Maxwell pour contredire le second principe de la thermodynamique est relativement simple à comprendre mais extrêmement difficile à mettre en œuvre, d’où la création de ce « démon ».

 

Imaginons 2 compartiments contigus dans lesquels on a mis d’un coté un gaz froid et de l’autre un gaz chaud. Il existe une porte entre ces 2 compartiments et un démon peut l’ouvrir et la fermer à sa guise. Le démon, malicieux, ouvre la porte de manière à ce que les atomes rapides passent dans le compartiment chaud et que les atomes lents passent dans le compartiment froid. Ainsi, plus le temps s’écoule et plus le gaz chaud se réchauffe et plus le gaz froid se refroidit.

Cette observation est en contradiction avec le second principe de la thermodynamique car les 2 compartiments voient leur entropie décroître : en effet, il y a plus d’ordre qu’au départ comme on a séparé les atomes rapides de ceux plus lents. La thermodynamique nous dit que dans le temps, les températures des 2 compartiments devraient converger vers la même valeur alors qu’ici ce n’est pas le cas.

La levée du paradoxe

Pour la thermodynamique, l’entropie a été redéfinie en 1877 par Boltzmann de la manière suivante :

La formule de Boltzmann sur sa tombe à Vienne

 Ici, « S » représente l’entropie, « k » est une constante (de Boltzmann) et « W » correspond au nombre d’états macroscopiques que peut prendre le système.

Plus de 70 ans plus tard, en 1948, Claude Shannon définit à son tour un genre d’entropie qui correspond à la quantité d’information minimum pour transmettre un message. Cette entropie est définie par :

I= K log P

avec « I » la quantité d’information, « K » une constante et « P » l’ensemble des états possibles du système considéré.

 

Claude Shannon (Alfred Eisenstaedt/Time & Life Pictures/Getty Image)

 A priori ces deux concepts n’ont de commun que leur expression mathématique mais Brillouin démontre qu’il s’agit bien de la même entropie. Je vous conseille de lire cette analyse Bibnum pour plus de détails où l’on peut lire ceci :

 Pour obtenir de l’information sur un système, il faut le mesurer, cette mesure augmente l’entropie de l’univers d’une quantité exactement égale à la quantité d’information obtenue. De cette manière Brillouin établit une échelle absolue de la mesure de l’information et à cette fin créé une nouvelle grandeur : La néguentropie, ou entropie négative.

 Il est évident que dans l’expérience de Maxwell, notre démon a besoin de connaître la vitesse des atomes pour les laisser passer ou pas par la porte. Brillouin montre alors que cette « mesure » faite par le démon va créer de la néguentropie de manière à compenser exactement la baisse d’entropie du système : le deuxième principe reste donc valide car l’entropie du système « enceintes+gaz+porte+démon » reste constante !!

 Applications de l’entropie de Shannon

Le calcul de l’entropie de Shannon permet de coder un message sous forme numérique avec le moins de bits possible sans perdre de l’information comme dans les algorithmes de compression sans perte (voir ce billet sur la compression de données).

 Elle est aussi utilisée dans le domaine de l’imagerie médicale pour comparer des images ainsi qu’en génétique pour identifier les parties des chromosomes contenant plus d’informations.

 

Les Hydroliennes

Après les panneaux solaires et les éoliennes, les hydroliennes (ou turbines sous-marines) entrent dans la course aux énergies alternatives renouvelables.

atlantis_AK.jpg

Le nouveau prototype AK-1000 de 1MW © ATLANTIS

Il y quelques semaines, la société ATLANTIS, un des leaders mondiaux en matière d’hydroliennes, dévoilait en Ecosse son nouveau prototype de 1 MW: AK-1000 (voir cet article). La course aux grosses hydroliennes à l’image des grandes éoliennes qui commence à faire partie de certains de nos paysages est désormais ouverte.

Le principe de fonctionnement

Le principe de l’hydrolienne est d’utiliser les courants sous-marins naturels horizontaux sans avoir recours à de la rétention d’eau, contrairement aux usines marée-motrices qui stockent de l’eau à marée montante pour ensuite réutiliser cette eau à marée descendante. Il faut également les différencier des machines utilisant l’énergie des vagues (soit les mouvements verticaux de la mer). De ce fait, les hydroliennes doivent être situées offshore, posées à environ 30 m de fond de manière à capturer les courants sous-marins là où ils sont maximaux, soit à environ 5 m sous la surface (idéalement entre 2,5 et 4 m/s).

Le principe de fonctionnement est le même que celui des éoliennes, à savoir transformer l’énergie cinétique d’un courant en énergie mécanique en faisant tourner des pâles qui entrainent un alternateur produisant de l’électricité. La différence réside dans le fait que les hydroliennes utilisent les courants de marée  alors que les éoliennes utilisent les vents.

Le fait d’utiliser l’énergie cinétique de l’eau plutôt que celle de l’air est un avantage indéniable car l’eau est 800 fois plus dense que l’air et l’énergie cinétique d’un courant est proportionnelle à cette densité. Ceci implique que les hydroliennes soient beaucoup plus compactes que les éoliennes pour extraire une même puissance. A titre d’exemple, une éolienne de 1 MW mesure environ 120 m de diamètre contre seulement 18m de diamètre pour une hydrolienne !!

atlantis_AS.jpg

Turbine sous-marine © ATLANTIS

 Hydrolien contre éolien offshore

Si on compare l’éolien offshore et une hydrolienne fonctionnant grâce aux forces de la marée, la partie concernant le raccord au réseau électrique est la même mais la turbine sous-marine est 10 fois plus petite et plus légère pour une puissance équivalente.

Une des principales critiques des éoliennes est la nuisance visuelle et sonore ainsi que le danger que peut représenter ces immenses pales pour les oiseaux. De ce côté, pas de problème pour les hydroliennes qui sont sous l’eau. Les pales des hydroliennes tournent « seulement » entre 8 et 20 tours par minute, mais il faut néanmoins étudier en détail si cela ne peut pas perturber la vie sous-marine, ce qui est aujourd’hui loin d’être évident à cause des trop peu nombreuses études indépendantes à ce sujet. En effet, les turbulences engendrées par les hydroliennes pourraient empêcher le dépôt de sédiments sur les fonds marins et ainsi affecter la faune et la flore marine avoisinante. Il faut également avoir à l’esprit que si une vitesse de rotation de 8 tours par minute parait faible, cela représente une vitesse de 30 km/h au bout d’une pale de 10 m (et 80 km/h
pour 20 tr/min).

tidal_steam.jpg

Projet de Plateforme hydrolienne Triton ©TidalStream

La force de la marée est facilement prévisible et anticipable contrairement au vent. De ce fait, les estimations de productions peuvent être beaucoup plus fiables dans le cas des hydroliennes et comme les marées sont distribuées différemment le long des côtes, un agencement intelligent permettrait de fournir une quantité d’énergie assez constante contrairement aux éoliennes qui sont soumises aux fluctuations du vent, même si ce dernier est assez régulier offshore.

Un autre point sensible est l’entretien de ces machines. Les hydroliennes sont immergées dans l’océan, ce qui entraine une difficulté d’accès car il faut généralement sortir de l’eau les différentes pièces à entretenir. De plus, l’eau, le sel, les algues et l’environnement marin sont très corrosifs et demandent un entretien très régulier des machines. La maintenance des hydroliennes est donc en conséquence beaucoup plus difficile, fréquente et coûteuse que sur une installation en plein air comme les éoliennes.

L’énergie hydrolienne disponible en France

Les hydroliennes sont efficaces pour des courants dépassant les 1,5 m/s. Dans le cas de la France, les seuls sites possibles seraient donc le Cotentin et la côte nord bretonne, ce qui est relativement peu au vu de la grande zone littorale disponible en France. Ce sont les Ecossais les mieux servis de ce point de vue avec de nombreux sites offrant des conditions favorables aux forts courants marins, ce pour quoi de nombreux essais sont effectués dans cette région actuellement. Au sujet de l’énergie utilisable en France, Jean-Luc Achard, directeur de recherche au CNRS à Grenoble dit la chose suivante : « Les chiffres cités sur la seule base de l’énergie cinétique théoriquement disponible ne
sont pas sérieux. Le potentiel des courants de marée est probablement supérieur à celui des éoliennes, mais il reste comparable. Au mieux, cela se rapprochera ­ à l’horizon 2050 ­ du grand secteur hydraulique, qui représente 13 % de l’énergie en France par exemple».

  SeaGen_pale.jpg

Pale d’hydrolienne SeaGen

 Pour résumé, l’hydrolien est encore dans sa phase expérimentale et doit faire ses preuves lors de la mise en place de premiers prototypes à travers le monde, principalement en mer du Nord où les courants marins sont importants. L’énergie hydrolienne disponible en France est relativement modeste mais permettrait tout de
même une production significative de l’ordre d’un dixième de notre production actuelle. Le prix du kWh est encore très difficile à estimer mais pourrait à terme être de l’ordre de celui de l’éolien, soit environ 5 c€/kWh, ce qui est compétitif face au prix de l’électricité nucléaire.

Sadi Carnot


Sadi Carnot est considéré comme le père de la thermodynamique moderne en introduisant plus ou moins le deuxième principe de la thermodynamique.

J’ai déjà consacré 2 billets à la thermodynamique sur ce blog : Thermodynamique : Les bases et Thermodynamique : Principes et Applications.  J’ai donc déjà parlé de Sadi Carnot mais je voulais vous informer que je viens de publier sur le site de la bibliothèque numérique Bibnum une analyse au sujet du fameux texte de Sadi Carnot intitulé « Réflexions sur la
puissance motrice du feu et sur les machines propres à développer cette puissance
 » dans lequel il explique son fameux cycle de Carnot. Je vous invite donc à consulter cette analyse qui permet de mettre en lumière la clairvoyance de Sadi Carnot pour son époque (le texte date de 1824). D’autant que Sadi Carnot est mort relativement jeune, à 36 ans à cause d’une épidémie de choléra, pratiquement dans l’oubli général, alors qu’il a tout simplement révolutioné la thermodynamique et le développement des machines thermiques, des moteurs de voiture aux moteurs des avions à réaction.

On peut s’étonner tout de même que le texte de Sadi Carnot n’est pas fait plus de bruit de l’époque, surtout qu’il était issu d’une très grande famille française. En effet, son père, Lazare Carnot, était membre de la Convention nationale et un physicien de renom (son nom est d’ailleurs inscrit sur la Tour Eiffel), son frère Hyppolyte Carnot fut ministre de l’instruction publique et son neveu qui s’appelait également Sadi Carnot (eh oui il ne faut pas les confondre) fût président du conseil de 1887 à 1894. 

De plus, Sadi Carnot était polytechnicien comme on peut le voir sur sa peinture réalisée par Boilly en 1824 qui était alors un peintre de renom. Sadi Carnot jouissait donc, surtout à cette époque, d’une bonne visibilité scientifique. Sûrement que ses écrits ne furent pas pleinement compris par ses contemporains. Il faudra attendre Clapeyron puis Clausius plus de 25 ans plus tard pour reprendre les travaux  de Carnot  pour formaliser cette deuxième loi de la thermodynamique ainsi que ses implications sur les machines thermiques. De même, c’est ce texte de Canot qui guidera Thomson (Lord Kelvin) vers la création d’une échelle de température absolue (le kelvin)  en 1848  et qui donnera naissance à la notion d’entropie en 1854.

Bref, je voulais juste saluer cet homme qui a beaucoup fait pour la Science et qui est mort dans l’indifférence comme beaucoup d’autres.

Pourquoi la température diminue avec l’altitude ?

Tout le monde l’a déjà constaté : en montagne, il fait plus froid qu’en plaine, mais pourquoi ? Quand j’étais petit, je ne comprenais pas ce phénomène, car logiquement, il devrait faire plus chaud en altitude car on se rapproche du Soleil !! En fait, je me suis rendu compte plus tard que ce facteur était négligeable car nous sommes à 150 millions de kilomètres du Soleil et gagner ne ce serait-ce que 10 kilomètres ne change rien du tout. La réponse vient du fait que l’air se raréfie avec l’altitude et que cette raréfaction fait chuter la température, explication dans ce billet !

2 photos de moi prises au mois d’avril par un jour de beau temps dans les Alpes suisses : une à 800m et une à 3000m.

 Qu’est-ce qui fait varier la température de l’air ?

La température de l’air varie en fonction de plusieurs paramètres tels que la présence de nuages, de pluie ou de neige, le type de végétation, le type de sol, la proximité d’eau, le degré d’humidité dans l’air, etc.

Ici, nous négligerons tous ces paramètres qui influencent la température de l’air de manière locale pour nous intéresser seulement à l’influence de la variation de la pression atmosphérique sur la température, c’est précisément ce que les scientifiques appelles le gradient thermique
adiabatique
, c’est le fameux : « on perd 1°C tous les 100m ». Un gradient thermique est une variation continue de la température en fonction d’une variable (ici l’altitude) et l’adjectif adiabatique signifie qu’on néglige tout autre échange de chaleur avec l’extérieur.

L’atmosphère

Notre atmosphère est maintenue au dessus de nos têtes par gravité, c’est la masse importante de la Terre qui retient en suspension une couche d’air de plusieurs centaines de kilomètres. Il n’y a pas vraiment de démarcation nette entre l’atmosphère et l’espace car notre atmosphère s’évanouit peu à peu
mais on prend souvent comme limite l’altitude de 120 km où les effets de l’atmosphère commencent à être notables.

A titre d’information, notre atmosphère possède une masse de 5 130 millions de milliards de  kilogrammes (5,13.1018 kg), cela représente un millionième de la masse de la Terre. Etant donné que la surface de la Terre est de 510 millions km², un rapide calcul permet d’estimer la masse d’air qui « appui » sur le sol :

5,13.1018 / 510.1012 = 10 000 kg/m²

Eh oui, quand vous êtes allongé (un homme a une surface d’environ 1m² qui regarde vers le ciel), une colonne d’air d’environ 10 tonnes vous appuie dessus ! Ceci constitue la pression atmosphérique. Comme l’accélération gravitationnelle de la Terre, g, est d’environ 10 m/s², l’air de l’atmosphère créé donc une pression de 10 000 * 10 = 100 000 newton/m² = 100 000 pascal = 1 bar, CQFD !

L’atmosphère est découpée en plusieurs couches inégales portant des noms barbares se finissant par « sphère ». Chaque couche est définie en fonction de l’évolution de la température : la température diminue dans la première couche, augmente dans la deuxième couche, puis diminue encore dans la troisième pour raugmenter dans la quatrième. Voici les 4 couches en question :

La troposphère : elle constitue environ les 10 premiers kilomètres de l’atmosphère et c’est ici que nous vivons, que les avions volent et où les plus hautes montagnes demeurent. Cette couche, la plus fine de toute, contient 80% de la masse totale de l’atmosphère et la température diminue avec l’altitude

La stratosphère : entre 10 km et 50 km d’altitude, elle renferme une bonne partie de la fameuse couche d’ozone si importante pour la vie.

–  La mésosphère : située entre 50 et 80 km, elle est au milieu de l’atmosphère (méso signifie milieu en grec). C’est dans cette couche que la plupart des météorites sont brulés par frottement avec l’air.

La thermosphère commence à environ 80 km d’altitude pour s’étendre jusqu’à environ 620 kilomètres. C’est dans cette couche que gravite la station spatiale internationale et où les aurores boréales se produisent.

 

Calcul du gradient thermique adiabatique théorique

Je rappelle que le gradient thermique adiabatique représente l’évolution de la température à cause du changement de pression uniquement.

L’air peut être considéré comme un gaz parfait (tous les atomes sont assez éloignés les uns des autres de manière à négliger les chocs entre eux) et dans ce cas, lorsque la pression atmosphérique diminue, la température diminue également, voir précédent billet sur la Thermodynamique. On peut alors mettre en relation un couple de pression et de température (P,T) par rapport à un
couple (Po,To) connu (par exemple au niveau de la mer où Po=1 013,25 hPa et To=15°C) :


R est la constante des gaz parfait (R=8,13 J/(K.mol))  et Cp est la chaleur spécifique de l’air à pression constante (Cp=710 J/(kg.K)). Cette formule permet de trouver le fameux gradient thermique adiabatique en théorie (pour de l’air sec, sans vapeur d’eau) et on obtient -9,76°C/km, soit une chute d’environ 1°C tous les 100m: la fameuse « formule » qu’on apprend à l’école.

Le standard OACI

La formule théorique ci-dessus n’est pas forcément très juste à cause des hypothèse faites et il existe de nombreux modèles plus ou moins complexes pour rendre compte du gradient thermique adiabatique dans les différentes couches.  Le gradient de température se déduit du gradient de pression donc avant toute chose, il faut un modèle de l’évolution de la pression dans l’atmosphère.


Un des modèles facile à appréhender, car simple, est celui de l’Organisation de l’Aviation Civile Internationale (OACI) qui définit l’« atmosphère type OACI ». Il définit la pression et la température au niveau de la mer à 1 013,25 hPa (hectopascal) et 15 °C et la vapeur d’eau présente dans l’atmosphère n’est pas prise en compte. La pression à une altitude donnée dans la troposphère est alors définie par l’expression suivante :

L’OACI définit ensuite un gradient thermique adiabatique constant dans la troposphère et qui est égal à -6,5°C par kilomètre de manière linéaire.

Ainsi, la pression est de 900 hPa et la température de 8,5°C à 1000 m d’altitude, 553 hPa et -16,3°C à 4810m (altitude du Mont Blanc), 314 hPa et -42,5°C à 8848m (altitude de l’Everest). L’air est donc plus de 3 fois plus rare en haut de l’Everest qu’au niveau de la mer et la différence de température
due à ce changement de pression est de 57°C !

Le satellite Planck



Avant-hier à 15h12, heure française, la fusée Ariane 5 a décollée
avec succès pour la 44ième fois depuis Kourou en Guyane. Cette mission n’est pas anodine puisque Ariane 5 transportait 2 bijoux technologiques dédiés à la Science dans son « petit » chapeau : les satellites européens Planck et Herschel.

Planck et Herschel sont 2 télescopes spatiaux mais ils sont très différents l’un de l’autre. Herschel est un télescope relativement classique permettant l’observation dans l’infrarouge moyen et lointain à l’aide d’un miroir de 3,5 m de diamètre alors que Planck permet l’observation du rayonnement fossile micro-onde à l’aide de bolomètres ultrasensibles fonctionnant à très basses températures.

Ce billet est spécialement consacré au satellite Planck qui est un peu spécial. Planck doit d’abord atteindre un point particulier de l’espace (le point de Lagrange L2 qu’il atteindra dans 3 mois) pour pouvoir commencer à fonctionner pendant un peu moins de 2 ans.

Planck : comme Max

Le nom de ce satellite vient du physicien allemand Max Planck,  un des pères de la physique quantique, mais quel est le rapport ? Ce satellite a pour ambition de déterminer avec une extrême précision ce que les astrophysiciens appellent le rayonnement de fond cosmologique. Ce rayonnement est une application parfaite de ce qu’on appelle le rayonnement du corps noir, problème justement résolu par Max Planck à la fin du 19ième siècle et qui permettra à Planck d’élaborer en 1900 à la théorie des quanta qui deviendra plus tard la fameuse physique quantique. L’étude du rayonnement électromagnétique d’un corps
noir permet de calculer la température d’un objet à partir de l’analyse de son spectre, voir le billet Comment mesurer la température d’une étoile qui explique en détail tout ceci.

Le fond diffus cosmologique

On l’appelle aussi le rayonnement de fond cosmologique, le bruit de fond cosmologique ou plus simplement le rayonnement fossile, car il constitue le plus vieux fossile de notre Univers. D’après la théorie du Big-Bang, la première « lumière » a été émise par l’Univers 380 000 ans après sa création il y a 13 milliards d’années quand ce dernier c’était suffisamment refroidi à cause de son expansion (l’Univers s’était alors refroidi à 3000°C). A cet instant, les photons ont enfin pu se libérer pour aller vaquer à leur occupation favorite : se balader librement (on appelle cela rayonner en physique) créant ainsi de la
lumière qui inondât l’Univers tout entier !


Ce rayonnement fossile primordial a été pensé théoriquement dans les années 40 et il a été détecté pour la première fois par le plus grand des hasards par 2 ingénieurs américains des laboratoires Bell en 1965 alors qu’ils travaillaient sur des antennes. Ils avaient détecté un « bruit de fond» qui perturbait leurs antennes dans toutes les directions du ciel. Ce bruit de fond constant présent dans toutes les directions autour des 160 GHz (micro-ondes) s’avéra être le fameux fond diffus cosmologique qui avait été prédit théoriquement mais qui demeurerait introuvable. Ce fut une énorme avancée pour la théorie du Big-Bang. Désormais ce rayonnement possède une température de 2,726 K comme l’Univers n’a pas cessé son expansion et donc son refroidissement.

Planck le cartographe



Un des objectifs scientifiques du satellite Planck est d’élaborer la « cartographie » la plus précise possible de ce rayonnement fossile qui possède d’infimes fluctuations. Deux missions américaines de la NASA ont déjà établi une cartographie relativement fine (COBE lancé en 1989 puis WMAP lancé en 2001) mais on cherche à quantifier encore plus précisément ces fluctuations qui ont certainement été à l’origine des futures grandes structures de notre Univers (Galaxies, amas, superamas….). Toute la cosmologie moderne se base essentiellement sur les fluctuations de ce rayonnement, d’où
l’importance capitale de cette mission.

Des Bolomètres à ultra basse température

Pour détecter un rayonnement, on utilise un détecteur appelé « bolomètre » qui permet de mesurer précisément une quantité d’énergie électromagnétique reçue en convertissant l’énergie du rayonnement en chaleur. Au final on mesure la température du bolomètre de manière à déduire la quantité de chaleur issue du rayonnement. On comprend alors aisément que plus le bolomètre est chaud, et plus une petite variation de chaleur sera difficile à détecter. Conclusion :
plus le bolomètre est froid, plus il est précis !

Planck est équipé de 54 bolomètres permettant de mesurer les rayonnements à différentes fréquences constituant le spectre du fond diffus cosmologique. Pour obtenir la précision requise par la mission, les bolomètres seront refroidis à d’ultra-basses températures, entre 90 mK et 130 mK (soit environ un
centième de degré au dessus du zéro absolu, -273,15°C). La résolution ainsi obtenue sera 600 fois meilleure que la première mission américaine COBE.

Le réfrigérateur à dilution

Pour refroidir ces bolomètres, le satellite Planck embarque à son bord un réfrigérateur à dilution. Ce type de réfrigérateur fonctionne avec un mélange de 2 isotopes stables de l’hélium (3He et 4He). Les frigos à dilution commencent à une température de 4,2 K (avec de l’hélium liquide classique) pour fournir une puissance de réfrigération continue jusqu’à 2 millikelvins sans aucune partie mobile ! En général ils fonctionnent plutôt aux alentours des 100 mK.

En gros, le fait de « diluer » de l’hélium-3 liquide (très rare sur Terre) dans de l’hélium-4 liquide (l’hélium classique) permet de faire du froid. Ces 2 fluides cryogéniques sont assez particuliers car ils possèdent des points de liquéfaction très bas (4,2 K pour 4He et 3,2 K pour 3He à  pression atmosphérique). En dessous de 0,9 K 3He et 4He se séparent spontanément en 2 phases (1 phase riche en 3He et une phase pauvre en 4He) et quand l’hélium-3 « traverse » cette
phase diluée pour ensuite s’évaporer, il y a création de froid (je ne rentrerai pas dans les détails ici), voir figure ci-dessous qui représente ce qu’on appelle la chambre de mélange qui se trouve en bas du réfrigérateur :



La dilution spatiale

Le principe de la dilution utilise la gravité pour séparer les mélanges, ce qui n’est pas possible dans un satellite! Un nouveau type de réfrigérateur à dilution pouvant fonctionner dans l’espace a donc été développé à Grenoble, le pôle de la cryogénie française. Le démonstrateur de la dilution a été construit à l’institut Néel (CNRS) à Grenoble par Alain Benoît, son équipe et les services techniques de son laboratoire. J’ai d’ailleurs eu la chance de voir un prototype de ce réfrigérateur à Grenoble il y a environ 2 ans alors que j’assistais à des cours de cryogénie. Le mélange 3He/4He circule dans des tubes de très petites dimensions qui rendent le système insensible à la gravité. Le réfrigérateur à dilution a ensuite été construit par la société française Air Liquide à Sassenage, à proximité de Grenoble. En revanche, le réfrigérateur de Planck fonctionne en boucle ouverte: le mélange est ensuite rejeté dans l’espace et la durée de vie du système dépend alors de la quantité d’hélium qui est embarquée au décollage (environ 2 ans de vie dans le cas de Planck). On souhaite une grande réeussite à cette mission européenne!