Archives pour l'étiquette nucléaire

Le nucléaire au thorium: une « vieille » solution pour l’avenir ?

Ce billet est la suite de mon billet Une petite histoire de l’énergie nucléaire. Donc, à lire en guise d’introduction sur les différentes filières nucléaires.

Mais avant de parler du thorium-232 en détail, juste un petit rappel sur les éléments chimiques et leurs isotopes. Le numéro cité après l’élément considéré (232 dans le cas du thorium) s’appelle le nombre de masse et représente le nombre total de protons et de neutrons dans le noyau (les nucléons). Donc plus le nombre de masse est grand, plus l’élément est lourd. Ainsi, l’uranium-238 possède 3 neutrons de plus que l’uranium-235 et chaque « variété » d’un même élément s’appelle un isotope. A ce jour, 117 éléments ont été découverts  pour 2 934 isotopes. Certains sont explosifs, d’autres corrosifs ou encore inoffensifs. Tous les éléments dont nous sommes familiers (oxygene-16, fer-56, carbone-12, etc.) sont stables dans le temps mais beaucoup d’autres sont instables et donc radioactifs avec des durées de demi-vie variables, de quelques millisecondes à des millions d’années, tout dépend du nombre de protons et de neutrons dans le noyau!

 Le thorium

Le thorium, est un métal lourd radioactif de la même famille que l’uranium (actinide). Il possède 90 protons dans son noyau (contre 92 pour l’uranium) et a une demi-vie radioactive très longue de 14 milliards d’années, soit plus de 3 fois l’âge du système solaire. Sa présence sur Terre est estimée entre 3 et 4 fois plus abondante que l’uranium et est plutôt bien réparti. En France, il y a des gisements en Bretagne et AREVA, le CEA et Rhodia ont déjà 8 500 tonnes de thorium  stockées sur leur étagère via l’extraction d’autres minerais. Selon cette source, une tonne de thorium permettrait en gros de générer 10 TWh d’électricité donc la France a déjà assez de thorium pour subvenir à environ 190 ans d’électricité avec sa consommation actuelle !

Couverture de Science & Vie en Novembre 2011 : Le Nucléaire sans uranium c’est possible. Plus sûr, plus propre… et pourtant ignoré depuis 50ans.

Le forum pour la 4ième génération

La quantité d’uranium dans le monde permettrait de continuer à faire tourner des centrales pour 200 ans environ avec notre production actuelle mais bien entendu, si la production nucléaire augmente (ce qui est hautement probable avec des pays comme la Chine et l’Inde dans la course), ce sera beaucoup moins, les pronostics donnent la fin de l’uranium pour la fin du siècle et nos enfants sont donc concernés !! C’est entre autre pour cette raison qu’un forum nommé « Génération IV » a vu le jour entre 14 pays pour choisir une solution de 4ième génération pour le nucléaire. Aujourd’hui, le réacteur EPR en construction à Flamanville en Normandie fait partie de la 3ieme génération mais appartient toujours à la filière de réacteur à eau pressurisée (REP) et on ne peut pas dire que ce soit une réussite pour l’instant…. Bref, ce forum étudie ainsi 6 nouvelles filières prometteuses pourl’avenir nucléaire: https://www.gen-4.org/gif/jcms/c_40486/technology-systems.

Dans ces 6 propositions, il y en a une qui mérite notre attention et qui serait à mon avis la seule solution vraiment intéressante pour des raisons de sûreté et de déchets : Les réacteurs à sels fondus au Thorium.

Les réacteurs à sels fondus

Dans ce type de réacteur, le combustible est liquide et sert également de caloporteur. On mélange des éléments fissibles ou fertiles dans des sels fondus et on fait circuler le tout dans le réacteur ou une réaction en chaine peut se produire et générer beaucoup de chaleur suite à la fission de certains éléments. Il y a ensuite 2 grandes variantes de ce type de réacteurs

  • Les réacteurs à neutrons thermiques où un modérateur comme le graphite est indispensable pour ralentir les neutrons et contrôler la réaction en chaine.
  • Les réacteurs à neutrons rapides où aucun modérateur n’est nécessaire. Dans ce cas, ces réacteurs peuvent fonctionner en surgénérateurs, c’est-à-dire qu’ils peuvent produire plus d’éléments fissibles qu’ils n’en consomment en utilisant un élément fertile à la base comme le thorium-232, c’est-à-dire que cet élément peut produire un élément fissible en absorbant un neutron dans son noyau.

Schéma d’un réacteur à sels fondus.

Pour cette raison, un réacteur chargé uniquement avec du thorium ne peut pas démarrer. Pour initier la première fission avec un élement fertile comme du thorium, il faut un élément fissible comme de l’uranium ou du plutonium en quantité non négligeable (plusieurs tonnes pour réacteur de 1 GW) et une fois que c’est partie, le réacteur tourne en cycle fermé jusqu’à consommer pratiquement tous les éléments fissibles qui sont recyclés en son sein. C’est pour cette raison qu’un réacteur de ce type produit beaucoup moins de déchets nucléaires fissibles comme le plutonium et les transuraniens vu qu’il les consomme et surtout il permettrait de nous débarrasser de certains déchets embêtants dont nous ne savons que faire aujourd’hui. A titre d’information, après 70 ans de nucléaire, il y a 500 tonnes (déclarés) de plutonium dans le monde.  On peut d’ailleurs voir ce type de réacteur comme un incinérateur à déchets nucléaires qui a en plus l’avantage de pouvoir faire de l’électricité !

Les premiers à se pencher sur la question du réacteur à sels fondus furent les Américains du Laboratoire National d’Oak Ridge (ORNL) avec le fameux Alvin Weinberg, l’ancien directeur du laboratoire pendant le projet Manhattan. Le réacteur à sel fondu expérimental MSRE fonctionna entre 1965 et 1969, d’abord avec de l’uarium-235 puis avec l’uranium-233 et du plutonium la dernière année, prouvant alors la faisabilité et la viabilité d’un tel concept mais en 1973 le gouvernement américain coupe tous les budgets pour la filière des réacteurs à sels fondus et leur utilisation potentiel avec du thorium pour se concentrer sur la filière uranium exclusivement, plus en phase avec le côté militaire.

Voici un dessin pour vous donner une petite idée de la différence entre un réacteur à sels fondus au thorium et un réacteur à eau pressurisé « standard » à l’uranium. On comprend tout de suite l’intérêt de la chose en matière de quantité de minerai et de déchets.

Comparaison entre combustibles et déchets pour 2 réacteurs de 1 GW utilisant de l’uranium et de l’eau pressurisée en haut et un réacteur à sels fondus au thorium en bas (Source).

Les avantages de cette technologie sur les autres filières nucléaires sont les suivants:

  • Pérennité: Les ressources en thorium sur la Terre sont abondantes, on estime à 30 000 ans notre autonomie.
  • Sûreté: Pas d’emballement du réacteur possible comme Tchernobyl.
  • Sûreté: Combustibles liquides évitant le risque de dégradation et d’explosion des bâtiments comme à Fukushima. Ces explosions sont dues à l’hydrogène dégagé par le zirconium des crayons d’uranium actuels.
  • Sûreté: Pas de haute pression et donc moins de risque (circuit à 1 bar contre 155 bars).
  • Sûreté: En cas de panne de refroidissement : on peut vidanger de liquide dans une cuve isolée sous le réacteur à travers un « bouchon froid » qui fond en cas de panne électrique et éviter une catastrophe comme à Fukushima.
  • Déchets: 10 000 fois moins de déchets à vie longue (transuraniens comme plutonium).
  • Prolifération: Beaucoup plus difficile de faire une bombe atomique à partir de cette filière (mais pas impossible).

Néanmoins, il y a des inconvénients :

  • Démarrage: Il faut un élément fissible comme de l’uranium ou du plutonium au début pour initier la réaction en chaine (mais ce peut être un avantage pour se débarrasser de notre plutonium stocké).
  • Déchets : Il y a beaucoup moins de déchets à vie longue mais cette filière génère tout de même des déchets de fission qu’il faudra gérer sur des centaines d’années ainsi que du protactinium 231 (période : 33 000 ans).
  • Recherche: pour aboutir à un réacteur industriel, beaucoup de recherches sont encore à faire comme cette filière a été abandonnée dans les années 60. Daniel Heuer, directeur de recherche au CNRS de Grenoble et travaillant sur un tel réacteur estime qu’entre 10 et 15 ans de développement sont nécessaires et que si une filière thorium est choisie en 2040, il faudra attendre 2070 pour la voir sur le marché (source).

Au regard de ces avantages indéniables, les Chinois et les Indiens travaillent actuellement sur ce sujet très intéressant pour eux étant donné leurs réserves en thorium importantes comparées aux réserves en uranium mais la route sera encore longue. Il faut déjà qu’ils se réapproprient les connaissances qu’ont accumulé les Américains jusque dans les années 70 avant d’aller plus loin.

Quelques autres alternatives nucléaires

En 1993, Carlo Rubbia, prix Nobel de physique travaillant au CERN (Organisation Européenne pour la Recherche Nucléaire) propose d’utiliser un accélérateur de particules pour démarrer la réaction en chaine dans un réacteur sous-critique (comme un réacteur au thorium) et éviter ainsi la consommation d’uranium ou de plutonium pour démarrer et entretenir la réaction en chaine. On parle alors de réacteur nucléaire piloté par accélérateur (ADS). Ce projet est prometteur mais l’investissement en termes de recherche et d’infrastructures pour un tel réacteur parait actuellement peu envisageable pour l’étape industrielle.

Encore mieux que le réacteur à sels fondus au thorium : le réacteur à fusion thermonucléaire. Dans ce type de réacteur, plus de fission mais de la fusion et donc plus d’éléments lourds hautement radioactifs. Le combustible est quasi-infini (deutérium et tritium), il n’y a aucun déchets radioactif à vie longue (quelques déchets gérables sur une centaine d’années) et aucun risque d’emballement du réacteur (pas de réaction en chaine comme avec la fission). Beaucoup de recherches dans le monde vont dans ce sens comme le fameux projet international ITER en cours de construction à Cadarache dans le sud de la France qui sera une expérience scientifique de fusion nucléaire pour démontrer que cette voie est possible pour l’avenir. Mais ici, les spécialistes parlent d’une industrialisation possible pour la fin du siècle seulement car c’est une machine extrêmement complexe qu’il faut développer mais même s’il faut 100 ans de recherche et de développement pour voir des réacteurs à fusion dans le monde, ça vaut le coup, non, pour sauver la planète ? Vous pouvez lire ici un article sur ITER que j’ai fait il y a 10 ans. Aujourd’hui, c’est en construction et la première réaction de fusion est attendue pour 2025.

Construction du bâtiment principal qui hébergera ITER (photo personnelle prise en Octobre 2016).

Sources:

Une petite histoire de l’énergie nucléaire

Si vous pensiez que l’humanité s’est dite un jour « nous allons investir massivement pour faire de l’énergie d’origine nucléaire de la meilleure manière possible » eh bien vous vous trompiez. Le nucléaire « civil » comme on l’appelle, n’a été qu’une sorte d’opportunité pour servir la fabrication de bombes atomiques. Sans bombe atomique et sans propulsion nucléaire pour les sous-marins militaires, il n’y aurait sans doute pas eu de nucléaire civil tel qu’il est aujourd’hui…

Tout a donc commencé pendant la seconde guerre mondiale avec le programme de nucléaire militaire américain pour fabriquer la première bombe Atomique : le projet Manhattan. Une fois que les politiques et que les militaires ont compris le potentiel de destruction de la bombe atomique, tout est allé très vite… trop vite peut être…

Le tout début

Nos centrales nucléaires actuelles utilisent l’énergie de fission des noyaux atomiques qui a été décrit correctement la première fois à Berlin fin 1938 par Otto Hahn et Fritz Strassmann (voir ce billet sur l’énergie nucléaire de fission et de fusion). Dès 1939, en France, Fréderic Joliot-Curie publie avec 3 autres scientifiques un article dans la prestigieuse revue Nature expliquant le phénomène de réaction en chaine de l’uranium et dépose même un brevet le mois suivant sur les possibilités énergétiques et militaires d’un tel phénomène. Mais avec l’arrivé de la guerre, toutes les recherches françaises sur ce domaine sont stoppées en mai 1940.

Aux Etats-Unis, Le président Roosevelt est averti dès 1939 d’une possibilité de bombe atomique par une fameuse lettre en partie signée par un fameux Albert Einstein (qui d’ailleurs avouera plus tard regretter cette lettre). Le projet Manhattan est alors lancé en 1942 et on connait la suite avec son triste aboutissement en 1945 à Hiroshima et Nagasaki. Les USA ont pour cela dépensé l’équivalent de 25 milliards de dollars d’aujourd’hui en seulement 3 ans (imaginez qu’aujourd’hui, le plus grand projet scientifique mondial comme l’accélérateur de particules LHC de 27 km au CERN a coûté 9 milliards de dollars au total avec ses expériences répartis sur des dizaines d’années et une vingtaine de pays et plus de 600 instituts scientifiques de 113 pays). Bref, ce projet de bombe atomique complètement fou a été possible en partie grâce à la mise au point de réacteurs nucléaires permettant de transformer de l’uranium-238 en Plutonium-239, indispensable pour faire une bombe atomique efficace comme Fat Boy larguée sur Nagasaki (celle d’Hiroshima était constitués d’uranium enrichi et présentait à ce titre plusieurs inconvénients). Le premier réacteur nucléaire a ainsi vu le jour en 1942 avec le célèbre Enrico Fermi à Chicago et fonctionnait donc à l’uranium vu que l’objectif n’était pas de faire de l’électricité mais bien produire du plutonium pour la bombe atomique.

Chicago Pile-1 : dessin du premier réacteur nucléaire artificiel construit par Enrico Fermi en 1942 dans le cadre du projet Manhattan.

Du militaire au civil

Après la guerre, les scientifiques et industriels se sont donc intéressés à la possibilité d’utiliser l’énergie nucléaire dans un réacteur pour produire de l’électricité étant donné la gigantesque énergie dégagée sous forme de chaleur lors de la fission nucléaire. L’intérêt du rendement du nucléaire est vite compris : la fission de 1 g d’uranium-235 correspond à 1,6 tonne de fuel ou à 2,8 tonnes de charbon en terme énergétique.

Contrairement à ce que la plupart des gens pensent, ce sont les Russes qui ont les premiers fabriqué et mis en opération un réacteur nucléaire civil raccordé au réseau électrique en 1954 (d’une puissance modeste de 5 MW). Les Français, les Anglais et les Américains inaugureront leurs centrales nucléaires électriques dans les 2 ou 3 années suivantes avec Marcoule en France (7 MW), Sellafield en Grande-Bretagne (50 MW) et Shippingport aux Etats-Unis  (60 MW) en 1957, soit 12 ans après la bombe atomique !!

Mais la guerre froide se profile entre les USA et l’URSS et la course à l’armement nucléaire va nécessiter de grandes quantités d’uranium et de plutonium. Une stratégie commune entre applications militaires et civiles a vite été trouvée et promue par les gouvernements ! Le nucléaire civile va alors battre son plein dans plusieurs pays jusqu’à 1979 qui voit le premier accident « sérieux » de Three Mile Island aux Etats-Unis : le réacteur s’emballe et la moitié de ce dernier fond. La catastrophe est évitée de toute justesse mais 200 000 personnes ont dû évacuer la zone autour de la centrale. A partir de cette date, l’opinion publique aux USA et dans le reste du monde commence à comprendre que cette énergie qui paraissait parfaite peut être dangereuse et le nucléaire civil prend un virage clé dans son histoire. Mais la progression a ensuite repris et c’est bien sûr 7 ans plus tard avec l’accident de Tchernobyl en 1986 que le monde réalise alors vraiment le danger et la progression du nucléaire dans le monde est stoppée nette.

Evolution du parc nucléaire dans le monde (source : AIEA). On voir clairement l’impact de Three Mile Island (1979) et Tchernobyl (1986) qui stoppe la progression du nucléaire.

Les filières nucléaires

Les 4 premiers réacteurs industriels destinés à fabriquer de l’électricité en URSS, en France, en Grande-Bretagne et aux Etats-Unis sont tous basés sur le même combustible : l’uranium. Logique vu que ce sont des réacteurs de ce type qui peuvent produire du plutonium-239 permettant de faire des bombes atomiques…

En fait, pour faire un réacteur nucléaire, les scientifiques ont l’embarra du choix sur les technologies à utiliser : on parle alors de « filière » qui dépend de 3 ingrédients principaux:

  • Le combustible:
    • de l’uranium
    • du thorium
  • Le caloporteur (fluide pour transporter la chaleur) :
    • de l’eau pressurisée
    • de l’eau bouillante
    • du gaz (comme du CO2 ou de l’hélium)
    • du sodium
    • des sels fondus
  • Le modérateur (élément permettant de ralentir les neutrons et permettre une réaction en chaine) :
    • de l’eau ordinaire
    • de l’eau lourde
    • du graphite
    • aucun dans le cas de réacteur à neutrons rapides.

Avec un peu de mathématique de base, on peut ainsi dénombrer ici 2x5x4 = 40 grands types de réacteurs différents (sans compter les centaines de petites variantes possibles). Il faut alors faire un choix mais pas n’importe lequel car quand on s’embarque dans une filière, difficile de faire machine arrière. En effet, l’énergie nucléaire n’est pas à la portée de tout le monde et est très difficile à mettre en place. Si on considère l’argent, le temps, la recherche, les technologies, la politique, l’écologie et la sûreté qui doivent être mis en place à l’échelle d’un pays entier, le choix de la filière est extrêmement important. Sauf que si on considère la question militaire en même temps, le choix devient beaucoup plus simple… Et dans ce cas, les questions d’écologie et de sûreté sont reléguées derrière la priorité militaire…

C’est en partie pourquoi tous les réacteurs nucléaires dans le monde utilisent de l’uranium comme combustible de base et 63 % sont des « REP » : Réacteurs à Eau Pressurisée qui présentent en plus l’avantage d’être plutôt compacts en utilisant de l’eau ordinaire et donc parfaitement adapté pour propulser un sous-marin qui a de l’eau facilement à disposition ! Sur les 438 réacteurs nucléaires dans le monde en fonctionnement aujourd’hui, voici la répartition :

  • 279 à eau pressurisée (REP) dont font partie Three Mile Island et Fukushima,
  • 78 à eau bouillante (REB),
  • 49 à eau lourde pressurisée (PWHR),
  • 15 refroidis au gaz (GCR),
  • 15 à l’eau et au graphite (RMBK) dont fait partie Tchernobyl,
  • 2 réacteurs à neutrons rapides (RNR) pour études scientifiques.

Et vous constaterez qu’il y en a zéro utilisant du thorium avec des sels fondus comme caloporteur alors que ce type de réacteur avait été pressenti par tous les spécialistes dans les années 60 comme la meilleure solution pour produire de l’électricité en termes de déchets et en termes de sûreté (comme Alvin Weinberg, l’ancien directeur du laboratoire américain d’Oak Ridge ayant participé au projet Manhattan). Mais un réacteur à base de thorium ne produit pas de plutonium pour fabriquer des bombes et c’est bien là tout le problème de notre histoire, mais il n’est peut-être pas trop tard !

La suite dans le prochain billet pour plus de précisions sur les réacteurs à sels fondus utilisant du thorium qui pourraient être une meilleure solution dans l’avenir.

L’Andra: stocker les déchets nucléaires pour un million d’années

Ce week-end, le C@fé des Sciences était en déplacement pour visiter le laboratoire de recherche souterrain de Meuse/Haute-Marne piloté par l’Andra (l’Agence Nationale pour la gestion des Déchets RAdioactifs). En effet, depuis 2006, une loi votée par l’Assemblée Nationale et de Sénat (La loi du 28 juin 2006) donne à l’Andra la mission de concevoir et d’implanter le stockage qui accueillera les déchets nucléaires les plus toxiques.

andra_Eric     Notre Guide Eric, à 500 mètres sous terre, nous fait un petit cours de géologie à 1h du matin.

Je vais essayer de vous relater ici notre visite qui a été extrêmement intéressante, particulièrement grâce à notre guide Eric, qui a su nous captiver et nous émerveiller tout en nous faisant prendre conscience de l’importance et de la difficulté d’un tel projet que l’on ne peut qualifier que d’ambitieux mais indispensable si l’on veut être responsable et continuer à dormir sur nos deux oreilles.

Les déchets concernés

En gros, on peut catégoriser deux grandes catégories de déchets nucléaires :

  • Les déchets technologiques et de démantèlement : ce sont tous les matériaux qui ont été en contact avec des sources radioactives et qui ont été activés à leur tour comme les combinaisons, les gants, les outils, le béton environnant, les tuyaux, etc.
  • Les déchets de combustibles dans lesquels on ne peut plus rien exploiter suite à la fission dans le réacteur puis au retraitement à la Hague.

Ici, on va s’intéresser seulement aux déchets de combustibles qualifiés de Haute Activité (HA) et de Moyenne Activité à Vie Longue (MA-VL). Ces déchets ne représentent que 3,2% du volume total des déchets mais 99,9 % de la radioactivité totale (et donc en gros de la dangerosité pour faire court). L’élimination totale du danger de certains déchets HA peut atteindre le million d’années à cause de certains éléments. Les 7 produits de fissions les plus longs à disparaitre sont par ordre d’abondance :

  • Le césium 135, demi-vie de 2,3 millions d’années pour 3,45 %.
  • Le zirconium 93, demi-vie de 1,53 million d’années pour 3,06  %.
  • Le technétium 99, demi-vie de 211 100 ans pour 3,06 %.
  • L’iode 129, demi-vie de 15,7 millions d’années pour 0,64 %.
  • Le palladium 107, demi-vie de 6,5 millions d’années pour 0,09 %.
  • L’étain 126, demi-vie de 100 000 ans pour 0,03 %.
  • Le sélénium 79, demi-vie de 280 000 ans pour 0,025 %.

A noter qu’il existe aussi d’autres éléments lourds non fissionnés que l’on appelle les actinides mineurs comme l’américium ou le neptunium mais je n’en parlerai pas ici en détail.

Le labo de Bure

Le laboratoire de recherche souterrain de Meuse/Haute-Marne, ou  « labo de Bure » pour les intimes, est situé à la frontière entre la Haute-Marne et la Meuse, à mi-chemin entre Troyes et Nancy. Il a pour objectif depuis 2000 d’étudier la formation géologique de cette région à environ 500 mètres sous terre. En effet, à cette profondeur se cache une couche d’argilite (mélange dargile et de quartz) de  plus de 100 mètres d’épaisseur qui est particulièrement propice au stockage des déchets nucléaires à une échelle de temps avoisinant le million d’années pour plusieurs raisons:

  • Couche crée il y a 150 millions d’années entre 2 couches de calcaire. On connait bien son histoire géologique sur une longue période et on peut extrapoler raisonnablement.
  • Stabilité tectonique de la région évitant de déformer la roche et les déchets qui y sont stockés.
  • Roche homogène, sans faille et sans surprise pour les forages.
  • Bonne résistance à la compression (équivalent à du béton).
  • Faible conductivité thermique pour éviter de chauffer les alentours avec les déchets radioactifs qui vont rayonner et donc chauffer pendant un bon moment.
  • Roche plutôt bien imperméables dans laquelle l’eau se déplace très lentement et les déchets devraient donc rester au sec relativement longtemps mais inévitablement, sur plus de 100 000 ans, l’eau atteindra les déchets et il faut donc s’assurer que l’eau qui peut transporter des éléments radioactifs se déplace peu et que cela arrivera le plus tard possible.

andra_alveoleAlvéole creusée dans une galerie visant à expérimenter comment la roche se comporte et se déforme après le creusement (c’est dans de telles alvéoles que les colis de déchets HA seront insérés en file indienne)

Aujourd’hui le laboratoire de Bure compte 1,5 kilomètres de galeries dans lesquelles 660 forages ont été réalisés et équipés avec plus de 3 000 capteurs fournissant plus de 7 000 points de mesure (pression, température, déformation, composition chimique, PH, etc.).  L’idée consiste donc à valider un futur stockage profond des déchets nucléaires HA et MA-VL dans les environs. Des expérimentations dans ce laboratoire souterrain visent notamment à :

  • Etudier l’eau contenue dans la roche, sa composition et ses déplacements.
  • Comprendre comment la roche se comporte après des forages et creusements en tout genre. Eh oui, à cette profondeur, si vous faites un trou « rond » de plusieurs dizaine de mètres de long, en peu de temps, vous obtiendrez un trou « carré » à cause des contraintes de la roche sous pression.
  • Etudier la conduction thermique dans la roche pour comprendre comment la chaleur se propage.
  • Etudier la diffusion des éléments radioactifs dans la roche : un élément en forte concentration à un endroit à toujours tendance à se diffuser dans la matière environnante de manière à équilibrer les concentrations.
  • Etudier comment le verre, l’acier et le béton se comportent dans la roche et dans l’eau sous haute pression car ce sont principalement ces 3 matériaux qui vont permettre de contenir les déchets le plus longtemps possible.

Bure_eauExpérience visant à analyser l’eau contenue dans la couche d’argilite

Vous l’aurez compris, ce laboratoire souterrain est unique en France et permet une analyse géologique, chimique et physique de cette couche d’argilite dans l’objectif d’y mettre nos déchets nucléaires pour longtemps, très longtemps…

Le projet Cigéo

Suite à la confirmation que ce site est propice au stockage, l’Andra a donc mis sur pied un projet pharaonique dénommé Cigéo pour stocker tous les déchets de combustibles HA et MA-VL produits jusqu’à présent ainsi que ceux qui seront produits jusqu’à la fin du parc nucléaire français actuel. On parle ainsi des déchets issus des 58 réacteurs nucléaires actuels plus le réacteur de Flamanville actuellement en construction.

Les déchets sont conditionnés sous forme de colis provenant principalement de la Hague. Un colis HA fait 180 litres et possède « seulement » 70 kg de déchets pour 420 kg d’emballage. Les déchets sont noyés dans une espèce de verre (vitrification) de manière à ce que les déchets soient noyés et dilués le plus possible pour s’assurer que la masse critique des éléments les plus lourds ne soit pas atteinte pour entamer une nouvelle réaction de fission. Les colis MA-VL contiennent quant à eux 550 kg de déchets pour 160 kg d’emballage. Le volume des colis pour Cigéo est estimé à 80 000 m3 (10 000 m3 de colis HA et 70 000 m3 de colis MA-VL), soit une vingtaine de piscines olympiques à enterrer à 500 mètres.

 andra_HAVLUn colis de déchet HA (Haute activité) : 180 litres pour 490 kg au total dont 70 kg de déchet

Une fois arrivés en Haute-Marne, les colis seront alors mis dans des conteneurs de stockage avant de descendre à 500 mètres de profondeur pour être stocker dans la couche d’argilite. Le volume à stocker avec les conteneurs sera ainsi de 380 000 m3 au total, soit un peu plus que la Tour Montparnasse à Paris… Au total, le site Cigéo couvrira environ 15 km2.

En termes de financement, ce sont les producteurs de déchets qui financent l’Andra à travers une « taxe recherche » depuis 2006 qui constitue une enveloppe de 118 millions d’euros annuelle. Ainsi, EDF est le premier contributeur avec 78% du total, puis le CEA avec 17% et enfin AREVA au titre de 5%.

Le projet Cigéo est évalué à environ 15 milliards d’euros par l’Andra sur 100 ans pour la construction, l’exploitation et la fermeture du site. Bien évidemment, ce genre d’exercice est toujours à considérer avec précaution dans ce genre de projet où les dépassements sont courants et inévitables. Cigéo peut en toute logique subir une explosion du coût selon les futures décisions politiques sur le nucléaire.

Selon l’ANDRA, pour un nouveau réacteur nucléaire sur l’ensemble de sa durée de fonctionnement, ce coût représente de l’ordre de 1 à 2 % du coût total de la production d’électricité qui est en principe reflété dans la facture d’électricité. A préciser que l’Andra prévoit environ 2000 emplois sur le site pendant 100 ans.

Au niveau du planning actuel :

  • Cigéo devrait être autorisé par le conseil d’état vers 2018 après la validation des différents organismes français experts dans le domaine.
  • 2019-2025 : Début du creusement
  • 2025-2125 : un siècle de remplissage et de creusement en parallèle (exploitation). Les premier colis HA ne seront pas stockés avant 2075 car ils ne doivent pas dégager plus de 500W avant de descendre au fond (90 C en surface).
  • 2125-2225 : au moins un siècle pendant lequel les déchets pourront toujours être récupérés. Cigéo intègre une clause de réversibilité du projet au cas où une meilleure solution s’offrirait à nous, la durée et les modalités de cette réversibilité ne sont pas encore arrêtées et demeurent encore un peu floues.

 Andra_resersiblePrototype de la machine permettant d’insérer les colis dans les alvéoles et de les récupérer en cas de besoin.

Vous l’aurez compris, le projet est hautement complexe et fait interagir de nombreux domaines scientifiques comme la physique, la chimie, la géologie et tous les domaines de l’ingénieur sans parler des grandes questions sociétales, historiques et économiques qui en découlent. Cela parait réalisable en vue des compétences actuelles et du contexte économique mais nécessite encore certaines recherches pour s’assurer de la viabilité du projet sur une échelle de temps géologique.

Retenez que ce n’est pas parce qu’on est pour ou contre l’énergie nucléaire qu’il ne faut pas s’intéresser à la question du stockage des déchets. Cela permet de vraiment réfléchir à la problématique de cette énergie. Notre pays et nos prédécesseurs ont fait ce choix et nous devons assumer ces déchets qui existent aujourd’hui.

J’espère juste que la fusion nucléaire (voir mon billet de 2006 sur ITER) verra le jour à l’échelle industrielle le plus tôt possible (ça viendra forcement) et que la fission ne sera plus qu’un souvenir pour les générations futures qui n’auront pas ce problème de stockage à long terme.

Et si vous avez de meilleures idées, les commentaires sont là pour ça !

Les sous-marins

Les sous-marins intriguent les plus petits comme les plus grands et font toujours l’objet de curiosités et de questionnements… D’où vient donc ce pouvoir de fascination ?

 Alex_SousMarin2.jpg

Le Drakkar sous-marin vu par Alex

 Quel enfant n’a jamais rêvé de pénétrer dans un sous-marin ? C’est aujourd’hui possible dans de nombreux sous-marins démantelés et mis en exposition comme l’Argonaute (sous marin des années 50) à la cité des sciences de la Villette à Paris ou le Redoutable à Cherbourg (le premier sous marin nucléaire français). Cependant, il est souvent difficile de se faire une idée de leur fonctionnement, ce que je vais donc essayer de vous expliquer dans ce billet.

Le sous-marin se différencie du bathyscaphe par sa capacité à pouvoir se déplacer en surface de l’eau ainsi que sous l’eau dans les 3 dimensions (le bathyscaphe ne peut se déplacer que selon l’axe vertical). Un sous-marin est donc doté d’un système de propulsion et de safrans de direction (gouvernails) pour se mouvoir dans les 3 dimensions ainsi que d’un ensemble de ballasts pour plonger et « flotter entre deux eaux ».

Le principe physique

Les sous-marins sont basés sur le principe de la poussée d’Archimède qui dit que « Tout corps plongé dans un fluide au repos, entièrement mouillé par celui-ci ou traversant sa surface libre, subit une force verticale, dirigée de bas en haut et opposée au poids du volume de fluide déplacé ; cette force est appelée poussée d’Archimède ». On peut formuler cette loi de manière mathématique en écrivant que la force résultante de cette poussée verticale vers
le haut est égale à : F = rho* V * g où « rho » et « V » sont la densité et le volume du fluide déplacé et « g » est l’accélération gravitationnelle (environ 10 m/s2 pour la Terre).

Appliquée au sous-marin, cette loi physique implique que pour faire demeurer le sous marin sous l’eau à une profondeur constante, sa densité doit être égale à la densité de l’eau. Si la densité du sous-marin est supérieure, il coule et si sa densité est inferieure, il remontera vers la surface.

Comme les sous-marins doivent maitriser leur densité pour monter ou descendre et qu’ils ont un volume constant, un système de ballasts pouvant se remplir d’eau ou d’air permet de modifier la masse et donc la densité du sous-marin. Les ballasts sont des réservoirs situés entre la coque extérieure et la coque intérieure des sous-marins. Elles sont disposées symétriquement de manière à bien équilibrer le sous-marin et peuvent être reparties différemment selon le type de sous-marin. Il existe aussi des volumes plus petits appelés régleurs qui permettent de maitriser précisément la masse du sous-marin pour adapter sa densité exacte en fonction du nombre de personnes et d’équipement à son bord.

 ballastesRépartition des ballasts dans différents types de sous
marins.
Source : http://codingrulz.free.fr/fichiers/ballast.htm

 La coque

Plus on plonge profondément, plus la pression exercée par l’eau sur le sous-marin est importante : c’est le principe de Pascale qui peut s’écrire : dP = rho * g * dz avec « dP » la différence de pression en Pascal, « rho » la densité du liquide ou du gaz, « g » l’accélération gravitationnelle (environ 10 m/s2 pour la Terre) et « dz » la différence de hauteur, c’est-a-dire la profondeur pour un
sous-marin.

Dans le cas d’un sous-marin à 10 mètres de profondeur sous l’eau (rho=1000 kg/m3 pour l’eau) la pression augmente donc de dP = rho * g * dz = 1000 * 10 * 10 = 100 000 Pascal = 1 bar.

Pour un sous-marin qui plonge à 200 m, il doit donc endurer des pressions de 20 bars sur sa coque car on veut conserver une pression de 1 bar à l’intérieur. Pour supporter ces pressions, les sous-marins possèdent 2 coques : la coque extérieure permet d’isoler les ballasts et ne subit aucune pression, elle est donc légère et sa forme est calculée pour être aérodynamique dans l’eau alors que la coque intérieure doit être suffisamment épaisse et élastique pour encaisser les changements de pression. Il faut en général augmenter l’épaisseur de la coque intérieure de 10 mm pour pouvoir résister à une augmentation de pression de 10 bar (soit environ 100 m).

Le pilotage

Les sous-marins possèdent un système de propulsion pour se déplacer en translation selon 1 axe ainsi qu’un ensemble de safrans de direction pour modifier la trajectoire et l’inclinaison du sous-marin comme dans un avion. Les salles de contrôles des sous-marins modernes ressemblent donc plus à un cockpit d’avion qu’à une cabine de bateau.

Des caisses d’assiettes permettent également un équilibrage longitudinal du sous-marin de manière à le conserver horizontal ou selon un angle précis avec l’horizon quelques soit les déséquilibres dus aux mouvements de personnes et de matériels à l’intérieur.

USS Seawolf Control Room

Salle de contrôle du sous-marin américain USS
Seawolf ( SSN 21)

 Les systèmes de propulsion

Le système de propulsion d’un sous-marin doit répondre à 3 grandes exigences :

  • Prendre le moins de place possible en prenant en compte le combustible embarqué.
  • Etre le plus silencieux possible pour ne pas se faire repérer par des sonars.
  • Fonctionner de manière anaérobie autant que possible, c’est-à-dire sans utiliser d’air vu qu’en immersion totale, le milieu extérieur est l’eau et non l’air.

 La propulsion mixte diesel-électrique a été la méthode de propulsion la plus utilisée dans la première moitié du 20ème siècle, particulièrement lors des deux guerres mondiales.  Le principe consiste à utiliser un moteur diesel en surface qui est bruyant et nécessite de l’air pour fonctionner tout en rechargeant des accumulateurs électriques qui pourront par la suite alimenter un moteur électrique lors des plongées car les moteurs électriques sont silencieux et anaérobies (ils fonctionnent sans air). Le problème de cette technique est que les accumulateurs électriques prennent beaucoup de place pour une autonomie réduite, en générale une dizaine d’heures.

 Pour remédier à ce problème majeur entrainant une grande vulnérabilité des sous-marins, les hollandais inventèrent un tube à air périscopique appelé schnorchel qui permet de faire fonctionner les moteurs diesels lorsque le sous-marin est à quelques mètres de profondeur. Ce tube dépasse de 1 mètre environ du niveau de l’eau et permet de faire une entrée et une sortie d’air pour les moteurs diesels (le sous marin est donc nettement moins visible). Les têtes des schnorchels ont par la suite été équipées par les Allemands d’un clapet permettant d’éviter l’entrée d’eau dans le tube en cas de mer agitée.

  Alex SousMarin1

Merguez partie au dessus du Schorchel (dessin d’Alex)

 La propulsion nucléaire est le type de propulsion le plus utilisé dans les 50 dernières années pour les sous-marins militaires qui recherchent une grande autonomie sous-marine de manière à couvrir de grandes distances sans avoir besoin de remonter à la surface. Le premier sous-marin nucléaire de l’histoire est le sous-marin américain Nautilus (1954).

 Un réacteur nucléaire (généralement à eau pressurisée) fournit de la chaleur grâce à la fission nucléaire de combustible tel que l’uranium. Cette chaleur permet d’évaporer de l’eau entrainant une turbine à haute vitesse. Cette turbine est ensuite couplée à un alternateur produisant de l’électricité pour alimenter un moteur électrique faisant tourner l’hélice du sous-marin (la turbine peut également entrainer directement l’hélice mais il y a toujours un alternateur pour fournir de l’électricité dans tout le sous-marin)

sousmarin nucleaireSchéma de fonctionnement d’un sous-marin nucléaire

La propulsion nucléaire comporte tous les avantages requis dans un sous-marin : le combustible prend peu de place et demande peu de réapprovisionnement (à titre d’exemple, le sous-marin nucléaire français Rubis peut fonctionner 30 ans sans approvisionnement). De plus, l’autonomie en plongée est de plusieurs mois tout en gardant une puissance de propulsion importante en immersion totale (contrairement aux autres propulsions).

Les AIP (Air Independent Propulsion) représentent une autre classe de propulsion permettant au sous-marin de fonctionner avec un type de propulsion classique mais sans apport d’air tout en  s’affranchissant du danger que peu représenter un système à propulsion nucléaire. La première solution AIP a été d’utiliser la propulsion classique diesel mais en recyclant les gaz d’échappement en réinjectant de l’oxygène stocké sous forme liquide à bord (peu d’autonomie). Les suédois utilisent quant à eux une propulsion mixte moteur Stirling-électrique pouvant fonctionner sans air. Un moteur Stirling est un moteur à combustion externe nécessitant simplement un gaz à comprimer et à détendre avec une source chaude et une source froide. Enfin la propulsion AIP la plus prometteuse est sans doute l’utilisation de la pile à combustible hydrogène
comme le sous-marin allemand Unterseeboot type 212 ayant une autonomie anaérobie complète de 3 semaines avec une signature acoustique faible.

AIP.jpg
Schéma de principe du procédé Stirling de Kockums. Source : Zone sous-marin

 PS : Encore merci à Alex pour ces petits dessins spécialement faits pour ce billet.

 

Les 100 mots du nucléaire

Voici un livre de la collection « Que sais-je ? » que je vous conseille vivement si le
mot nucléaire vous intrigue ou vous fait peur.

100mots nucleaire

Ce livre n’est ni un éloge ni une attaque du « nucléaire », il essaye simplement de définir aussi précisément que possible ce qui se cache dernière ce mot pouvant faire peur. Le but des auteurs est d’expliquer le plus scientifiquement possible les diverses utilisations de l’énergie nucléaire. Cependant, il est évident que les auteurs sont des pro-nucléaires, Anne Lauvergeon est présidente du directoire d’AREVA et Bertrand Barré est conseiller scientifique d’AREVA et président de l’Académie Internationale d’Energie Nucléaire.

Tous les mots en gras dans la suite du texte font partis des « 100 mots » revendiqués par le titre du livre.

Les bases de l’énergie nucléaire

 Les quatre premiers chapitres sont très bien écrits dans un style simple permettant à n’importe qui de mieux s’approprier le mot « nucléaire ». La matière est d’abord disséquée de manière à définir les bases (atome, molécule, noyau, électron, neutron, proton) pour ensuite expliquer de manière pédagogique ce qu’est cette chose étrange qui porte le nom d’énergie. On arrive alors à la description de la radioactivité et de ses différentes formes (alpha, beta et gamma) pour arriver finalement au principe de fission nucléaire qui est à la base du fonctionnement des centrales nucléaires.

Les centrales nucléaires

Cette deuxième grande partie nous explique le principe général de fonctionnement d’une
centrale nucléaire en détaillant chacun de ses organes et de ses constituants (turboalternateur, aéroréfrigérant, réacteur, cœur, combustible, crayon, poison, etc.).

centrale-nucleaire.jpg

Les différentes filières de réacteurs sont ensuite présentées de manière à bien comprendre l’évolution des technologies et d’évaluer les avantages et les inconvénients de tous les types de réacteurs (réacteurs à eau sous pression, à eau bouillante, à eau
lourde
, à neutrons rapides, graphite-gaz, à haute température, etc.). On comprend alors la signification des fameux réacteurs de générations I, II, III et IV.

J’avoue avoir appris beaucoup de chose dans cette partie. Les explications sont relativement claires et assez succinctes. Il est alors facile d’aller chercher quelques compléments d’informations sur internet pour mieux comprendre les différentes technologies abordées.

La sécurité et la pollution

Cette troisième partie présente tout d’abord les aspects de sureté nucléaire et revient sur les différents incidents du passé (comme Three Miles Island ou Tchernobyl) en les analysant et en expliquant pourquoi de tels incidents ne peuvent pas se reproduire dans l’avenir.

nucleaire-tue-avenir.gif

Le thème des déchets radioactifs arrive ensuite où le cycle du combustible est décrit, depuis la prospection jusqu’au stockage en passant par les techniques d’enrichissement et de recyclage. Cette partie est bien expliquée et on comprend bien ce que sont les déchets radioactifs et leur degré de nocivité mais j’aurai aimé trouver plus de détails dans les chiffres qui sont présentés.

Prolifération, Fusion et opinion publique

La dernière partie de cet ouvrage aborde le thème de la non-prolifération du nucléaire à travers le monde et explique les tenants et les aboutissants du traité de non-prolifération.

La fusion nucléaire contrôlée portée par le projet ITER est ensuite succinctement présentée pour donner une idée de cette technologie (qui n’est plus basée sur la fission) qui serait très prometteuse à long terme mais qui est toujours hypothétique.

Un dernier chapitre parle des rapports entre l’opinion publique et l’énergie nucléaire qui n’a jamais été facile et qui fait toujours l’objet d’un vif débat, particulièrement en Europe.

Pour résumer

Ce livre est d’après moi bien écrit et surtout très rapide à lire pour se faire une idée globale assez juste de la filière nucléaire en Europe. Il permet également de bien définir les différents termes en rapport avec l’énergie nucléaire de manière à utiliser les bons mots et les bons concepts dans les conversations et les écrits de chacun : Bref, à mettre en toutes les mains !

La datation radiométrique au carbone-14

N’importe quelle personne a déjà entendu la phrase « cet échantillon a été daté au carbone-14 … » de la bouche d’historiens, de géologues, d’anthropologues ou d’archéologues. Mais c’est quoi le carbone-14 ? Quelle est la différence avec ce bon vieux carbone contenu dans nos mines de crayons de papier ? De plus, n’avez-vous jamais remarqué que les fossiles de dinosaures n’étaient JAMAIS datés avec ce fameux carbone-14, mais pourquoi donc ?

La radioactivité

Toute la matière qui nous entoure est composée d’atomes. Certains de ces atomes sont dit « stables » et demeurent invariants dans le temps, contrairement aux atomes dit « instables » qui viennent se désintégrer pour se transformer en d’autres atomes. Ce phénomène de désintégration porte un nom qui peut faire peur : la radioactivité !
 radioactif

Lors de ces désintégrations d’atomes instables, un rayonnement qualifié de « radioactif » est émis et c’est lui qui peut être dangereux pour l’homme. Mais pas de panique tout de même, la radioactivité est un phénomène naturel et nous vivons au milieu de nombreux éléments radioactifs inoffensifs pour l’homme à faible dose. A chaque seconde, des millions d’atomes de notre environnement se désintègrent pour en former d’autres par le phénomène de radioactivité naturelle. Cependant, certains éléments naturellement radioactifs peuvent être extrêmement nocifs pour l’homme lors de simples expositions comme le radium par exemple, découvert par Marie Curie et ayant entrainé sa mort (les rayonnements issus du radium, encore inconnu à cette époque, avait provoqué une leucémie).

 Il existe aussi des éléments radioactifs issus de réactions nucléaires faites par l’homme pour produire de l’énergie dans les centrales nucléaires ou pour faire des bombes. Dans ce cas, on parle de radioactivité artificielle. La radioactivité artificielle fait généralement intervenir des atomes massifs avec des rayonnements radioactifs intenses qui sont extrêmement nocifs pour l’homme.

Les isotopes

Chaque élément qui nous entoure peut se présenter sous différentes formes selon la structure de son noyau atomique. Le noyau d’un atome est fait de protons et de neutrons normalement en nombre égal. Cependant, il existe des éléments dérivés ayant un nombre de neutrons différents et que l’on appelle isotopes. Ces éléments ayant le même nombre de protons mais un nombre différent de neutrons ont les mêmes propriétés chimiques et paraissent semblables mais ont une masse différente pouvant parfois entrainer des instabilités du noyau et les rendre ainsi radioactifs.

 Exemple avec le carbone :

– Le carbone « normal » présent dans nos mines de crayons de papier possède 6 protons et 6 neutrons, soit 12 nucléons. On l’appelle alors « carbone-12 » ou « carbone » tout court.

– Il existe un isotope avec 2 neutrons supplémentaires (6 protons et 8 neutrons, soit 14 nucléons) appelé en conséquence « carbone-14 » ou encore « radio-carbone » car cet isotope est radioactif.
A ce jour, 117 éléments chimiques dans le tableau de Mendeleïev ont été observés (les plus lourds ont été créés artificiellement) et 2934 isotopes sont recensés par l’Agence Internationale pour l’Energie Atomique (AIEA). Tous les éléments possèdent des isotopes qui peuvent être stables ou instables. Presque tous les éléments possèdent un isotope stable entre l’hydrogène-1 et le bismuth-83 et ensuite, tous les atomes plus lourds sont instables. On peut observer jusqu’à 30 isotopes pour un même élément mais la plupart sont instables.

  carbone-14

Le carbone-14 dans un extrait de la  table des isotopes fournie par le  Services des Données Nucléaires de l’Agence Internationale pour l’Energie Atomique. 

Voir la Table des isotopes dans Wikipédia

Voir la Table des nucléides de l’Agence Internationale pour
l’Energie Atomique

 Le principe de la datation radiométrique

Tous les isotopes instables (et donc radioactifs) sont appelés des radio-isotopes car ce sont des isotopes radioactifs (on trouve également les termes synonymes radionucléides et radioéléments).

Les radio-isotopes présents sur Terre se désintègrent donc au fur et à mesure dans le temps mais certains peuvent être également créés par des réactions nucléaires naturelles dans notre atmosphère. L’idée de la datation radiométrique est de comparer la quantité de plusieurs radio-isotopes dans des échantillons de manière à retrouver l’époque à laquelle ils ont été formés.

Le radio-isotope le plus célèbre pour la datation est le carbone-14.
Notre atmosphère possède une concentration constante de carbone-14 dans le temps, ceci signifie qu’il y a autant de carbone-14 qui se désintègre que de carbone-14 qui se créé dans notre atmosphère : lorsqu’un neutron énergétique venu du cosmos vient « frapper » un atome d’azote de l’air, ce dernier se transforme en carbone-14 et un proton est expulsé en même temps.

 cycle carbone

Le cycle du carbone-12 et du carbone-14 (source : Pierre-André Bourque, Planète Terre)

 Toutes les plantes absorbent du carbone contenu dans l’atmosphère (du carbone-12 et du carbone-14 de manière indifférente) et la chaine alimentaire fait que tous les animaux et les hommes en contiennent également. Lorsqu’un organisme vivant meurt, le carbone qu’il contient est piégé et seule la proportion de carbone-14 va diminuer à cause de la désintégration de ce dernier qui est un isotope radioactif.

Les radio-isotopes se désintègrent plus moins vite selon une exponentielle décroissante (voir la figure ci-dessous). Chaque radio-isotope possède une propriété appelée « demi-vie » ou « période radioactive » qui correspond au temps nécessaire pour que la moitié d’une population de ce radio-isotope se désintègre. Dans le cas du carbone-14, cette demi-vie est d’environ 5730 ans.

  C14 pourcentage

Evolution du nombre d’atomes de carbone-14 dans le temps

 Pour dater un échantillon organique (comme un os d’homme préhistorique par exemple), il suffit alors de « compter » le nombre d’atomes de carbone-12 et de carbone-14 et d’en déduire combien de temps s’est écoulé depuis que cet organisme est mort. La proportion normale de carbone-14 par rapport au carbone total est d’environ 14C/C = 10-12. Ceci signifie qu’il y a 1 atome de carbone-14 pour mille milliards d’atomes de carbone dans un organisme vivant !

Exemple : Si dans un échantillon, on mesure 10 milles milliards d’atomes de carbone, il devait y avoir 10 atomes de carbone-14 lorsque cet organisme est
mort. Si aujourd’hui, on dénombre seulement 5 atomes de carbone-14, cet échantillon sera daté de 5730 ans car la moitié des atomes de carbone-14 auront été désintégrés !

Les instruments de datation

Les 2 principales méthodes utilisées pour dater des échantillons organiques contenant du carbone-14 sont la scintillation liquide et la spectrométrie de masse.

La scintillation liquide consiste à « compter » des produits de la désintégration du carbone-14. Ce dernier se désintègre naturellement et émet un neutron et un électron un peu spécial surnommé particule « beta moins » (désintégration β). La scintillation liquide consiste alors à placer un mélange scintillant qui va venir émettre un photon à une énergie bien précise qui pourra ensuite être détecté par un système électronique lorsque cette fameuse particule beta la traversera.

beta moins

La spectroscopie de masse consiste quant à elle à « compter » les atomes de carbone-12 (stable) et de carbone-14 (radioactif) directement grâce au fait que ces 2 isotopes ont des masses différentes. Cependant, comme la proportion de carbone-14 est extrêmement faible, le spectromètre de masse doit être couplé à un accélérateur de particules permettant alors de, mettre en place des techniques de détection beaucoup plus fiable.

 Pour plus d’info sur ces deux techniques, je vous conseille de visiter le site du centre de datation par le radiocarbone de Lyon (CNRS).

 La fiabilité de la méthode

Comme toute méthode scientifique expérimentale, la datation au carbone-14 peut subir des biais expérimentaux qu’il faut prendre en compte de manière à effectuer des datations précises.

Depuis la révolution industrielle, l’homme a produit du carbone-12 en très grande quantité via son industrie (mais pas de carbone-14), ce qui a pour effet de modifier le rapport entre le carbone-12 et le carbone-14 dans notre atmosphère. A contrario, les premiers essais thermonucléaires dans l’atmosphère ont produit de très grandes quantités de carbone-14. L’homme a donc « déréglé » le cycle du carbone et donc déséquilibré la proportion de carbone-14 durant le siècle dernier ce qui rend la datation au carbone-14 difficile pour le 20ème siècle. Si on effectuait une datation au carbone-14 sur un arbre au bord d’une autoroute, on pourrait le dater vieux de 2000 ans à cause de sa grande concentration en carbone-12 absorbé à cause des rejets des pots d’échappements des voitures.

De plus, des évènements géologiques majeurs comme des éruptions volcaniques ou des grands feux de forêt ont pu dégager une très grande quantité de carbone-12 dans l’atmosphère déréglant également la proportion de carbone-14 dans certaines régions à certaines époques.

 Cependant, l’histoire de la Terre est de mieux en mieux connus et les résultats bruts obtenus par les analyses de carbone-14 sont ajustés par des courbes de calibration réalisées par d’autres méthodes de datation. La dernière courbe de calibration s’appelle InitCal04 et permet de corriger précisément les données obtenues par analyse de carbone-14 jusqu’à 26 000 ans calendaires (26000 ans depuis aujourd’hui, soit 24000 ans av. JC). D’autres courbes peuvent néanmoins faire des corrections jusqu’à 50 000 ans comme CalPal.

C14 calibration

Dérive des dates obtenues par analyse de carbone-14 par rapport aux âges calendaires obtenus par la méthode uranium –  thorium sur des coraux

  Et les dinosaures dans tout ça ?

Les dinosaures sont apparus il y a 250 millions d’années et se sont éteints il y a 65 millions d’années. Les traces de carbone-14 de cette époque ont complètement disparues. La plupart des chercheurs estiment qu’au-delà de 30 000 ans, il y a trop peu de carbone-14 restant pour permettre une datation précise. Il faut donc utiliser d’autres isotopes, ayant une durée de vie beaucoup plus longue.
dino

Dans le cas des dinosaures, on utilise les isotopes d’uranium-238, d’uranium-235 et de potassium-40 qui possèdent des durées de demi-vie supérieures au million d’années. Le problème est que les os et les fossiles n’absorbent pas ces isotopes mais en revanche, les roches et les sédiments environnant le peuvent. L’idée est donc la suivante : on utilise la radiométrie sur les sédiments entourant les fossiles pour les dater à l’aide d’un radio-isotope approprié (style potassium-40) ce qui permet ensuite de donner une fourchette sur l’âge du fossile contenu dans ces sédiments.

D’autres techniques de datation ont permis de conforter les résultats obtenus à l’aide de ces méthodes en analysant des échantillons d’acides aminés ou les changements du champ magnétique terrestre au cours du temps.

ITER : Un avenir énergétique sûr, périn et propre ?

Avant de lire les détails de ITER, il va de soit qu’il faut en premier lieu lire l’article énergie nucléaire. Pour ceux qui ne connaissent pas encore le projet ITER, voici une description succincte en premier lieu.



 ITER (International Thermonuclear Experimental Reactor) est comme son nom l’indique un projet international ayant pour objectif de construire un réacteur à fusion thermonucléaire. Ce projet regroupe l’Union Européenne, le Japon, la Chine, la Corée du Sud, la Russie, les Etats-Unis et l’Inde. La Suisse et le Brésil ont également demandé une candidature. ITER doit créer un réacteur expérimental, c’est-à-dire que c’est une expérience à vocation de Recherche et non une application industrielle. Néanmoins, le but de cette expérience est d’étudier la faisabilité technique et industrielle d’une supposée future centrale à fusion thermonucléaire qui viendrait détrôner toutes les actuelles centrales nucléaires (utilisant la fission). Ce nouveau procédé permettrait de limiter les déchets radioactifs (ici pas de Plutonium, Uranium ou truc dans le genre) et de produire une quantité beaucoup plus importante d’énergie. Pour ce projet, le site de Cadarache en France à côté de Aix en Provence vient d’être sélectionné cette année. Le coût de construction de ce réacteur est estimé à 5 milliards d’euros sur 10 ans si tout se passe bien.

 La presse de vulgarisation scientifique a beaucoup utilisé l’expression : « ITER : Le soleil sur Terre ». Pourquoi ? Tout simplement parce que ce futur réacteur va exploiter le principe de la fusion nucléaire et non la fission nucléaire qui est à l’origine de nos centrales nucléaires actuelles. Toutes les étoiles, et donc notre Soleil, sont en fait d’énormes réacteurs nucléaires à fusion transformant l’Hydrogène en Hélium. ITER produira une fusion entre du Tritium et du Deutérium pour former de l’Hélium (voir article l’énergie nucléaire).


ITER est un tokamak comme ses prédécesseurs (une sorte de gros donut) mais il est beaucoup plus grand avec un rayon externe de 6,2m, soit deux fois plus grand que le plus grand tokamak existant. En fusion, l’équation est assez simple, plus le diamètre du tokamak est important, plus l’énergie dégagée est importante. C’est un réacteur qui devrait dégager une puissance de 500MW pendant 400s pour une puissance apportée en chauffage de 50MW (on a alors une amplification d’un facteur 10). Ce projet utilisera toutes les dernières avancées technologiques en supraconductivité. En effet, ITER utilise la fusion par confinement magnétique, il faut donc créer des champs magnétiques très importants (5,3 Tesla au centre du plasma) et par souci d’efficacité, ITER utilisera des aimants constitués de bobines supraconductrices maintenues à quelques kelvins grâce à un système cryogénique (voir article supraconductivité). Ce projet a de nombreux points communs avec le futur accélérateur de particules du CERN, le LHC, car tous les deux utilisent les mêmes technologies. Je suis d’ailleurs allé l’année dernière quand je travaillais au CERN à un lot de conférences fait par ITER concernant la supraconductivité.

 Les Avantages

Les 2 avantages principaux sont la pollution et la quantité d’énergie. Le seul élément radioactif qui entre en jeu est le Tritium (il est néanmoins très faiblement radioactif avec une demi période de 12,3 ans) qui sera directement produit dans le réacteur à partir de Lithium. Les 2 matières premières sont donc le Lithium et le Deutérium qui sont des composants non dangereux que l’on trouve dans la nature. De plus, les réserves sont suffisantes pour plusieurs millions d’années. Le produit de la réaction, l’Hélium, est un gaz rare complètement inoffensif également.

 Les Difficultés

 Le problème majeur de la fusion est que pour rapprocher suffisamment des noyaux (pour entraîner une fusion) il faut atteindre des températures incroyables. Pour cela 2 méthodes de chauffage peuvent être utilisées :

  • Le chauffage par injection de particules neutres de hautes énergies.
  • Chauffage  par ondes électromagnétique

 Ensuite, les noyaux d’Hélium créés sont très énergétiques et participent à plus de 60% du chauffage une fois la fusion entamée. Aucun matériau ne peut supporter de telles températures, c’est pour cette raison que l’on utilise d’importants champs magnétiques pour faire de la fusion par confinement magnétique. Le chauffage et la création des champs magnétiques consomment bien sûr de l’électricité. Le coût du kilowattheure pour la « Fusion » se situe entre 1,5 à 2 fois de prix du kilowattheure nucléaire classique « fission ». L’électricité serait donc plus cher mais il n’y aurait pas le problème de stockage des déchets hautement radioactifs.

 L’autre problème, celui-ci très préoccupant, et qui à mon avis, peut être un obstacle pour un futur réacteur à finalité industrielle est le bombardement neutronique. On parle assez peu de cet aspect mais c’est un point capital qui pourrait tout faire échouer. On a vu que lors des réactions de fusion, des neutrons sont éjectés à très grande vitesse (il possèdent une importante énergie). Le champs magnétique créé dans le tokamak ne peut évidemment pas bloquer ces neutrons car ils sont électriquement neutres (un champs magnétique capture uniquement les particules chargées) donc ces neutrons énergétiques vont venir bombarder les matériaux alentours. Ce bombardement est réellement violent et au bout d’un certain temps, les matériaux de l’enceinte du réacteur vont être saturés en neutrons et ne pourront plus les stopper entraînant un changement obligatoire et ce n’est pas viable économiquement et changer les matériaux d’enceinte tous les quatre matins. Des recherches sont actuellement faites sur le développement de matériaux absorbant efficacement les neutrons.

 En Bref

ITER doit valider la faisabilité d’un nouveau type de réacteur générant de l’électricité. L’avantage est que ce type de réacteur permettrait de remplacer intégralement toutes les centrales en place en ayant pour matières premières des éléments qu’on trouve abondamment dans la nature pour un bilan écologique très bon. Pas de gaz à effet de serre, juste de la vapeur d’eau comme les centrales nucléaires actuelles, mais ici on a uniquement des déchets très peu radioactifs et très faciles à gérer contrairement à l’Uranium ou Plutonium qui sont des contraintes écologiques gigantesques avec l’énergie nucléaire actuelles.

L’Energie nucléaire

Quand on pense à énergie nucléaire on pense souvent à des grosses tours en béton avec des gros nuages de fumée blanche. On pense aussi à l’Uranium, au Plutonium et à la radioactivité, mais quand est-il réellement ?


Je n’aborderai pas le fonctionnement d’une centrale mais simplement les phénomènes de Fission et Fusion nucléaire qui sont au cœur du problème. J’introduis ces notions car le prochain article portera sur le futur réacteur expérimental à fusion thermonucléaire de Cadarache : ITER.

 Ces 2 phénomènes nucléaires peuvent être résumés simplement de la manière suivante : L’énergie nucléaire se libère de deux façons : ou le noyau d’un atome fusionne avec un autre noyau (fusion) ou il se casse en deux (fission). En général soit on vient fusionner 2 atomes légers (ex : Hydrogène) pour en former un plus lourd (ex : Hélium) soit on vient casser un atome très lourd (ex : Plutonium, Uranium…). On parle d’énergie nucléaire car on utilise une réaction du noyau qui est composé de nucléons (protons et neutrons).

 La Fission

C’est la réaction qui est utilisée dans nos centrales nucléaires et dans les bombes Atomiques. Ce phénomène a été découvert en 1938 par des physiciens allemands suite à des expériences effectuées en bombardant des noyaux d’Uranium avec des neutrons. Attention, tous les atomes ne sont pas
« fissibles » (c’est à dire cassable), ce phénomène est possible avec des atomes ayant un numéro atomique supérieur à 89 (le numéro atomique correspond au nombre de protons dans le noyau d’un atome). Les atomes les plus utilisés sont l’Uranium 235 (c est à dire avec 235 nucléons dans le noyau) et le Plutonium 239 que l’on vient bombarder avec des neutrons. Cette « cassure » de l’atome en 2 autres atomes plus petits vient libérer une énergie formidable sous forme d’énergie cinétique car les 2 atomes ainsi créés se propage à environ 8000 km/s et viennent alors réchauffer la matière ambiante (l’énergie cinétique est proportionnelle à la masse et au carré de la vitesse de l’objet considéré ). Une centrale nucléaire va venir exploiter cette chaleur pour générer de la vapeur d’eau (qu’on voit sortir par la cheminé) et la transformer en électricité.

L’originalité de la fission est la réaction en chaîne. Chaque fission vient dégager 2 ou 3 neutrons libres à très grande vitesse (20 000 km/s) qui peuvent alors provoquer à nouveau une nouvelle fission. On a une réaction en chaîne puisqu’en induisant une seule fission dans la masse d’uranium, on peut obtenir si on ne contrôle pas les neutrons au moins 2 fissions, qui vont en provoquer 4, puis 8, puis 16, puis 32…

Dans les réacteurs, la réaction en chaîne est stabilisée à un niveau donné, c’est-à-dire qu’une grande partie des neutrons est capturée afin qu’ils ne provoquent pas d’autres fissions. Il suffit seulement qu’un neutron, à chaque fission, provoque une nouvelle fission pour libérer régulièrement de l’énergie. Au contraire, pour la bombe, la réaction en chaîne doit être la plus divergente possible dans le temps le plus court : on favorise sa croissance exponentielle et l’on confine l’énergie le plus longtemps possible pour faire BOUM.

La Fusion thermonucléaire

Deuxième phénomène nucléaire, que l’homme maîtrise encore mal mais qui est omniprésent dans l’univers. Effectivement une étoile n’est ni plus ni moins qu’un gros réacteur à fusion nucléaire. Les étoiles (comme notre Soleil) viennent dans leur cœur faire fusionner des atomes d’Hydrogène entre eux pour former un élément plus lourd : l’Hélium. Lorsque notre cher soleil n’aura plus de carburant (d’Hydrogène) alors il s’éteindra… Cette fusion nucléaire se produit spontanément si la température est suffisante pour que les 2 noyaux soient suffisamment proche car ils ont tendance a se repousser par force électrostatique.

Cette réaction fournie une énergie beaucoup plus importante que la fission. C’est cette fusion thermonucléaire qui est utilisé dans les bombes H de manière non contrôlée et qui sera utilisée dans le futur réacteur ITER. Le gros problème c’est que pour provoquer la fusion de 2 noyaux, il faut atteindre des températures titanesques (plusieurs centaines de millions de degrés). Pour faire cette fusion sur Terre, le plus simple est d’utiliser 2 isotopes de l’Hydrogène (deux isotopes sont des atomes ayant le même nombre de protons mais un nombre différent de neutrons) qui sont le deutérium et le tritium. Le deutérium (un proton et un neutron), qui compose l’« eau lourde »,  peut être extrait à partir d’eau de mer assez facilement. On trouve en moyenne 33g de deutérium dans 1m3 d’eau de mer. Le tritium (1 protons et 2 neutrons) est un élément radioactif mais tout de même 87 500 000 fois moins que l’Uranium utilisé dans la fission. Le tritium a une période de radioactivité de 12 ans, l’Uranium 235 a une période de 700  000 000 ans (la période de radioactivité est le temps nécessaire pour que la moitié des atomes d’un isotope radioactif se désintègre naturellement).

Ici, pas de réaction en chaîne, il faut en permanence alimenter cette fusion, on ne peut donc pas avoir de phénomène d’ « emballement » comme avec la fission. Pour le moment, sur Terre, les expériences de fusion sont extrêmement rares, difficiles et coûtent chères. Ces essais ont été réalisés dans des Tokamaks (une sorte de gros Donut, voir photo) pourvu d’un énorme champs électromagnétique permettant de faire flotter le plasma au centre du donut, on parle alors de fusion par confinement magnétique. On citera juste les expériences JET chez les européens, JT-6OU pour les japonais, Tore Supra en France et T-15 en Russie. Les résultats sont encore peu convaincants mais les scientifiques du monde entier mettent leurs billes sur le projet international ITER.