Le CERN 2014 en 10 photos

Aujourd’hui, mon billet est consacré à 9 photos du CERN qui m’ont marquées en 2014 plus une photo de ce début 2015. Vous trouverez à chaque fois des liens hypertextes si vous souhaitez plus de détails.

Ma première photo sélectionnée, la seule de 2015, est le drapeau du CERN mis en berne le vendredi 09 Janvier lors de la minute de silence en hommage aux journalistes assassinés de Charlie Hebdo

CERN_flagCrédit image Maximilien Brice/CERN © CERN

 Formation sécurité de chariot-tracteur sur le site du CERN Prévessin (Décembre 2014).Towing Tractor Training Session

Crédit image Christoph Balle /CERN © CERN

 Insertion du détecteur à pixel de CMS proche du tube faisceau du LHC (Décembre 2014).CERN_CMS

Crédit image Noemi Caraban Gonzalez/CERN © CERN

John Ellis dans son bureau avec son nouveau pullover symbolisant le fameux diagramme pingouin inventé par le physicien en 1977 (Octobre 2014).CERN_Ellis

Crédit image Guillaune Jeanneret / CERN © CERN

 Début du perçage du futur tunnel qui hébergera l’expérience AWAKE au CERN. Cette expérience permettra d’accélérer des électrons par accélération plasma (Aout 2014). CERN_AWAKE

Crédit image Maximilien Brice/CERN © CERN

Le directeur général du CERN, Rolf Heuer, rencontre le pape François au Vatican (Juin 2014). Voir cet article du temps intéressant de Rolf Heuer sur les différences entre Benoit XVI et le pape François au sujet de la Science.LHC_pape

Image credit: Photographic Service – L’Osservatore Romano

Installation du détecteur IBL juste autour du tube faisceau de l’expérience ATLAS (Mai 2014). CERN_IBL

Crédit image Claudia Marcelloni De Oliveira /CERN © CERN

 Installation du dernier des 27000 « shunts » des aimants supraconducteurs du LHC (Avril 2014) LHC_Soudure

Crédit image Maximilien Brice/CERN © CERN

Cavités radio fréquence « drift tube » du futur accélérateur linéaire LINAC4 qui injectera les protons vers le LHC à partir de 2020.CERN_LINAC4

Crédit image Maximilien Brice/CERN © CERN

 Et pour finir, ma photo préférée: Maria et Giuseppe Fidecaro, célèbre couple fidèle au restaurant 1 du CERN (Février 2014). Ils sont au CERN depuis 1956 et sont toujours actifs aujourd’hui, comme quoi, la physique des particules, ça conserve ! Plus de détails sur ce couple fabuleux ici si vous le souhaitez.CERN_fidecaro

Crédit image Anna Pantelia / CERN © CERN

De la RMN à l’IRM

Tout le monde connait maintenant l’Imagerie par Résonance Magnétique (IRM) qui est devenue un examen presque classique en imagerie médicale lorsqu’on a besoin d’images précises de la moelle épinière ou du cerveau mais aussi pour toutes les articulations, muscles, cellules cancéreuses ou toutes zones irriguées par le sang.

IRM-1La France est cependant sous-équipée avec seulement 684 IRM au total sur son territoire, soit environ 10 IRM par million d’habitants, contre une moyenne de 20 en Europe, ce qui explique une attente moyenne de 37,7 jours en France pour réaliser cet examen parfois indispensable pour rendre un diagnostic à des patients souffrants en attente d’un traitement adéquat (source). La France fait donc figure de mauvaise élève en la matière. Certes, un IRM coûte cher, dans les 2 millions d’euros, mais la demande n’est pas satisfaite comme il se devrait.

IRM_photoJe vais essayer de vous expliquer ici comment fonctionne un IRM et pourquoi cette technique est si révolutionnaire, ne présentant quasiment que des avantages.

La Résonance Magnétique Nucléaire

L’IRM est basée sur un phénomène physique appelé la Résonnance Magnétique Nucléaire (RMN) découvert en 1938 par Isidor Isaac Rabi, un des pères fondateurs du CERN à Genève (Organisation Européenne pour la Recherche Nucléaire) et qui obtiendra d’ailleurs le prix Nobel pour cette découverte en 1944. On dénombrera d’ailleurs pas moins de 5 prix Nobel ayant un rapport avec la RMN et l’IRM entre 1944 et 2003.

La RMN tire son explication du fait que les noyaux des atomes (les protons et les neutrons) possèdent une sorte de « petit aimant » interne que les physiciens appellent « spin ». On peut donc dire qu’un atome possède aussi un spin en ajoutant tous les spins de chaque particule qui le compose. A noter que si 2 petits aimants sont inverses l’un de l’autre, alors ils s’annulent et le spin résultant est ainsi nul.

Si on applique un champ magnétique à ces « petits aimants », ils vont alors se mettre à tourner sur eux même en décrivant un cône, un peu à la manière d’une toupie, c’est le phénomène de la précession de Larmor.

 IMR_Larmor

Un atome de spin non nul assure un mouvement de précession de Larmor autour d’un champ magnétique constant (B0)

Ainsi, tous les atomes ayant un nombre de protons et de neutrons pair come l’oxygène (4 protons + 4 neutrons) et le carbone (8 protons + 8 neutrons) ont un spin nul et ne sont donc pas soumis au phénomène de RMN. En revanche, tous les atomes ayant un nombre de protons et de neutrons impair sont soumis à ce phénomène de résonance magnétique tel l’hydrogène (1 seul proton). L’hydrogène est intéressant en RMN car il très bien connu des scientifiques et il est présent en grande quantité dans le corps humain dans les molécules d’eau (H2O).

Comment fabriquer une image ?

Pour fabriquer une image en 3 dimensions, on va mettre l’échantillon qui nous intéresse (un homme par exemple) dans un puissant champ magnétique constant. Tous les atomes de spins non nuls vont alors tourner comme des toupies dans la même direction. On va alors ajouter dans une autre direction de l’espace un champ magnétique oscillant au champ magnétique constant de manière à exciter certains atomes qui vont osciller à leur tour à une fréquence bien particulière et quand on va arrêter ce champ oscillant, les atomes vont regagner progressivement leur position initiale dans le champ magnétique constant, c’est ce qu’on appelle la relaxation. Chaque atome oscille à une fréquence bien précise en fonction du champ magnétique, par exemple, l’hydrogène oscille à une fréquence de 42 MHz pour un champ magnétique de 1 Tesla. Lorsque ce phénomène apparait et disparait, on peut mesurer avec une antenne réceptrice ces atomes comme l’hydrogène qui ont changé de direction sous l’influence de ce champ magnétique oscillant. On répète l’opération dans les 3 dimensions et à plusieurs fréquences connues si on s’intéresse à plusieurs composés chimiques et on peut alors mesurer la répartition de chaque ensemble d’atomes dans l’espace.

IRM_craneUne fois toutes ces mesures faites, il faut alors reconstituer une image en 3 dimensions. Cette question a pu être résolue récemment dans les années 70 grâce aux importants progrès en traitement du signal et grâce aux progrès de l’informatique sans lesquels l’IRM serait impossible car cette technique nécessite une grande quantité d’information et de calcul pour reconstituer une image.

L’IRM : la machine

En gros, un IRM, c’est:

  • Un gros aimant pour faire un champ magnétique permanent et homogène, c’est le gros tube dans lequel on rentre et qui fait environ 60 cm de diamètre.
  • Trois bobines de gradient dans les 3 directions de l’espace pour créer les champs magnétiques oscillants. Elles sont généralement réparties autour du tunnel de l’aimant.
  • Des antennes radiofréquences pour mesurer le signal de précession des atomes qui résonnent. Généralement placées autour de la tête ou de toute autre zone à observer.
  • Un super PC qui fait tourner un algorithme informatique pour décrypter toutes les mesures des antennes et reconstituer l’image.

La pièce centrale de l’IRM est véritablement l’aimant principal car plus le champ magnétique est intense, meilleur sera la résolution de l’image à la fin. C’est pour cette raison qu’aujourd’hui la plupart des IRM utilisent des aimants supraconducteurs (voir ce billet sur la supraconductivité) permettant d’atteindre des champs magnétiques jusqu’à 7 Teslas dans les IRM, soit plus de 100 000 fois le champ magnétique terrestre qui nous indique le nord ! Grâce à ces champs extrêmement puissants on obtient des images précises au millimètre avec un très bon contraste. Le CEA est même en train de construire un IRM à 11,5 Tesla pour une ouverture de 90cm (Iseult) dans le cadre du projet Neurospin à Saclay.

 IRM_IseultCoupe de laimant Iseult de 11,5 T pour le projet Neurospin. En orange : les bobines supraconductrices. En bleu : lenceinte hélium et la structure mécanique © CEA.

Evidemment, le coût de ces aimants est important et en plus, ils doivent fonctionner à une température cryogénique proche du zéro absolu. En effet, les aimants supraconducteurs IRM sont généralement refroidis à 4,5 K, soit -266 degrés à l’aide d’hélium liquide et demande donc une infrastructure assez importante pour fonctionner avec un coût associé non négligeable.

Est-ce dangereux ?

Certains détracteurs tentent de montrer que l’exposition à des champs magnétiques de manière répétée peut entrainer des troubles de santé mais rien n’a jamais été prouvé jusqu’à présent et il est clair que le fait de réaliser quelques IRM dans l’année (une séance dure environ 30 minutes) est inoffensif pour la santé. L’IRM conventionnel n’utilise pas de traceur et il n’y a aucune radiation liée à cette technique (cependant on trouve parfois le couplage de l’IRM avec un agent de contraste radioactif pour améliorer certain diagnostic).

C’est d’ailleurs un des principaux atouts de l’IRM contrairement aux angiographies ou aux scanners qui utilisent des rayons X provoquant l’irradiation des patients de manière significative. A titre de comparaison, un patient réalisant un scanner de l’abdomen  reçoit d’un coup une dose de radiation de 10 millisievert, soit la moitié du seuil maximal accepté pour un travailleur français dans le nucléaire en une année complète alors que pour une IRM classique, c’est zéro !

Il y a cependant des contre-indications pour passer une IRM comme :

  • La présence d’objets métalliques dans le corps : bah oui, imaginez ce que va faire un morceau de métal dans un champ magnétique intense… Je ne parle même pas d’un patient ayant un pacemaker qui n’a pas le droit d’approcher un IRM à moins de 15 mètres.
  • La claustrophobie : le tunnel fait dans les 60cm de diamètre, on est attaché sur une table mobile et ça fait un boucan d’enfer…
  • L’obésité et les femmes enceintes (toujours le problème de l’étroitesse du tunnel). IRm-2

 L’IRM fonctionnelle : une révolution

Une autre révolution est l’IRM dite fonctionnelle, ou encore IRMf. Cette technique se base sur le fait que la désoxyhémoglobine (les globules rouges dans le sang auxquelles les atomes d’oxygène ont été absorbés par le métabolisme du corps) est sensible au phénomène de RMN. On peut alors exciter la fréquence de ces molécules par RMN et ainsi avoir un indice sur l’afflux de sang oxygéné qui chasse le sang désoxygéné. Ce signal appelé « signal BOLD » peut s’acquérir en IRM en environ une seconde seulement.

On peut alors enregistrer ce « signal BOLD » en temps réel sur un patient dans une IRM comme un film et suivre en direct l’oxygénation du cerveau lors d’exercices cognitifs qui mettent en avant quelles zones du cerveau sont actives. Cette technique a été révolutionnaire car elle permet une résolution spatiale de l’ordre du millimètre  et une résolution temporelle de l’ordre de la seconde sans aucune contrainte de répétitivité comme l’IRM est non invasive et ne génère pas de radiation. irmf1-grdImage obtenue par IRMf illustrant la dissociation dans le cortex orbitofrontal entre récompenses primaires (image érotique) et secondaire (gain d’argent). © CNRS.

Ces avantages ont permis de très grandes avancés pour la recherche en psychologie cognitive et comportementale ainsi qu’en psychiatrie dans les 10 dernières années. L’IRMf a détrôné la TEP (Tomographie par Emission de Positrons) qui était jusqu’alors utilisée pour faire des études du cerveau mais avec une résolution de plus de 250 mm3 et une résolution temporelle de 2 minutes tout en étant invasif et générant des radiations.

FCC: le CERN étudie un accélérateur de 100 km !

Nom de code : FCC pour Future Circular Collider, c’est le nom du projet qui regroupe un ensemble d’études pour des futurs grands accélérateurs de particules circulaires de l’ordre de 100 km de circonférence dans la région de Genève où le CERN exploite actuellement le plus grand accélérateur de particules du monde, le LHC (Large Hadron Collider), qui mesure 27 km de circonférence.

FCC_planLocalisation du FCC par rapport au LHC dans la région genevoise. Le FCC passerait sous le lac Léman  et contournerait le massif du Salève entre Suisse, Ain et Haute Savoie. © CERN.

Un accélérateur de 100 km pour faire quoi ?

Si le LHC ne trouve pas de nouvelles particules jusqu’à son énergie maximale en 2018  (14 TeV au centre de masse), cela peut signifier qu’il y a peut-être des particules encore plus massives au-delà de cette énergie qui pourraient répondre aux questions des physiciens qui restent toujours en suspens:

  • Qu’est-ce que la matière noire ?
  • Quelles sont tous les constituants de la matière ?
  • Quelle est l’origine de l’asymétrie matière/antimatière ?
  • Pourquoi la masse des neutrinos est si petite et ont-ils des partenaires super-massifs ?
  • Les particules ont-elles des partenaires super-symétriques ?
  • Y a-t-il d’autres forces dans la nature à plus hautes énergies ?

La communauté internationale s’est donc fixé une limite de 100 TeV au centre de masse (soit 7 fois plus que le LHC) pour repousser cette limite où notre technologie future devrait pouvoir nous conduire mais il y a beaucoup de recherche et de développement à faire pour arriver à ce résultat extrêmement ambitieux. Beaucoup de gens du métier disent que « c’est complètement fou, c’est impossible » mais un ancien responsable de la construction du LHC me disait il y a quelques mois que « c’est exactement ce que tout le monde disait dans les années 80 en parlant du LHC, mais c’est aujourd’hui une réalité et un succès, alors pourquoi serait-ce différent avec le FCC ? ».

En effet, maintenant que le LHC fournit ses résultats et que le boson de Higgs a été découvert à une énergie de 125 GeV, la communauté internationale étudie dès à présent l’ère post-LHC.  Lors de la dernière réunion de la stratégie européenne en physique des particules à Bruxelles en mai 2013, plusieurs grandes priorités pour l’Europe ont été définies dont la nécessité de commencer à étudier des accélérateurs protons-protons et électron-positrons repoussant la limite d’énergie à la frontière des technologies possibles (voir le résumé ici).

FCC_membersParticipants au meeting du coup d’envoi pour le FCC à l’université de Genève en février 2014. ©CERN.

Le CERN doit maintenant rendre une étude conceptuelle détaillée (CDR pour Conceptual Design Report) comprenant les différents aspects du FCC pour la physique, les détecteurs, les accélérateurs et les infrastructures associées pour 2018, date à laquelle une décision devrait être prise par l’Europe, tout en considérant les données fournies par le LHC pendant sa deuxième phase d’exploitation 2015-2018.

Les différents projets

Le FCC encapsule 3 projets de collisionneurs circulaires d’une centaine de kilomètres :

  • FCC-hh : Un collisionneur hadronique proton-proton avec une énergie de 100 TeV au centre de masse (pour comparaison, le LHC est à 14 TeV)
  • FCC-ee (anciennement dénommé TLEP) : Un collisionneur leptonique électron-positron fournissant des faisceaux à des énergies de 45 GeV à 175 GeV (pour comparaison, le LEP2 était à 104 GeV par faisceau).
  • FCC-he : Un collisionneur lepton/hadron réalisant des collisions entre des protons et des électrons à ces énergies.

Le FCC-ee serait en fait une étape intermédiaire pour étudier les bosons W/Z ainsi que le quark top et bien sûr le boson de Higgs en détail avant de construire le FCC-hh qui serait véritablement le projet final pour repousser la limite de l’énergie et trouver de nouvelles particules massives. L’approche est un peu analogue avec l’expérience du LEP (électron/positron) qui a cédé la place au LHC (proton/proton) par la suite.

La taille du FCC n’est pas encore arrêtée car elle est fonction des surcoûts liés au génie civil (plus c’est grand, plus c’est cher) et au surcoût engendré par les aimants qui doivent être plus puissants si l’accélérateur est plus petit pour la même énergie. De plus, les contraintes géographiques peuvent avoir un impact significatif (lac, montagne, …) sur le génie civil. Les études portent donc sur des versions à 80 km et à 100 km de circonférence pour comparer sérieusement les différentes options qui peuvent s’offrir à nous.

Dans ces 3 projets ambitieux, plusieurs technologies clef sont encore à démontrer pour leur faisabilité, en particulier :

  • Pour le FCC-hh : la capacité de fabriquer en grande quantité des aimants supraconducteurs de 16 Teslas (pour la version 100 km) ou 20 Teslas (pour la version 80km).
  • La capacité de refroidir à une température cryogénique l’ensemble des 100 km d’aimants supraconducteurs de manière réaliste et fiable.
  • Pour le FCC-ee : La capacité de développer des structures accélératrices plus efficaces car il faut compenser environ 7,5 GeV de perte synchrotrons à chaque tour pour des électrons, soit une puissance de 50 MW à apporter à chaque faisceau de manière continue.

 FCC_cryoEvolution de la capacité de refroidissement cryogénique à 4,5 K nécessaire aux accélérateurs existants et projection pour le FCC. © Laurent Tavian.

Le coût

En termes de coût, il est actuellement impossible de donner un chiffre car il y a encore de nombreuses inconnues mais on peut tenter d’extrapoler à partir des expériences passées (LEP et LHC). On peut ainsi estimer le coût à environ 8 milliards d’euros pour le FCC-hh et à 1,5 milliards d’euros pour le FCC-ee (source ici). En termes de consommation électrique, il faut compter environ 450 MW pour le FCC-hh, ce qui représente 4 fois la consommation du LHC. C’est beaucoup mais ça reste dans le domaine du possible sous réserve de développer quelques nouvelles technologies, d’autant que le coût de construction est à distribuer sur au moins une décennie et à répartir entre tous les pays membres du CERN, soit 28 pays.

Plus d’info :

Le verre dans tous ses états

Une histoire de vitrail de cathédrales

Lors d’une visite de cathédrale en région centre pendant mon enfance (oui, j’ai eu une enfance difficile), je me rappelle qu’on m’a expliqué que les vitraux étaient très vieux (genre XIIème siècle) et que la preuve était la suivante: le verre qui constitue le vitrail a coulé avec la gravité et les vitres sont plus épaisses en bas qu’en haut. Me rappelant cette anecdote,  je vais chercher un peu sur le net et cette explication est finalement complètement erronée (la preuve ici dans ce papier paru dans l’American Journal of Physics en 1998). Ce papier permet de calculer le temps qu’il faut au verre pour couler (ce qu’on appelle le temps de relaxation) après l’étude chimique des verres employés aux temps des cathédrales. Dans les vitraux du 12ème siècle, il faudrait compter plusieurs milliards d’années avant de voir le verre couler ! Ça serait physiquement possible en « seulement » 800 ans mais avec une température moyenne de 400 degrés ! En fait, c’est la méthode de fabrication de l’époque qui ne permettait pas la fabrication de vitraux « plats » mais plus épais d’un côté. Le coté le plus épais était donc naturellement placé en bas pour des questions de stabilité du vitrail.

    vitrail-blog

Verre : Solide ou liquide ?

OK, le verre peut donc quand même couler mais dans des temps très longs à température ambiante. Mais au fait, le verre, c’est un liquide ou un solide ? Physiquement parlant, le verre est un solide amorphe : c’est un solide car il possède un volume et une forme propre mais il est qualifié de amorphe car ses atomes ne sont pas structurés de manière organisée à moyenne et à grande échelle, contrairement aux solides cristallisés qui nous sont plus familiers comme les métaux, la neige, le sucre, etc. En fait, cette question est tout de même encore débattue par certains scientifiques mais la communauté considère bien le verre comme un solide, même s’il possède la structure atomique désorganisée d’un liquide.

Transition vitreuse

Pour comprendre la confusion des thermodynamiciens sur l’état du verre, il faut regarder comment le verre est fabriqué :

  • On prend de l’oxyde de silicium (constituant du sable) avec un fondant (qui permet d’abaisser la température fusion) et on les fait fondre à haute température (environ 1300 C) : ces composés sont alors sous forme liquide.
  • On procède ensuite à un refroidissement extrêmement rapide de ce liquide de manière à passer le point de fusion très vite et à ne pas laisser le temps aux atomes de se cristalliser pour former un solide classique, on obtient alors un liquide surfondu.
  • Si on abaisse encore la température mais cette fois-ci doucement, on obtient un « verre » à partir de la « température  de transition vitreuse » où la viscosité augmente alors brutalement pour former un solide amorphe.

 thermo_verre

Le cristal… de verre

Nous venons de voir que par définition, le verre est un solide amorphe, ce qui est l’opposé d’un cristal. Mais alors, comment peut-on fabriquer des verres (à boire) et des carafes en cristal ? Eh bien c’est tout bonnement impossible ! Le mot « cristal » est ici un abus de langage (au sens du physicien) car la structure atomique du « cristal de verre » n’est pas un cristal mais bien un verre !

cristal-francais-verre-vinEn fait, le cristal de verre est un verre dans lequel il y a au moins 24% de plomb (on parle même de cristal supérieur quand la proportion de plomb dépasse les 30% de la masse totale). C’est pour cela que les verres en cristal sont si lourds ! En effet, le plomb a de nombreux avantages dans la fabrication du verre : il permet d’abaisser la température de fusion du verre et donc permet un travail plus facile car plus malléable pendant plus de temps. De plus, le cristal de verre possède un bel éclat à cause de son indice de réfraction important ainsi qu’une sonorité cristalline.

saturnismeAutre chose de très important : ne jamais boire de coca  ayant été conservé dans une carafe en cristal, ça peut être mortel ou rendre votre enfant débile (je ne rigole pas). En effet, les liquides acides (comme le coca et les alcools) peuvent devenir toxiques s’ils sont conservés dans une carafe en cristal ayant peu servi car ils se chargent en plomb jusqu’à des niveaux toxiques et on peut alors en ingérer avec tous les problèmes que cela peut occasionner comme le saturnisme. Il y a même de nombreuses personnes qui pensent que la goutte qui est observée dans la bourgeoisie européenne et nord-américaines serait en fait du saturnisme chronique (qui présente les mêmes symptomes) à cause de leur consommation régulière d’alcool dans des carafes en cristal (voir cet article du American Journal of Medecine par exemple).
Mais bon, si les carafes sont utilisées seulement quelques heures et qu’elles sont bien nettoyées, ça ne pose pas de problème et les carafes en cristal modernes sont souvent pourvues d’une couche protectrice à l’intérieur pour justement éviter de contaminer en plomb les liquides qui s’y trouvent.

Du cristal dans les détecteurs de particules ?

On m’avait déjà trompé dans mon enfance avec les vitraux de cathédrales et maintenant, à l’âge adulte, on me trompe encore dans les détecteurs de particules ! J’ai entendu au CERN que le détecteur de particules CMS détectait dans le LHC certaines particules à l’aide de cristaux de « verre au plomb ». Effectivement, on peut voir ces espèces de lingots de verre, extrêmement lourds, installés dans le détecteur. Eh bien c’est encore faux ! Ces cristaux sont de vrais cristaux au sens physique du terme, avec une structure atomique bien ordonnée, et ce ne sont absolument pas des verres !

En fait, ces cristaux « plombés » permettent de freiner certaines particules et donc de mesurer leur énergie (on parle de calorimètres). Par exemple, le détecteur de particules CMS au CERN possède 80 000 cristaux de tungstate de plomb (PbWO4) pour mesurer l’énergie des particules sensibles à la force électromagnétique comme les photons et électrons. A leur passage dans ces cristaux, les électrons et photons scintillent et génèrent de la lumière de manière proportionnelle à leur énergie et cette lumière générée est ensuite transformée en signal électrique. Ce signal est alors amplifié pour être par la suite traité informatiquement de manière à recalculer avec une très grande précision l’énergie de la particule qui a traversé le cristal (mais pour que ça marche, il faut contrôler la température du cristal au dixième de degré, ce qui n’est pas super facile).

Au total, il a fallu plus de 10 ans aux scientifiques et ingénieurs pour fabriquer ces 80 000 cristaux aux propriétés très spéciales dans une ancienne base militaire russe ainsi que dans un institut chinois à Shanghai. Imaginez que la densité de ces cristaux est de 8,3 tonnes par m3, soit plus que de l’acier (7,8 tonnes par m3) !! Chaque petit cristal pèse 1,5 kg alors que son volume est analogue à une petite tasse à café (parallélépipède de 2,2 cm de côté et 23 cm de long).

 CMS_CristalCristaux de tungstate de plomb utilisés dans le détecteur CMS (et ce n’est pas du verre !)

 Des particules plus rapides que la lumière dans le verre au plomb

En revanche, il est vrai qu’il existe bel et bien des détecteurs de particules utilisant du verre au plomb pour détecter des particules énergétique comme les muons. Ces verres au plomb ont également une grande densité (plus de 6 tonnes par m3) et quand des muons ultra-relativistes (qui vont presque aussi vite que la lumière) traversent du verre au plomb, ils sont beaucoup moins freinés que les photons de lumière et vont alors plus vite que la lumière dans le verre au plomb (mais attention, en aucun cas ils ne dépassent la vitesse de la lumière dans le vide). Ce faisant, un cône de lumière bleue est émis le long de la trajectoire de ces muons qui dépassent la vitesse des photons, c’est ce qu’on appelle l’effet Tcherenkov. C’est le même effet qu’on peut observer dans les piscines de stockage des déchets radioactifs dans les centrales nucléaires où une belle lumière bleue est émise du fait que plusieurs particules vont plus vites que les photons dans l’eau de la piscine.

L’Andra: stocker les déchets nucléaires pour un million d’années

Ce week-end, le C@fé des Sciences était en déplacement pour visiter le laboratoire de recherche souterrain de Meuse/Haute-Marne piloté par l’Andra (l’Agence Nationale pour la gestion des Déchets RAdioactifs). En effet, depuis 2006, une loi votée par l’Assemblée Nationale et de Sénat (La loi du 28 juin 2006) donne à l’Andra la mission de concevoir et d’implanter le stockage qui accueillera les déchets nucléaires les plus toxiques.

andra_Eric     Notre Guide Eric, à 500 mètres sous terre, nous fait un petit cours de géologie à 1h du matin.

Je vais essayer de vous relater ici notre visite qui a été extrêmement intéressante, particulièrement grâce à notre guide Eric, qui a su nous captiver et nous émerveiller tout en nous faisant prendre conscience de l’importance et de la difficulté d’un tel projet que l’on ne peut qualifier que d’ambitieux mais indispensable si l’on veut être responsable et continuer à dormir sur nos deux oreilles.

Les déchets concernés

En gros, on peut catégoriser deux grandes catégories de déchets nucléaires :

  • Les déchets technologiques et de démantèlement : ce sont tous les matériaux qui ont été en contact avec des sources radioactives et qui ont été activés à leur tour comme les combinaisons, les gants, les outils, le béton environnant, les tuyaux, etc.
  • Les déchets de combustibles dans lesquels on ne peut plus rien exploiter suite à la fission dans le réacteur puis au retraitement à la Hague.

Ici, on va s’intéresser seulement aux déchets de combustibles qualifiés de Haute Activité (HA) et de Moyenne Activité à Vie Longue (MA-VL). Ces déchets ne représentent que 3,2% du volume total des déchets mais 99,9 % de la radioactivité totale (et donc en gros de la dangerosité pour faire court). L’élimination totale du danger de certains déchets HA peut atteindre le million d’années à cause de certains éléments. Les 7 produits de fissions les plus longs à disparaitre sont par ordre d’abondance :

  • Le césium 135, demi-vie de 2,3 millions d’années pour 3,45 %.
  • Le zirconium 93, demi-vie de 1,53 million d’années pour 3,06  %.
  • Le technétium 99, demi-vie de 211 100 ans pour 3,06 %.
  • L’iode 129, demi-vie de 15,7 millions d’années pour 0,64 %.
  • Le palladium 107, demi-vie de 6,5 millions d’années pour 0,09 %.
  • L’étain 126, demi-vie de 100 000 ans pour 0,03 %.
  • Le sélénium 79, demi-vie de 280 000 ans pour 0,025 %.

A noter qu’il existe aussi d’autres éléments lourds non fissionnés que l’on appelle les actinides mineurs comme l’américium ou le neptunium mais je n’en parlerai pas ici en détail.

Le labo de Bure

Le laboratoire de recherche souterrain de Meuse/Haute-Marne, ou  « labo de Bure » pour les intimes, est situé à la frontière entre la Haute-Marne et la Meuse, à mi-chemin entre Troyes et Nancy. Il a pour objectif depuis 2000 d’étudier la formation géologique de cette région à environ 500 mètres sous terre. En effet, à cette profondeur se cache une couche d’argilite (mélange dargile et de quartz) de  plus de 100 mètres d’épaisseur qui est particulièrement propice au stockage des déchets nucléaires à une échelle de temps avoisinant le million d’années pour plusieurs raisons:

  • Couche crée il y a 150 millions d’années entre 2 couches de calcaire. On connait bien son histoire géologique sur une longue période et on peut extrapoler raisonnablement.
  • Stabilité tectonique de la région évitant de déformer la roche et les déchets qui y sont stockés.
  • Roche homogène, sans faille et sans surprise pour les forages.
  • Bonne résistance à la compression (équivalent à du béton).
  • Faible conductivité thermique pour éviter de chauffer les alentours avec les déchets radioactifs qui vont rayonner et donc chauffer pendant un bon moment.
  • Roche plutôt bien imperméables dans laquelle l’eau se déplace très lentement et les déchets devraient donc rester au sec relativement longtemps mais inévitablement, sur plus de 100 000 ans, l’eau atteindra les déchets et il faut donc s’assurer que l’eau qui peut transporter des éléments radioactifs se déplace peu et que cela arrivera le plus tard possible.

andra_alveoleAlvéole creusée dans une galerie visant à expérimenter comment la roche se comporte et se déforme après le creusement (c’est dans de telles alvéoles que les colis de déchets HA seront insérés en file indienne)

Aujourd’hui le laboratoire de Bure compte 1,5 kilomètres de galeries dans lesquelles 660 forages ont été réalisés et équipés avec plus de 3 000 capteurs fournissant plus de 7 000 points de mesure (pression, température, déformation, composition chimique, PH, etc.).  L’idée consiste donc à valider un futur stockage profond des déchets nucléaires HA et MA-VL dans les environs. Des expérimentations dans ce laboratoire souterrain visent notamment à :

  • Etudier l’eau contenue dans la roche, sa composition et ses déplacements.
  • Comprendre comment la roche se comporte après des forages et creusements en tout genre. Eh oui, à cette profondeur, si vous faites un trou « rond » de plusieurs dizaine de mètres de long, en peu de temps, vous obtiendrez un trou « carré » à cause des contraintes de la roche sous pression.
  • Etudier la conduction thermique dans la roche pour comprendre comment la chaleur se propage.
  • Etudier la diffusion des éléments radioactifs dans la roche : un élément en forte concentration à un endroit à toujours tendance à se diffuser dans la matière environnante de manière à équilibrer les concentrations.
  • Etudier comment le verre, l’acier et le béton se comportent dans la roche et dans l’eau sous haute pression car ce sont principalement ces 3 matériaux qui vont permettre de contenir les déchets le plus longtemps possible.

Bure_eauExpérience visant à analyser l’eau contenue dans la couche d’argilite

Vous l’aurez compris, ce laboratoire souterrain est unique en France et permet une analyse géologique, chimique et physique de cette couche d’argilite dans l’objectif d’y mettre nos déchets nucléaires pour longtemps, très longtemps…

Le projet Cigéo

Suite à la confirmation que ce site est propice au stockage, l’Andra a donc mis sur pied un projet pharaonique dénommé Cigéo pour stocker tous les déchets de combustibles HA et MA-VL produits jusqu’à présent ainsi que ceux qui seront produits jusqu’à la fin du parc nucléaire français actuel. On parle ainsi des déchets issus des 58 réacteurs nucléaires actuels plus le réacteur de Flamanville actuellement en construction.

Les déchets sont conditionnés sous forme de colis provenant principalement de la Hague. Un colis HA fait 180 litres et possède « seulement » 70 kg de déchets pour 420 kg d’emballage. Les déchets sont noyés dans une espèce de verre (vitrification) de manière à ce que les déchets soient noyés et dilués le plus possible pour s’assurer que la masse critique des éléments les plus lourds ne soit pas atteinte pour entamer une nouvelle réaction de fission. Les colis MA-VL contiennent quant à eux 550 kg de déchets pour 160 kg d’emballage. Le volume des colis pour Cigéo est estimé à 80 000 m3 (10 000 m3 de colis HA et 70 000 m3 de colis MA-VL), soit une vingtaine de piscines olympiques à enterrer à 500 mètres.

 andra_HAVLUn colis de déchet HA (Haute activité) : 180 litres pour 490 kg au total dont 70 kg de déchet

Une fois arrivés en Haute-Marne, les colis seront alors mis dans des conteneurs de stockage avant de descendre à 500 mètres de profondeur pour être stocker dans la couche d’argilite. Le volume à stocker avec les conteneurs sera ainsi de 380 000 m3 au total, soit un peu plus que la Tour Montparnasse à Paris… Au total, le site Cigéo couvrira environ 15 km2.

En termes de financement, ce sont les producteurs de déchets qui financent l’Andra à travers une « taxe recherche » depuis 2006 qui constitue une enveloppe de 118 millions d’euros annuelle. Ainsi, EDF est le premier contributeur avec 78% du total, puis le CEA avec 17% et enfin AREVA au titre de 5%.

Le projet Cigéo est évalué à environ 15 milliards d’euros par l’Andra sur 100 ans pour la construction, l’exploitation et la fermeture du site. Bien évidemment, ce genre d’exercice est toujours à considérer avec précaution dans ce genre de projet où les dépassements sont courants et inévitables. Cigéo peut en toute logique subir une explosion du coût selon les futures décisions politiques sur le nucléaire.

Selon l’ANDRA, pour un nouveau réacteur nucléaire sur l’ensemble de sa durée de fonctionnement, ce coût représente de l’ordre de 1 à 2 % du coût total de la production d’électricité qui est en principe reflété dans la facture d’électricité. A préciser que l’Andra prévoit environ 2000 emplois sur le site pendant 100 ans.

Au niveau du planning actuel :

  • Cigéo devrait être autorisé par le conseil d’état vers 2018 après la validation des différents organismes français experts dans le domaine.
  • 2019-2025 : Début du creusement
  • 2025-2125 : un siècle de remplissage et de creusement en parallèle (exploitation). Les premier colis HA ne seront pas stockés avant 2075 car ils ne doivent pas dégager plus de 500W avant de descendre au fond (90 C en surface).
  • 2125-2225 : au moins un siècle pendant lequel les déchets pourront toujours être récupérés. Cigéo intègre une clause de réversibilité du projet au cas où une meilleure solution s’offrirait à nous, la durée et les modalités de cette réversibilité ne sont pas encore arrêtées et demeurent encore un peu floues.

 Andra_resersiblePrototype de la machine permettant d’insérer les colis dans les alvéoles et de les récupérer en cas de besoin.

Vous l’aurez compris, le projet est hautement complexe et fait interagir de nombreux domaines scientifiques comme la physique, la chimie, la géologie et tous les domaines de l’ingénieur sans parler des grandes questions sociétales, historiques et économiques qui en découlent. Cela parait réalisable en vue des compétences actuelles et du contexte économique mais nécessite encore certaines recherches pour s’assurer de la viabilité du projet sur une échelle de temps géologique.

Retenez que ce n’est pas parce qu’on est pour ou contre l’énergie nucléaire qu’il ne faut pas s’intéresser à la question du stockage des déchets. Cela permet de vraiment réfléchir à la problématique de cette énergie. Notre pays et nos prédécesseurs ont fait ce choix et nous devons assumer ces déchets qui existent aujourd’hui.

J’espère juste que la fusion nucléaire (voir mon billet de 2006 sur ITER) verra le jour à l’échelle industrielle le plus tôt possible (ça viendra forcement) et que la fission ne sera plus qu’un souvenir pour les générations futures qui n’auront pas ce problème de stockage à long terme.

Et si vous avez de meilleures idées, les commentaires sont là pour ça !

L’eau chaude gèle avant l’eau froide : l’effet Mpemba

Alors que j’étais en train de lire un livre au coin du feu dans le canapé (Impasciences de J-M. Lévy-Leblond que je vous conseille en passant), j’apprends que si on place un verre d’eau à 50 C et un verre d’eau à 20 C dans le congélateur, le verre d’eau initialement à 50 C gèle avant celui à 20 C ! Je questionne alors ma voisine de canapé, ma belle-sœur (qui est autant physicienne que je suis trapéziste volant), à ce sujet qui me répond sans ciller que évidemment, l’eau chaude gèle avant, et que tout le monde sait cela. J’étais abasourdi de cette révélation alors que je n’en avais jamais entendu parler, moi, ayant fait une bonne partie de mon doctorat en thermodynamique ! Je m’indigne de cet effet en contradiction totale avec mon intuition ainsi qu’avec mon raisonnement scientifique. Je vais alors consulter sur Wikipédia l’effet Mpemba, qui stipule que l’eau chaude peut geler avant l’eau froide. Ce serait donc vrai… C’est même connu depuis l’Antiquité et redécouvert plus « scientifiquement » en 1963 par un lycéen nommé E.B. Mpemba en Tanzanie.

Mpemba1

Refroidissement et solidification de 30mL d’eau déminéralisée dans un bécher en verre non couvert et non agité

Expérience à la maison

Je m’empare alors de trois verres que je remplis avec 60 g d’eau à 21 C, 31 C, et 53 C (mesurés avec un thermomètre infrarouge). Je les mets au congélateur sur le même étage et je mesure les températures des 3 verres toutes les 5 minutes. Verdict : pas d’effet Mpemba, c’est clairement le verre initialement à 21 C qui gèle, puis celui à 31 C, puis celui à 53 C, les 3 courbes ne se sont pas croisées. Mystère, ça n’a pas marché avec moi…

glaciation

Explications scientifiques

Je cherche alors un peu partout une explication scientifique de l’effet Mpemba et là abomination : personne ne sait vraiment pourquoi et en plus ça n’arrive pas à tous les coups, ça a même l’air difficilement reproductible selon les expériences mais ça a néanmoins été abondamment observé. Ce phénomène reste donc inexpliqué aujourd’hui ! Les scientifiques s’étant penchés sur la question sont tous d’accord pour dire que c’est sans doute un agglomérat de phénomènes interagissant les uns avec les autres qui se produisent dans cette expérience simple beaucoup plus compliquée qu’il n’y parait. Sont en cause :

  • Les conditions expérimentales : Dans un congélateur domestique, la température n’est ni constante ni uniforme à l’intérieur. De plus, la composition de l’eau varie et la température initiale du récipient ainsi que sa nature ont leur importance. La température du congélateur est aussi un facteur important à prendre en compte.
  • L’évaporation de l’eau chaude et donc la perte de masse mais non satisfaisant comme explication car même sur des récipients fermés hermétiquement on peut observer le phénomène et après pesage de la masse perdue, ça ne justifie pas cet effet.
  • Les gaz dissous dans l’eau chaude changent ses propriétés comme la conductivité thermique ou la capacité calorifique (chaleur à extraire d’un kilogramme d’eau pour la refroidir de un degré). Cependant, même en préchauffant l’eau à l’avance de manière à obtenir la même composition de gaz dissous, l’effet Mpembra perdure.
  • La surfusion de l’eau: l’eau peut geler bien en dessous des 0 C à pression atmosphérique dans certaines conditions (jusqu’ à -39 C !). De plus, la présence de gaz dissous renforce cet effet. Le passage entre la surfusion et l’état solide a lieu si des poussières tombent dans l’eau ou si des cristaux de glace se forment : processus très aléatoire difficilement reproductible.

 Mpemba3

Différence de surfusion (et donc de temps pour geler) entre différents échantillons d’eau contenus dans des bouteilles ayant la même température initiale. La courbe bleue foncée en bas représente la température du congélateur.

  • Les courants de convection plus prononcés dans l’eau chaude accélèrent les échanges de chaleur et donc le refroidissement. La profondeur du récipient ainsi que le gradient de température sont des éléments significatifs à prendre en compte également dans les phénomènes convectifs.

Interprétations

Dans tous les cas, la raison scientifique dit que de l’eau à 50 C passe forcément par de l’eau à 20 C avant de geler car le refroidissement est un processus continu donc on retombe sur la même condition qu’avec le verre à 20 C à un temps postérieur. Il y a donc 2 solutions plausibles à cette observation :

  • Le processus de refroidissement de l’eau est très complexe comme l’eau est composée de nombreux éléments et que de nombreux phénomènes physiques rentrent en jeu (convection et surfusion). Le phénomène est donc non reproductible facilement, ce pour quoi on observe parfois que l’eau chaude gèle avant l’eau froide. Je n’ai malheureusement pas de trouver des statistiques sérieuses à ce sujet.
  • L’eau subit une transformation lorsqu’elle est chauffée, ce pour quoi l’eau chaude refroidie rapidement à 20 C n’a pas les  mêmes propriétés que l’eau à 20 C du robinet. Là encore, difficile de trouver des explications.

Quand on regarde de plus près les nombreuses expériences faites pour trouver la cause majeure expliquant l’effet Mpemba, on découvre que la convection a clairement un rôle important : lorsque que l’eau est mélangée constamment pendant le refroidissement, l’influence des différences de convection est très réduite et on observe que l’effet Mpemba est grandement diminuée           (quasiment plus de différence entre de l’eau initialement à 20 C ou 35 C) mais néanmoins possible donc ce n’est pas la seule cause.

Mpemba2

Refroidissement et solidification de 30mL d’eau déminéralisée dans un bécher en verre non couvert et agité continuellement

Vient ensuite la surfusion de l’eau qui peut faire pencher la balance : une surfusion entre 0 C et -6 C (assez courant lors des expériences) entraine un retard de gèle d’environ 10 minutes par rapport à de l’eau qui gèle directement à 0 C, ce qui fait que les expériences sont peu reproductibles et que l’effet Mpemba n’est pas toujours observable. Même avec deux échantillons d’eau provenant de la même bouteille, on observe que la surfusion est différente. Cependant, pourquoi de l’eau initialement à 35 C aurait une surfusion plus prononcée qu’une eau initialement à 20 C ?? Je n’ai pas non plus réussi a trouver une bonne explication à cela.

Si jamais vous avez plus d’info sur ce sujet, n’hésitez pas à le signaler en commentaires.

Sources

Les vagues scélérates

Les vagues, tout le monde connait ! Les raz-de-marée (tsunamis en japonais), comment les ignorer depuis celui de 2004 dans l’océan indien (220 000 morts) et celui de 2011 au large du Japon qui frappa la centrale de Fukushima ? Mais les vagues scélérates ? Les connaissez-vous ? C’est ce que je vais essayer de vous détailler ici.

Définition

Les vagues scélérates sont de gigantesques vagues solitaires formées au milieu des océans sans raison apparente. Une vague scélérate est définie comme une vague étant au moins 2 fois plus haute (entre sa crête et son creux) que la hauteur significative des vagues alentours : c’est-à-dire 2 fois plus haute que la moyenne du tiers des vagues les plus hautes.   vague Sa particularité est donc qu’elle est isolée et souvent abrupte, contrairement à un raz-de-marée provoqué par des effondrements sous-marins ou des séismes entrainant une onde de choc de très grande amplitude et se matérialisant par une vague seulement lorsque le plancher océanique remonte près des côtes.

Donc si vous êtes en pleine mer par force 9 (ce que je ne vous souhaite pas), la hauteur significative étant d’environ 15 mètres, vous pouvez qualifier une vague de « scélérate » si cette dernière dépasse les 30 mètres uniquement !

Un peu d’histoire

Pendant longtemps, les vagues scélérates ont été considérées comme des hallucinations de marins ayant abusé du rhum. Les scélérates faisaient parties du folklore maritime mais avec la photographie, les radars, les satellites et autres technologies, ce phénomène est maintenant avéré: les vagues scélérates existent et ne sont pas si rares que ça !

Le premier enregistrement « sérieux » d’une vague scélérate date du 1er Janvier 1995 aux abords de la plateforme pétrolière Draupner au large de la Norvège : une vague de 26,8 mètres est enregistrée au milieu d’une mer ayant une hauteur significative de 10,8 mètres (donc 2,5 fois plus haute). Il avait été recensé auparavant de telles vagues scélérates, comme à bord du navire USS Ramapo en 1933 qui avait mesuré une vague de 33 mètres, mais jamais les scientifiques n’avaient eu de données réellement mesurées pour analyser ce phénomène singulier.

 File_Drauper_freak_wavePremier enregistrement d’une vague scélérate le 1er Janvier 1995 aux abords d’une plateforme pétrolière au large de la Norvège

 Occurrence des vagues scélérates

En 2004, trois semaines d’images radars provenant de satellites de l’Agence Spatiale Européenne ont été minutieusement analysées et pas moins de 10 vagues scélérates de 25 mètres chacune ont été identifiées (http://www.dtic.mil/cgi-bin/GetTRDoc?AD=ADA462573). Ce phénomène n’est donc pas si rare et il n’est donc pas impossible qu’un navire en mer en croise une, ce qui est cohérent avec les récits de plusieurs marins ayant survécu à de telles vagues. Par exemple, le capitaine du paquebot Queen Elisabeth II a rencontré en 1995 une vague scélérate de 30 mètres de haut en Atlantique nord et a déclaré que cette vaque était « Un gigantesque mur d’eau… C’était comme si nous nous précipitions sur les falaises blanches de Douvres« .

L’Agence Spatiale Européenne déclarait d’ailleurs en 2004 que sur les 200 supertankers et porte-conteneurs de plus de 200 mètres de longs ayant coulés à cause de raisons climatiques lors des 20 dernières années, la plupart ont coulé suite à une vague scélérate (lien). Cependant, il n’existe à ce jour aucune statistique précise de l’apparition de ces vagues dans les océans. Même si Michel Olagnon, ingénieur à l’Ifremer, a déclaré dans une interview au journal le Temps « qu’en un endroit donné, on estime qu’il ne s’en forme qu’une tous les 10 000 ans».

Modélisation des vagues régulières

En termes de modélisation physique, la tâche n’est pas évidente étant donné que nous possédons très peu de mesures de ces vagues et donc peu de données pour valider les modèles.

Il existe de très nombreux modèles pour décrire les vagues dues au vent sur l’eau dans une eau plus ou moins profonde, voir graphique ci-dessous.

533px-Water_wave_theories.svg Différents domaines de validité des modèles expliquant les vagues régulières en profondeur constante (h= hauteur d’eau, tau=période temporelle de la vague, H = hauteur de la vague, g=gravité)

Ces modèles sont tous des approximations grossières des équations de la mécanique des fluides ignorant la viscosité, la compressibilité et les tourbillons. Même après toutes ces approximations, le modèle demeure non-linéaire et il n’existe pas de solution simple à ce problème. L’idée consiste alors à approximer des termes selon la profondeur plus ou moins importante de l’eau. Par exemple des vagues de 30 mètres de haut (H=30) ayant une période de 15 secondes (tau=15) dans 400 mètres d’eau (h=400) peuvent être modélisées par un modèle de Strokes au 3ème ordre (H/(g*tau^2) = 0.013 et h/(g*tau^2) = 0.18), ce qui revient à une équation aux dérivées partielles du 2ème ordre que l’on peut résoudre (équation de Laplace) mais attention, tous ces modèles permettent de rendre compte des vagues régulières uniquement. De plus, si la cambrure de la vague (le rapport entre la hauteur de la vague H et sa longueur d’onde lambda) dépasse 0,14, alors aucun modèle n’explique la formation de telles vagues car elles sont censées déferler à ce stade. Par exemple une vague de 30 mètres n’est possible que si elle possède une longueur de 214 mètres minimum.

Modèle pour vagues scélérates

Les vagues scélérates peuvent être modélisées selon l’équation d’un soliton. Un soliton est une onde se propageant sans se déformer dans un milieu non-linéaire dispersif : c’est-à-dire que la vitesse de l’onde dépend de sa fréquence,  comme les vagues dans l’eau ou la lumière dans l’air.

Le soliton apparait comme solution de plusieurs  équations aux dérivées partielles non-linéaires comme l’équation de Schrödinger en physique quantique qui explique la propagation d’un signal lumineux dans une fibre optique. Dans le cas des fluides non compressibles et non visqueux, le soliton est également une solution de l’équation de Korteweg-de Vries qui permet de rendre compte de la propagation des vagues dans une eau peu profonde. Mais là encore, cela ne permet pas d’expliquer notre vague scélérate en eau profonde en pleine mer.

En 1983, Howell Peregrine pense à modéliser de telles vagues à partir d’une équation type Schrödinger non-linéaire étant donné que le soliton est une solution possible. On parle alors de « soliton de Peregrine ». Le problème, toujours le même, est que pour valider ce modèle, nous avons trop peu de mesures de vagues scélérates et que c’est quasi impossible à reproduire en laboratoire. Donc ce modèle est sujet à caution.

Une solution possible arrive en 2010 quand une équipe réussit à reproduire en laboratoire un soliton de Peregrine mais dans une fibre optique avec une impulsion de lumière extrêmement brève (voir Article dans Nature). Et oui, comme la propagation est non-linéaire, il est possible que plusieurs petites ondes fassent une onde beaucoup plus grande que la somme des plus petites et si ça marche avec de la lumière, ça devrait marcher dans l’eau également ! L’avantage de la lumière est que l’on maitrise très bien tous les paramètres et que c’est « assez facile » à faire en labo. En faisant un changement d’échelle entre les paramètres de la fibre optique et la mer on retombe alors sur des données cohérentes qui pourraient donc expliquer les vagues scélérates. Les auteurs de cette expérience pensent ainsi que les vagues scélérates seraient dues à la sommation de plus petites vagues de différentes fréquences donnant naissance à une vague gigantesque comme dans leur fibre optique.

Autres origines possibles des vagues scélérates

Aujourd’hui, aucune théorie ne fait vraiment consensus au sein de la communauté scientifique pour expliquer l’origine des vagues scélérates. Il est simplement avéré que très souvent (mais pas tout le temps), ces vagues apparaissent dans des endroits où les vents soufflent de manière opposée à d’importants courants marins comme au large de l’Afrique du Sud. Cette opposition entre vent et courant provoquerait une contraction de la longueur d’onde de la vague et donc son élongation en hauteur. Il existe de nombreuses autres explications comme le soliton de Peregrine mais ces recherches sont toujours actives et il y a encore du travail pour comprendre la Nature…

P.S. Merci à Eric de m’avoir suggéré ce sujet lors d’une pause-café au CERN.

Les colorants

Noémie nous fait ici un petit topo sur les colorants alimentaires (cliquez sur les dessins pour agrandir):

colorants_1

colorants_2

Homéopatik…

Un billet rédigé par Noémie, en dessins.

homéo-nono1

homéo-nono2

Gödel: Le génie fou de la logique

Je viens de finir une biographie-fiction de Kurt Gödel, « La déesse des petites victoires » de Yannic Grannec, et je me suis dit que ce génie des mathématiques devenu fou ferait un bon sujet de billet.

godel

Kurt Gödel est un logicien autrichien (il étudie la logique mathématique) qui a révolutionné la vision des mathématiques du 20ième siècle mais le grand public le connait assez peu, principalement à cause de son caractère taiseux et du fait qu’il publiait rarement tout en essayant d’être le plus loin possible des projecteurs.

L’incomplétude des mathématiques

En 1931, à seulement 25 ans, il surprend les mathématiciens de son époque en démontrant que n’importe quelle arithmétique (la science des nombres) est nécessairement incomplète (ce qu’on appelle couramment le théorème d’incomplétude de Gödel). L’incomplétude d’une théorie signifie que certains énoncés de cette théorie ne peuvent en aucun cas être démontrés en restant au sein de ladite théorie. A cette époque, les plus grands mathématiciens étaient persuadés du contraire (et plus particulièrement David Hilbert), d’où l’étonnement général et la remise en question des mathématiques.

En gros, Gödel a prouvé de manière formelle qu’il est absolument impossible de fournir une théorie unique de l’ensemble des mathématiques !

Princeton

Suite à l’arrivée d’Hitler au Pouvoir et à l’Anschluss, il part aux U.S.A en 1933 au célébrissime Institut d’Etude Avancée de Princeton (IAS).  Dans ce temple de l’excellence scientifique, Gödel se lie d’amitié avec Albert Einstein, également pensionnaire de l’IAS. Einstein dira d’ailleurs à la fin de sa vie « Je ne vais à mon bureau que pour avoir le privilège de rentrer à pied avec Kurt Gödel ». Le célèbre couple Einstein-Gödel défiait la chronique entre le physicien extraverti toujours débraillé avec ses cheveux en bataille et le mathématicien introverti toujours tiré à quatre épingles surmonté de ses fameuses lunettes rondes. A la fin des années 40, Gödel étudiera d’ailleurs la relativité de manière « logique » et trouvera une solution paradoxale permettant les voyages dans le temps (les univers de Gödel).

einstein-et-godelLes deux contraires : Einstein et Gödel

Gödel et Dieu

Gödel  passera de nombreuses années à la fin de sa vie à tenter de développer une  logique formelle de la philosophie. Il ira jusqu’à développer une preuve ontologique de l’existence de Dieu inspiré d’Anselme de Cantorbéry et de Leibniz. De peur d’être critiqué, il ne publia jamais cette preuve qui émergea des archives 9 ans après sa mort.

Dieu_Preuve

Preuve ontologique de l’existence de Dieu selon Gödel

La folie de Gödel

Gödel était hypochondriaque et avait des tendances paranoïaques. Sa femme Adèle l’a soutenue et aider toute sa vie durant pour le maintenir à flot. A la fin de sa vie, il était considéré comme « fou » par la plupart des gens car sa psychose paranoïaque augmentait et il ne se nourrissait plus de peur d’être empoisonné.  Il est mort à l’âge de 72 ans et ne pesait plus que 30 kilo comme il refusait de se nourrir.

Il existe depuis 1992 un « prix Gödel » qui récompense des travaux en informatique théorique.