Archives pour l'étiquette CERN

Le CERN en 13 photos de 2016

Bonne année 2017 !

Pour commencer l’année, voici ma sélection d’une photo par mois prises en 2016 au CERN (Organisation Européenne pour la Recherche Nucléaire), pour parler un peu de tous les projets, et pas seulement de l’accélérateur de particules LHC. Vous noterez néanmoins que 3 photos sont liées au HL-LHC qui rentrera en service en 2026 et constituera une amélioration majeure du LHC.

Mais avant tout, voici ma photo préférée hors catégorie pour 2016 : une photo prise en Novembre 2016 du calorimètre 4-Pi de nTOF EAR1. Cette expérience de physique s’intéresse au temps de vol des neutrons pour déterminer avec précision leur énergie cinétique et ainsi mieux les comprendre. Ces neutrons sont produits à partir de collisions entre un faisceau de protons pulsé de 20 GeV/c du Proton-Synchrotron (PS) et d’une cible fixe de spallation en plomb. Après 185 mètres de vol, les neutrons arrivent dans ce calorimètre pour mesurer leur énergie.

© CERN. Photograph: Brice, Maximilien

Janvier 2016

Transport du TDI pour HL-LHC. Le TDI (Target Dump Injection) permet d’absorber les éventuelles pertes de faisceau lors de son injection entre une ligne de transfert et un accélérateur. Cet élément est ainsi une protection de la machine pour éviter d’éventuels dommages occasionnés par le faisceau si son insertion dans la machine est défaillante.

© CERN. Photograph: Bennett, Sophia Elizabeth

Février 2016

Installation de la cellule plasma de AWAKE dans l’ancienne zone souterraine de CNGS. Voir mon billet de l’année dernière sur AWAKE qui accélèrera très prochainement des électrons par effet sillage dans un plasma de rubidium à partir d’un faisceau de protons de 400 GeV provenant du SPS.

© CERN. Photograph: Brice, Maximilien

Mars 2016

Test de modules pour HIE-ISOLDE en salle blanche au SM18. Isolde est une expérience de séparation d’isotopes pour produire des éléments exotiques. HIE-ISOLDE permettra de ré-accélérer à hautes énergies (jusqu’à 5,5 MeV/u) des faisceaux d’ions radioactifs créés à partir de collisions entre un faisceau de protons de 1.4 GeV issu du PSB (Proton-Synchrotron Booster) et d’une cible fixe.

© CERN. Photograph: Brice, Maximilien

Avril 2016

Prototype d’écran de faisceau pour le FCC-hh. Vous connaissez ce projet d’accélérateur de particules de 100 km de circonférence ? C’est le FCC (Future Circular Collider). Voir ce billet de juillet 2015 pour plus d’informations. L’écran de faisceau permet de capturer toutes les sources de chaleur (lumière synchrotron, courant image, nuage d’électrons) issus du faisceau pour limiter les charges thermiques sur les aimants supraconducteurs refroidis à très basse température tout en assurant un vide extrême dans le tube faisceau.

© CERN. Photograph: Brice, Maximilien

Mai 2016

Premier câble supraconducteur en niobium-étain pour le HL-LHC en train d’être fabriqué à l’aide d’une machine Rutherford au bâtiment 163. Ce câble sera utilisé dans un dipôle de 11 Teslas ! Les câbles supraconducteurs des aimants du LHC sont actuellement tous en niobium-titane et produisent un champ magnétique de 8 Teslas. A partir de 2026, le HL-LHC possèdera 8 nouveaux dipôles de 11 Teslas et 24 nouveaux quadrupôles de 12 Teslas autour des points de collisions de ATLAS et CMS. C’est plus de 1 km de LHC qui sera remplacé.

© CERN. Photograph: Brice, Maximilien

Juin 2016

Un bébé faucon sauvé par un employé sur un parking du CERN à Meyrin. Il a été remis aux autorités compétentes pour le nourrir et le protéger. Il sera ensuite remis en liberté dans la région.

© CERN. Photograph: Bennett, Sophia Elizabeth

Juillet 2016

Le groupe de rock « MUSE » visite le Centre de Contrôle du CERN (CCC) en présence de Mike Lamont, le chef de l’opération des accélérateurs (à gauche). C’est depuis cette salle que tous les accélérateurs et leurs infrastructures sont pilotés 7j/7 et 24h/24. Le CERN reçoit régulièrement des « VIP » souhaitant visiter ses installations et le CERN reçoit au total plus de 100 000 visiteurs par an !  Si l’envie vous prend, n’hésitez pas : https://visit.cern/

© CERN. Photograph: Brice, Maximilien

Aout 2016

Salle de contrôle du centre de calcul (bâtiment 513). Tout est « vert » : les données issues des collisions des détecteurs du LHC sont en sécurité.

© CERN. Photograph: Brice, Maximilien

Septembre 2016

Expérience ALFA, au point 1 du LHC (détecteur ATLAS). ALFA (Absolute Luminosity For ATLAS) est constitué de 4 « pots romains » (2 de chaque côté du point de collision) qui permettent de mesurer la luminosité lors des collisions élastiques de protons dans le détecteur ATLAS. Ces collisions élastiques n’ont lieu que lorsque les faisceaux se croisent avec un angle très faible dans le LHC (avec un très grand beta*). Dans ce cas, les protons se « traversent » l’un l’autre tout en restant intacts mais en changeant de direction. Un article récent du bulletin du CERN explique tout cela assez clairement. Extrait: « L’objectif de physique de l’expérience ATLAS/ALFA consiste également à réaliser une mesure précise de la section efficace proton-proton totale, puis d’utiliser cette mesure afin de déterminer la luminosité absolue du LHC au point 1 pour l’exploitation avec un bêta étoile de 2,5 km. »

© CERN. Photograph: Suykerbuyk, Ronaldus

Octobre 2016

Fin des travaux de ICARUS au bâtiment 156 avant son transport vers les USA. ICARUS est un ancien détecteur de neutrinos utilisé au laboratoire de Gran Sasso en Italie en collaboration avec le CERN (ancienne expérience CNGS). Ce détecteur a été entièrement « remis à jour » au CERN cette année pour être réutilisé dans deux nouvelles expériences de neutrinos à Fermilab aux USA près de Chicago.

© CERN.Photograph: Steyaert, Didier.

Novembre 2016

Premier faisceau dans le tout nouveau décélérateur ELENA. Eh oui, au CERN, on ne fait pas qu’accélérer des protons, on décélère aussi des anti-protons pour étudier l’antimatière. ELENA permet de décélérer encore plus des anti-protons venant de AD (Antiproton Decelerator) jusqu’à 5,3 MeV.

© CERN. Photograph: Brice, Maximilien

Décembre 2016

Non ce n’est pas un gâteau d’anniversaire mais un prototype de quadrupôle 12 Teslas pour le HL-LHC imprimé en 3D. Les futurs quadrupôles du HL-LHC permettront de beaucoup plus concentrer les faisceaux qu’avec le LHC pour produire 10 fois plus de collisions dans le même temps. Les imprimantes 3D permettent aujourd’hui de concevoir des prototypes réalistes en peu de temps et à moindre coût avant de passer au prototypage avec les matériaux réels souvent très onéreux.

© CERN. Photograph: Bennett, Sophia Elizabeth.

L’accélération plasma par sillage

L’accélération plasma est devenue une technique très à la mode en physique des particules car prometteuse pour l’avenir, mais que ce que cache exactement derrière ce terme ?

En effet, ce type d’accélération s’oppose aux accélérateurs « conventionnels » où les particules sont accélérées par des cavités radiofréquences au sein d’accélérateurs gigantesques (et donc onéreux) de plusieurs dizaines de kilomètres pour les plus grands. Dans l’accélération plasma, fini les cavités radiofréquences ! Les particules sont accélérées par le sillage (wakefield en anglais) laissé par une particule dans un plasma et cela permet de réduire la taille des accélérateurs par un facteur d’au moins 500! La réduction de la taille et donc du coût de ces accélérateurs, en font d’excellents candidats pour les applications industrielles et médicales de demain mais il reste encore du chemin à parcourir…jean-gouffon2

Un peu d’histoire

Le concept a été imaginé à la fin des années 70 à l’université de Californie (UCLA), voir ce papier de Tajima et Dawson. Les premiers prototypes ont vu le jour dans les années 80 et se sont révélés prometteurs. Après plus de 30 ans d’expériences et d’idées nouvelles, plusieurs grands centres de recherche, aux Etats-Unis principalement, ont réussi à atteindre des énergies relativement importantes, de l’ordre du GeV (Giga Electronvolt) sur de petites distances tout en ayant une bonne répétabilité des expériences. Tous les grands centres de recherche en physique planchent aujourd’hui sur cette « nouvelle » technique.

Le principe

Tout d’abord, rappelons qu’un plasma est un état de la matière où les électrons se meuvent librement. Cela se produit en général dans des gaz chauffés à haute température (plus de 2000 degrés) ou exposés à de très forts champs magnétiques. L’état plasma est en fait l’était de la matière le plus commun dans l’univers car les étoiles sont des plasmas. Sur terre, on peut citer les éclairs et les néons qui sont aussi des plasmas.

Un plasma, vu de loin, est électriquement neutre: il y a autant de charges négatives dues aux électrons que de charges positives dues aux ions. Cependant, si on arrive à séparer les électrons des ions localement, on peut créer un champ électrique important sur une très faible distance et donc accélérer des particules. Pour séparer les électrons des ions longitudinalement, il existe plusieurs techniques pour former un sillage dans le plasma, créant ainsi localement d’importants champs électriques. Ce sillage peut être provoqué par plusieurs types de particules traversant le plasma :

  • Un paquet d’électrons
  • Un paquet de protons
  • Une impulsion laser (un paquet de photons)

Aux Etats-Unis : Laser-Plasma

La plupart des expériences aux Etats-Unis s’intéressent à l’accélération laser-plasma car plus simple à mettre en œuvre et jugée plus prometteuse pour les applications. En effet, il parait plus simple et plus économique de mettre en place un LASER très puissant, plutôt qu’un autre accélérateur de particules en amont pour fabriquer le sillage. Citons quelques réussites d’accélération laser-plasma aux Etats-Unis :

  • Au LBNL (Lawrence Berkley National Laboratory): des électrons sont accélérés à 1 GeV en 3,3 cm.
  • A l’université du Texas (Austin): des électrons sont accélérés à 2 GeV en 2 cm (c’est le record actuel).
  • Au SLAC : un gain de 40 GeV est apporté à un faisceau d’électrons en seulement 85cm.

berkley_laserplasmaLe LBNL a produit un faisceau d’électrons de 1GeV sur 3.3 cm. © Lawrence Berkeley National Laboratory.

A titre de comparaison, il faut aujourd’hui compter environ 65 mètres pour accélérer des électrons à 1 GeV avec les techniques traditionnelles (cavités radiofréquences), on voit bien ici l’immense potentiel de l’accélération plasma pour les applications industrielles et médicales.

 Au CERN : AWAKE

Quant au CERN à Genève (Organisation Européenne pour la Recherche Nucléaire), une nouvelle expérience est en train de voir jour sur cette thématique qui s’appelle AWAKE (Advanced Wakefield Acceleration). Ici, c’est un faisceau de protons provenant d’un accélérateur classique de 7km (le SPS) à 400 GeV qui va venir créer le sillage dans un plasma pour accélérer des électrons sur une dizaine de mètres jusqu’à une énergie de 1 TeV. Cette énergie (1TeV = 1 000 GeV) est mille fois plus importante que les autres expériences d’accélération plasma mais n’oublions pas qu’ici la source pour créer le sillage provient d’un accélérateur classique de 7 km de circonférence tout de même… Cette technique, encore jamais expérimentée, sera ici mise sur pied pour la première fois dans l’objectif de remplacer les cavités radiofréquences classiques des futurs grands accélérateurs de particules (on en est encore très loin, mais il faut bien commencer quelque part !). awake

Schéma général de l’expérience AWAKE. © CERN.

Vous constaterez tout de même la présence d’un LASER dans cette expérience AWAKE car les paquets de protons doivent être du même ordre de grandeur que la longueur d’onde du plasma et il faut donc les « découper » à la bonne taille. C’est avec un puissant laser qu’on va réaliser cette tâche : chaque paquet du SPS va être divisé en environ une centaine de plus petits paquets en utilisant une instabilité d’auto-modulation dans le faisceau de protons. Voir cette vidéo qui vaut toutes les explications du monde.

AWAKE réutilise des installations souterraines existantes au CERN qui hébergeaient auparavant CNGS (expériences sur les neutrinos vers Gran-Sasso). Cependant, deux nouveaux petits tunnels sont en train d’être excavés dans la zone existante pour héberger la ligne LASER ainsi que la source d’électrons. Si tout va bien, les premiers électrons devraient être accélérés fin 2016.

awake_tunnel

Excavation d’un nouveau tunnel pour AWAKE. © CERN.

Le CERN 2014 en 10 photos

Aujourd’hui, mon billet est consacré à 9 photos du CERN qui m’ont marqué en 2014 plus une photo de ce début 2015. Vous trouverez à chaque fois des liens hypertextes si vous souhaitez plus de détails.

Ma première photo sélectionnée, la seule de 2015, est le drapeau du CERN mis en berne le vendredi 09 Janvier lors de la minute de silence en hommage aux journalistes assassinés de Charlie Hebdo

CERN_flagCrédit image Maximilien Brice/CERN © CERN

 Formation sécurité de chariot-tracteur sur le site du CERN Prévessin (Décembre 2014).Towing Tractor Training Session

Crédit image Christoph Balle /CERN © CERN

 Insertion du détecteur à pixel de CMS proche du tube faisceau du LHC (Décembre 2014).CERN_CMS

Crédit image Noemi Caraban Gonzalez/CERN © CERN

John Ellis dans son bureau avec son nouveau pullover symbolisant le fameux diagramme pingouin inventé par le physicien en 1977 (Octobre 2014).CERN_Ellis

Crédit image Guillaune Jeanneret / CERN © CERN

 Début du perçage du futur tunnel qui hébergera l’expérience AWAKE au CERN. Cette expérience permettra d’accélérer des électrons par accélération plasma (Aout 2014). CERN_AWAKE

Crédit image Maximilien Brice/CERN © CERN

Le directeur général du CERN, Rolf Heuer, rencontre le pape François au Vatican (Juin 2014). Voir cet article du temps intéressant de Rolf Heuer sur les différences entre Benoit XVI et le pape François au sujet de la Science.LHC_pape

Image credit: Photographic Service – L’Osservatore Romano

Installation du détecteur IBL juste autour du tube faisceau de l’expérience ATLAS (Mai 2014). CERN_IBL

Crédit image Claudia Marcelloni De Oliveira /CERN © CERN

 Installation du dernier des 27000 « shunts » des aimants supraconducteurs du LHC (Avril 2014) LHC_Soudure

Crédit image Maximilien Brice/CERN © CERN

Cavités radio fréquence « drift tube » du futur accélérateur linéaire LINAC4 qui injectera les protons vers le LHC à partir de 2020.CERN_LINAC4

Crédit image Maximilien Brice/CERN © CERN

 Et pour finir, ma photo préférée: Maria et Giuseppe Fidecaro, célèbre couple fidèle au restaurant 1 du CERN (Février 2014). Ils sont au CERN depuis 1956 et sont toujours actifs aujourd’hui, comme quoi, la physique des particules, ça conserve ! Plus de détails sur ce couple fabuleux ici si vous le souhaitez.CERN_fidecaro

Crédit image Anna Pantelia / CERN © CERN

FCC: le CERN étudie un accélérateur de 100 km !

Nom de code : FCC pour Future Circular Collider, c’est le nom du projet qui regroupe un ensemble d’études pour des futurs grands accélérateurs de particules circulaires de l’ordre de 100 km de circonférence dans la région de Genève où le CERN exploite actuellement le plus grand accélérateur de particules du monde, le LHC (Large Hadron Collider), qui mesure 27 km de circonférence.

FCC_planLocalisation du FCC par rapport au LHC dans la région genevoise. Le FCC passerait sous le lac Léman  et contournerait le massif du Salève entre Suisse, Ain et Haute Savoie. © CERN.

Un accélérateur de 100 km pour faire quoi ?

Si le LHC ne trouve pas de nouvelles particules jusqu’à son énergie maximale en 2018  (14 TeV au centre de masse), cela peut signifier qu’il y a peut-être des particules encore plus massives au-delà de cette énergie qui pourraient répondre aux questions des physiciens qui restent toujours en suspens:

  • Qu’est-ce que la matière noire ?
  • Quelles sont tous les constituants de la matière ?
  • Quelle est l’origine de l’asymétrie matière/antimatière ?
  • Pourquoi la masse des neutrinos est si petite et ont-ils des partenaires super-massifs ?
  • Les particules ont-elles des partenaires super-symétriques ?
  • Y a-t-il d’autres forces dans la nature à plus hautes énergies ?

La communauté internationale s’est donc fixé une limite de 100 TeV au centre de masse (soit 7 fois plus que le LHC) pour repousser cette limite où notre technologie future devrait pouvoir nous conduire mais il y a beaucoup de recherche et de développement à faire pour arriver à ce résultat extrêmement ambitieux. Beaucoup de gens du métier disent que « c’est complètement fou, c’est impossible » mais un ancien responsable de la construction du LHC me disait il y a quelques mois que « c’est exactement ce que tout le monde disait dans les années 80 en parlant du LHC, mais c’est aujourd’hui une réalité et un succès, alors pourquoi serait-ce différent avec le FCC ? ».

En effet, maintenant que le LHC fournit ses résultats et que le boson de Higgs a été découvert à une énergie de 125 GeV, la communauté internationale étudie dès à présent l’ère post-LHC.  Lors de la dernière réunion de la stratégie européenne en physique des particules à Bruxelles en mai 2013, plusieurs grandes priorités pour l’Europe ont été définies dont la nécessité de commencer à étudier des accélérateurs protons-protons et électron-positrons repoussant la limite d’énergie à la frontière des technologies possibles (voir le résumé ici).

FCC_membersParticipants au meeting du coup d’envoi pour le FCC à l’université de Genève en février 2014. ©CERN.

Le CERN doit maintenant rendre une étude conceptuelle détaillée (CDR pour Conceptual Design Report) comprenant les différents aspects du FCC pour la physique, les détecteurs, les accélérateurs et les infrastructures associées pour 2018, date à laquelle une décision devrait être prise par l’Europe, tout en considérant les données fournies par le LHC pendant sa deuxième phase d’exploitation 2015-2018.

Les différents projets

Le FCC encapsule 3 projets de collisionneurs circulaires d’une centaine de kilomètres :

  • FCC-hh : Un collisionneur hadronique proton-proton avec une énergie de 100 TeV au centre de masse (pour comparaison, le LHC est à 14 TeV)
  • FCC-ee (anciennement dénommé TLEP) : Un collisionneur leptonique électron-positron fournissant des faisceaux à des énergies de 45 GeV à 175 GeV (pour comparaison, le LEP2 était à 104 GeV par faisceau).
  • FCC-he : Un collisionneur lepton/hadron réalisant des collisions entre des protons et des électrons à ces énergies.

Le FCC-ee serait en fait une étape intermédiaire pour étudier les bosons W/Z ainsi que le quark top et bien sûr le boson de Higgs en détail avant de construire le FCC-hh qui serait véritablement le projet final pour repousser la limite de l’énergie et trouver de nouvelles particules massives. L’approche est un peu analogue avec l’expérience du LEP (électron/positron) qui a cédé la place au LHC (proton/proton) par la suite.

La taille du FCC n’est pas encore arrêtée car elle est fonction des surcoûts liés au génie civil (plus c’est grand, plus c’est cher) et au surcoût engendré par les aimants qui doivent être plus puissants si l’accélérateur est plus petit pour la même énergie. De plus, les contraintes géographiques peuvent avoir un impact significatif (lac, montagne, …) sur le génie civil. Les études portent donc sur des versions à 80 km et à 100 km de circonférence pour comparer sérieusement les différentes options qui peuvent s’offrir à nous.

Dans ces 3 projets ambitieux, plusieurs technologies clef sont encore à démontrer pour leur faisabilité, en particulier :

  • Pour le FCC-hh : la capacité de fabriquer en grande quantité des aimants supraconducteurs de 16 Teslas (pour la version 100 km) ou 20 Teslas (pour la version 80km).
  • La capacité de refroidir à une température cryogénique l’ensemble des 100 km d’aimants supraconducteurs de manière réaliste et fiable.
  • Pour le FCC-ee : La capacité de développer des structures accélératrices plus efficaces car il faut compenser environ 7,5 GeV de perte synchrotrons à chaque tour pour des électrons, soit une puissance de 50 MW à apporter à chaque faisceau de manière continue.

 FCC_cryoEvolution de la capacité de refroidissement cryogénique à 4,5 K nécessaire aux accélérateurs existants et projection pour le FCC. © Laurent Tavian.

Le coût

En termes de coût, il est actuellement impossible de donner un chiffre car il y a encore de nombreuses inconnues mais on peut tenter d’extrapoler à partir des expériences passées (LEP et LHC). On peut ainsi estimer le coût à environ 8 milliards d’euros pour le FCC-hh et à 1,5 milliards d’euros pour le FCC-ee (source ici). En termes de consommation électrique, il faut compter environ 450 MW pour le FCC-hh, ce qui représente 4 fois la consommation du LHC. C’est beaucoup mais ça reste dans le domaine du possible sous réserve de développer quelques nouvelles technologies, d’autant que le coût de construction est à distribuer sur au moins une décennie et à répartir entre tous les pays membres du CERN, soit 28 pays.

Plus d’info :

Semaine speciale boson de Higgs sur Strip Science

Je vous invite a decouvrir cette semaine une Semaine Speciale Boson de Higgs sur Strip Science qui va republier des billets du C@fé des Sciences assortis d’illustrations originales de la part de Strip Science.

Le Boson de Higgs découvert au CERN

Toute la communauté de physique des particules est en effervescence car on ne comprend toujours pas précisément le monde qui nous entoure et la Science vient de faire un petit pas cette année !

L’année dernière, le CERN annonçait qu’il ne pouvait se prononcer quant à la détection ou non du boson de Higgs, une particule prédite par la théorie mais toujours pas détectée, car les données n’étaient pas encore suffisantes (voir mon billet de l’année dernière). Ce 4 Juillet 2012, des milliards de milliards de collisions plus tard , le CERN vient d’annoncer qu’une nouvelle particule de 125 GeV/c² a été détectée avec un intervalle de confiance de plus de 99.99% (un écart type de 5 sigmas pour les mathématiciens) et il semblerait que ce soit le boson de Higgs, mais reste à prouver que c’est bien lui…

 Un boson c’est quoi au fait ?

Les physiciens aiment bien faire des catégories et ranger leurs particules dans des boites plus ou moins grandes. Les particules peuvent par exemple être séparées en 2 grands ensembles selon leur comportement:

  • Les Fermions : obéissent à la statistique de Fermi-Dirac
  • Les Bosons : obéissent à la statistique de Bose-Einstein

Ces 2 catégories de particules se distinguent par ce que les physiciens appellent leur spin. Le spin est un peu comme la capacité de la particule à tourner sur elle-même. A chaque particule, on attribue un nombre de spin qui permet de caractériser cette rotation. Les bosons ont un spin entier comme le photon par exemple (spin=1). Au contraire, les fermions sont des particules ayant un spin demi-entier (1/2, 3/2, 5/2…) comme l’électron (spin=1/2).

Les Fermions

Les fermions constituent l’essentiel de la matière qui nous entoure (les quarks et les électrons) car ces derniers ne peuvent pas se trouver dans le même état d’énergie ensemble (c’est ce qu’on appelle le principe d’exclusion de Pauli). Ceci a pour conséquence qu’un assemblage de fermions forme une structure de matière rigide comme dans les atomes et les molécules qui constituent notre environnement quotidien.

Les Bosons

Au contraire, les bosons peuvent tous être dans le même état d’énergie et on ne peut pas forcément distinguer les différentes particules les unes des autres. Les bosons sont les vecteurs des forces entre les fermions (la force électromagnétique, la force forte et faible). Pareil pour notre désormais célèbre boson de Higgs qui donne une masse aux autres particules (aux autres fermions et aussi aux autres bosons).

Ce comportement bosonique (toutes les particules dans le même état) est directement observable à notre échelle comme dans un laser où tous les photons sont dans le même état et induisent une lumière cohérente (couleur unique en ligne bien droite). C’est également parce que l’hélium-4 est un boson que l’on peut observer la superfluidité de l’hélium à basse température. La supraconductivité aussi provient du fait que les paires d’électrons se comportent comme un seul boson (spin=1/2+1/2=1) à basse température et peuvent ainsi se déplacer sans perte dans un conducteur. Voir ce billet pour ces comportements atypiques de la matière.

Et si ce n’était pas notre bon vieux Higgs ?

Le dernier accélérateur de particules du CERN, le LHC, doit observer un certain taux de production de ce fameux boson de Higgs selon plusieurs modes de désintégrations possibles. Premièrement, le Higgs peut être créé lors d’une collision proton-proton selon différents processus, voir les petits dessins plus bas, appelés diagrammes de Feynman, où notre Higgs est représenté par la lettre « H » :

 

Ensuite, le Higgs peut se désintégrer selon plusieurs modes et c’est ce que les détecteurs de particules regardent. En particulier, les détecteurs regardent les « canaux » suivants :

  • Un Higgs se désintègre en 2 photons
  • Un Higgs se désintègre en 2 bosons Z
  • Un Higgs se désintègre en 2 bosons W
  • Un Higgs se désintègre en 2 tau
  • Un Higgs se désintègre en 2 quarks/antiquark b

Ensuite ces particules secondaires se désintègrent à leur tour selon différents modes possibles également et au total, c’est environ 85 modes de désintégrations qui sont analysés dans les détecteurs.

 

Deux gluons fusionnent pour donner un Higgs qui se désintègre en 2 bosons W

Ces différents processus de désintégrations sont expliqués par le modèle standard, la théorie actuelle qui marche pour ce que l’on a observé jusqu’à présent mais si le LHC observe plus ou moins de Higgs que prévu selon ces différents scénarios, c’est le modèle sur lequel se base toute la physique depuis les années 60 qui serait remis en question ! A partir d’ici, tout est permis et les physiciens ne sont pas en manque d’imagination pour expliquer telle ou telle anomalie du modèle standard qui ouvrirait alors une nouvelle physique. Ces anomalies pourraient par exemple provenir d’une autre particule chargée non prévue par le modèle standard.

Bref, les physiciens ont du pain sur la planche et le LHC relance la recherche internationale pour la compréhension de notre monde et c’est parti pour durer un certain nombre d’années de recherche et d’affinement des mesures du Higgs pour le regarder sous toutes les coutures et voir s’il se tient à carreaux ou si il fait des choses plus « exotiques ».

Certes, pour le commun des mortels, le fait que le boson de Higgs soit différent de ce que prédit le modèle ne va pas changer grand chose. Mais il ne faut pas oublier notre histoire et que chaque remise en question de la physique d’une époque a débouché sur de grandes avancées scientifiques et technologiques. Et puis n’oublions pas que pour trouver ce boson de Higgs, l’homme a dû construire des machines et de détecteurs complexes qui ont de nombreuses applications dans les technologies de l’information et dans l’imagerie médicale.

Et après ?

Le LHC doit poursuivre sa campagne de collisions jusqu’à mars 2013, ce qui permettra encore d’affiner les résultats et de s’assurer que le Higgs colle dans certains modèles ou pas. Ensuite, le CERN va passer un an et demi à consolider cet accélérateur de particules car le LHC fonctionne aujourd’hui à un peu plus de la moitié de sa puissance seulement (mais c’est déjà beaucoup). Il devrait alors repartir à quasiment sa puissance maximale en 2015 pour fournir de nouveaux résultats à des énergies que nous n’avons jamais explorées.

Le problème est que le LHC est une machine de découverte qui fait beaucoup de collisions entre protons et qui balaye une grande portion d’énergie mais ce n’est pas la meilleure machine pour étudier le Higgs en détail. La communauté de physique planche désormais plus sérieusement sur l’après-LHC qui permettra d’étudier en détail le Higgs maintenant que nous savons où il se cachait. Ce sera sans doute un accélérateur linéaire d’électrons et de positrons qui ferait plus de 30 kilomètres de long. Actuellement, les deux projets les plus sérieux et avancés sont l’ILC (International Linear Collider) et le CLIC (Compact Linear Collider). L’ILC permettrait des collisions à 1 TeV et serait sans doute aux USA ou au Japon et le CLIC permettrait des collisions à 3 TeV et serait sans doute au CERN à Genève. Ce choix sera sans doute à faire par la communauté internationale dans les 5 prochaines années selon les résultats du LHC. Affaire à suivre…

 

Prototype test pour le CLIC au CERN (CTF3)

 Quelques liens utiles :

L’Hadronthérapie contre le cancer

C’est en lisant un des derniers billets des Quantum Diaries intitulé La face cachée du CERN que je me suis dit qu’un billet sur l’hadronthérapie serait un sujet très intéressant car prometteur et relativement peu connu du grand public.

La radiothérapie

La radiothérapie consiste à tuer les cellules cancéreuses d’un patient au moyen de radiations. L’idée de la radiothérapie consiste à exploiter le fait que les radiations peuvent détruire les cellules, quelles qu’elles soient. La difficulté est alors de détruire uniquement les cellules cancéreuses pour empêcher leur reproduction sans toucher aux cellules saines de manière à enrayer la maladie sans dommages collatéraux.

Il est à noter qu’aujourd’hui plus de la moitié des cancers sont traités à l’aide de la radiothérapie et que cette seule méthode peut entraîner une guérison complète avec des effets secondaires moindre qu’avec une chimiothérapie.

Les radiations peuvent être produites de 2 manières pour tuer les cellules cancéreuses :

  • La curiethérapie : Un élément naturellement radioactif est introduit dans le patient ou est placé à proximité de la zone à traiter.  Cette technique est utilisée principalement pour traiter les cancers du sein, de la prostate, de l’utérus et de la peau.
  • La radiothérapie externe : Un accélérateur de particules produit un faisceau de particules dirigé vers le patient de manière à irradier les cellules tumorales. C’est cette dernière méthode qui nous intéresse ici.

La difficulté est la suivante : les tumeurs peuvent être situées à la périphérie du corps ou bien enfouies profondément à l’intérieur comme dans le cerveau. Dans ce dernier cas, il faut alors trouver un moyen d’irradier fortement les cellules tumorales à l’intérieur en abîmant le moins possible les tissus alentours. Pour évaluer l’efficacité des faisceaux de particules à tuer des cellules, on calcule l’énergie qu’ils déposent dans les tissus, c’est ce qu’on appelle aussi la dose, qui est proportionnelle aux radiations induites sur les tissus pour les détruire. Il existe alors plusieurs types de radiothérapies externes qui exploitent différents types de rayonnement:

  • Faisceaux d’électrons : pénètrent faiblement dans les tissus et déposent toute leur dose quelques centimètres après le point d’entrée du faisceau dans le corps.
  • Rayons X (photons) : peuvent pénétrer en profondeur dans les tissus mais l’énergie déposée est maximale quelques centimètres seulement après le point d’entrée et diminue ensuite faiblement. Ainsi la majorité des tissus (sains et cancéreux) situés dans l’axe du faisceau sont irradiés fortement ce qui implique de déposer une dose relativement faible sur les cellules cancéreuses pour ne pas trop irradier les tissus sains.
  • Faisceaux de hadrons (protons ou ions carbones) : peuvent pénétrer en profondeur et une grande partie de l’énergie du faisceau est déposée une dizaine de centimètres après le point d’entrée du faisceau dans les tissus. De cette manière, la zone d’entrée du faisceau est peu irradiée, la zone où se situe la tumeur peut être fortement irradiée et la zone située derrière n’est pratiquement pas irradiée.

 Dépôts d’énergie de différents faisceaux (électrons, rayons X, protons) en fonction de la profondeur dans les tissus.

L’hadronthérapie

L’hadronthérapie permet ainsi de tuer des cellules cancéreuses enfouies à l’intérieur du corps comme dans le cerveau sans chirurgie tout en préservant au maximum les cellules saines autour de la tumeur. Mais au fait, c’est quoi un hadron ?

Les hadrons sont une classe de particules sensibles à l’interaction forte, c’est-à-dire à la force qui permet la cohésion des noyaux atomiques. Toutes les particules constituées de quarks comme les protons, neutrons ou n’importe quel noyau atomique sont des hadrons (contrairement aux leptons et aux bosons comme les électrons et les photons, voir mon billet sur le bestiaire des particules pour plus de détails).

Les hadrons ont cette caractéristique de déposer toute leur énergie d’un coup après avoir traversé une certaine épaisseur de matière, c’est ce que les physiciens appellent le pic de Bragg (voir la courbe rouge dans le dessin plus haut). Grâce aux bonnes connaissances que l’homme a acquises sur le fonctionnement de ces particules il est capable de fabriquer des accélérateurs de particules ultra-précis permettant de déposer l’énergie de ces hadrons exactement sur une tumeur de quelques centimètres enfouie au milieu de notre corps. Tout ça pour dire que la recherche fondamentale en physique des particules est indispensable pour développer de telles thérapies et que de très nombreux laboratoires en physique des particules comme le CERN ou GSI collaborent étroitement avec les instituts médicaux pour développer de telles thérapies. Aujourd’hui 2 types d’hadronthérapie existent et une vingtaine de centres en sont équipés dans le monde:

  • La protonthérapie qui utilise des protons. Plus de 30 centres sont opérationnels (à Orsay et à Nice pour la France), voir la liste ici.
  • L’hadronthérapie qui utilise des ions carbones. 5 centres sont opérationnels en  en Allemagne, en Chine et au Japon,  et plusieurs autres centres sont en construction (à Caen et à Lyon pour la France). Les ions carbones sont encore plus précis que les protons et permettent de déposer des doses plus importantes sur les cellules tumorales permettant ainsi de vaincre les tumeurs les plus radiorésistantes.

Salle de contrôle du synchrocyclotron au Centre de Protonthérapie d’Orsay.

Ces centres ont permis de traiter environ 7000 personnes dans le monde ces dernières années contre plusieurs millions par radiothérapie conventionnelle. En effet, cette méthode est relativement récente et est également plus chère que les autres méthodes mais elle est surtout plus difficile à mettre en œuvre à cause des équipements très sophistiqués à mettre en place. Cependant, elle est beaucoup plus précise et permet de soigner des tumeurs qui sont inopérables et non curables par radiothérapies conventionnelles lorsque ces dernières sont localisées près d’organes sensibles. De plus, les hadrons sont beaucoup plus efficaces pour tuer les cellules cancéreuses que les photons, de 2 à 10 fois plus efficaces selon les cas.

L’hadronthérapie est principalement utilisée pour soigner les tumeurs du cerveau non atteignables par neurochirurgie, certains cancers de l’œil qui nécessitaient une énucléation auparavant (extraction de l’œil) et certains cancers chez les enfants qui sont plus sensibles aux radiations et donc plus fragiles face aux techniques de radiothérapies conventionnelles utilisant des rayons X.

Je vous conseille ce petit reportage de 4 minutes sur le centre de radiothérapie de Heidelberg qui est en étroite collaboration avec GSI à Darmstadt: http://www.allodocteurs.fr/actualite-sante-hadrontherapie-une-radiotherapie-specifique-2631.asp?1=1

Radiothérapie avec de l’antimatière ?

Des recherches sont actuellement en cours au CERN à Genève sur la possibilité d’utiliser de l’antimatière, des antiprotons plus exactement, pour traiter les cancers. Cette expérience dénommée ACE pour Antiproton Cell Experiment, étudie comment l’antimatière peut détruire les cellules cancéreuses par annihilation matière/antimatière. Actuellement, l’expérience bombarde des cellules vivantes de hamsters avec des protons puis avec des antiprotons (pour voir la différence), et il apparaît qu’une énergie 4 fois inférieure avec des antiprotons permet de détruire autant de cellules cancéreuses tout en diminuant significativement la dose déposée dans les tissus sains.

L’expérience ACE au CERN étudiant l’effet des antiprotons sur des cellules de hamsters. © CERN.

Si cette expérience est concluante, peut-être que de futurs partenariats permettraient de développer dans quelques décennies une « antiproton thérapie » permettant de soigner des cancers difficiles d’accès en irradiant encore moins les cellules saines autours des tumeurs.

 

Le LHC et le Boson de Higgs

Non ce n’est pas une fable de la Fontaine mais une épopée de la physique moderne : la traque d’une particule invisible par un accélérateur de particules de 27 km de circonférence…

Aujourd’hui à 14h, une conférence donnée au CERN par les 2 porte-paroles des expériences phares du LHC (ATLAS et CMS) faisait un résumé des résultats obtenus grâce à l’accélérateur de particules LHC lors de la campagne de collisions 2011. Je vais donc essayer de vous faire un résumé compréhensible de cette conférence à laquelle j’ai assisté cette après-midi.

Les résultats des 2 expériences indépendantes sont très similaires et indiquent deux grandes tendances:

  • Le modèle standard de la physique des particules fonctionne comme prévu à 7 TeV (l’énergie maximale des collisions du LHC en 2011).
  • Le boson de Higgs n’a plus beaucoup d’endroits où se cacher et il commencerait à montrer le bout de son nez vers une énergie de 125 GeV mais pas encore de quoi annoncer sa découverte.

 Le modèle standard

Le modèle standard de la physique des particules est la théorie physique utilisée aujourd’hui pour décrire la matière et ses interactions. L’objectif des accélérateurs de particules est de tester cette théorie autant que possible pour voir si la nature est bien celle que les physiciens imaginent, voir ce billet que j’ai écrit il y a quelques mois à ce sujet.

Le LHC ouvre à présent une nouvelle gamme d’énergie encore jamais explorée par les accélérateurs et c’est pour cela que les physiciens sont un peu fébriles. Après plusieurs milliards de milliards de collisions effectuées et analysées durant cette année 2011, les particules se sont comportées comme la théorie le prévoit et le modèle standard se trouve ainsi conforté.

 Le Boson de Higgs

Le boson de Higgs est une particule un peu à part dans ce modèle standard car elle permet d’expliquer la masse de toutes les autres particules, constituant ainsi la pierre angulaire de cette théorie. Le problème est que ce boson de Higgs a une section efficace extrêmement faible, ce qui signifie qu’il faut faire des milliards de milliards de collisions pour voir 1 seul boson de Higgs, ce qui explique entre autre pourquoi aucun accélérateur n’a encore été capable de le voir. Voir ce billet qui explique tout ça par rapport à la campagne de collisions du LHC en 2010.

De plus, les physiciens ne savent pas exactement quelle est la masse du Higgs, ou son énergie, rappelez-vous que masse et énergie sont équivalentes selon la relativité restreinte d’Einstein (E= mc²). Plusieurs théories existent et peuvent expliquer le boson de Higgs à différentes énergies mais pour trancher, il faut le « voir » et donc faire des expériences, ceci étant le but du LHC. Les accélérateurs vont donc balayer petit à petit des bandes d’énergies pour voir si le boson de Higgs se cache à l’intérieur.

Deux grands principes sont à garder à l’esprit:

  • Plus l’énergie de la particule recherchée est importante, plus l’accélérateur doit être puissant.
  • Plus la section efficace est petite, plus le nombre de collisions doit être important pour voir statistiquement la particule recherchée.

Le LHC essaye donc de faire le plus de collisions possible à des énergies les plus hautes possibles pour « voir » ce boson de Higgs.

Comment « voir » le Higgs ?

Le boson de Higgs n’est pas directement détectable car sa durée de vie est trop faible. On cherche donc des particules qui pourraient être issues de sa désintégration en d’autres particules. Selon la masse du Higgs (toujours inconnue), les schémas de désintégration sont différents les uns des autres. Dans le cas du LHC, on cherche un boson de Higgs ayant une masse comprise entre 115 GeV et 600 GeV car les accélérateurs précédents ont écarté un Higgs en dessous de 115 GeV, et au dessus de 600 GeV le modèle standard ne marche plus.

Au total, les expériences ATLAS et CMS balayent ainsi une dizaine de schémas de désintégration possibles pour le Higgs. Par exemple dans l’hypothèse d’un Higgs léger entre 110 et 150 GeV, il peut se désintégrer en 2 photons gamma émis dans 2 directions opposées.

C’est cette dernière désintégration qui semble aujourd’hui sortir un peu du lot suite aux observations faites par ATLAS et CMS. Mais encore une fois, pour être certain que les mesures sont fiables, il faut valider statistiquement les mesures accumulées ce qui nécessite une quantité de données absolument gigantesque tant l’évènement de voir un Higgs est rare.

Les 2 expériences ont vu se dessiner un pic dans les collisions analysées qui indiquerait que le boson de Higgs aurait une masse proche de 125 GeV, voir les graphiques ci-dessous. Pour lire ces graphiques,  tant que la courbe noire (mesure) reste dans les bandes jaunes ou vertes, on ne peut rien dire car ces 2 courbes symbolisent l’incertitude des mesures. En revanche, dès que des données commencent à « sortir » de ces bandes, c’est que le Higgs pourrait se cacher à cet endroit.

Résultats préliminaires de ATLAS et CMS dans la recherche du Boson de Higgs dans l’hypothèse d’un boson de Higgs autour de 125 GeV issu d’une désintégration en 2 photons gamma.

Conclusion

Une tendance commence donc à apparaître pour un Higgs vers 125 GeV mais ce n’est pas encore assez pour certifier que le Higgs existe à cette énergie. Pour l’instant ATLAS estime la masse possible entre 116 GeV et 130 GeV et CMS entre 115 GeV et 127 GeV (les zones autour ont été exclues).

Pour valider ce résultat, il faudra accumuler encore plus de données pour voir si ce pic va être lissé ou bien s’accentuer, auquel cas l’existence du Higgs ne fera plus de doute. Si les attentes du CERN pour 2012 sont remplies, il y aura 4 fois plus de données à analyser dans un an et cette accumulation de collisions permettra de trancher la question du boson de Higgs avec 99% de certitude.

Fable à suivre…

CLOUD : les physiciens dans les nuages

On pourrait penser que les physiciens et les climatologues savent parfaitement comment les nuages se forment dans notre atmosphère… Eh bien non !

clouds-color.jpg

Des physiciens fabriquant des nuages. © Noémie.

Il y a encore de nombreuses inconnues et nous ne savons toujours pas expliquer pourquoi nous observons autant de nuages ! Les modèles climatiques doivent d’ailleurs être corrigés « à la main » pour les phénomènes de création des nuages.

Les Aérosols et les nuages

Il y a dans notre atmosphère des aérosols autour desquels de la vapeur d’eau se condense sous forme de gouttelettes pour former un nuage.

Les aérosols sont de petites particules solides de l’ordre du milliardième de mètre (nanomètre) en suspension qui sont d’origines naturelles ou industrielles. Certains aérosols sont dangereux pour la couche d’ozone (comme les chlorofluorocarbures aujourd’hui interdits dans les bombes aérosols) mais d’autres sont inoffensifs comme les

aérosols soufrés
produits entre autres par les incendies de forêt ou la combustion de carburants fossiles dans nos voitures. Ces aérosols permettent la formation des nuages et luttent contre le réchauffement climatique puisqu’ils renvoient la lumière du soleil.  Certains scientifiques estiment d’ailleurs que le rejet d’aérosols par l’activité économique humaine compense le réchauffement climatique entraîné par les gaz à effets de serre. Des études montrent également des différences sur la formation de nuages entre les jours de la semaine et les week-ends à cause de l’activité humaine.

CLOUD

« Cloud » signifie « nuage » en anglais, mais c’est aussi un acronyme pour « Cosmics
Leaving OUtdoor Droplets 
», une expérience menée au CERN par des physiciens pour mieux comprendre comment les nuages se forment, ou plutôt comment les aérosols sont créés dans l’atmosphère. En effet, aujourd’hui la quantité des différents gaz sous forme de vapeur dans l’atmosphère ne peut pas expliquer à elle seule la création d’autant d’aérosols, et donc d’autant de nuages: un autre phénomène doit avoir lieu pour créer ces aérosols.

L’expérience CLOUD dans le complexe du PS au CERN. © CERN.

La réponse viendrait peut être du cosmos qui nous bombarde constamment de particules énergétiques appelées « rayons cosmiques », découverts au début du 20ème siècle.  Ces rayons cosmiques pourraient, lorsqu’ils traversent notre atmosphère, être responsables de la création d’aérosols entraînant la formation de nuages.

Les physiciens de CLOUD reconstituent un milieu proche de celui de l’atmosphère à différentes altitudes avec des concentrations de gaz extrêmement précises dans différentes chambres. Un accélérateur de particules du CERN, le Proton Synchrotron (PS) est ensuite utilisé pour générer des faisceaux de particules énergétiques (des pions) équivalents à des rayons cosmiques pour bombarder la chambre et observer le résultat. L’analyse des données doit permettre de mieux expliquer la formation de certains aérosols et à améliorer les modèles sur l’impact des aérosols sur le climat en général.  

cloud chamber

Chambre interne de l’expérience CLOUD. © CERN.

CLOUD est une collaboration internationale regroupant 18 instituts de 9 pays dont le CERN où a lieu l’expérience. Pour la petite info, c’est dans mon groupe de travail qu’est élaboré le système de contrôle de CLOUD manipulant tous les différents gaz pour obtenir des mélanges proches de ceux observés dans l’atmosphère.

Pour plus d’info sur les dernières trouvailles de CLOUD :

De l’antimatière pour propulser une fusée dans l’espace?

Au mois de novembre 2010, une équipe du CERN avait réussi à mettre de l’antimatière en boite  pendant quelques fractions de secondes et au mois de mars 2011 c’est pendant 20 minutes que les physiciens ont capturé de l’antihydrogène dans un piège…

antimatière-1L’antimatière a toujours interpellé les auteurs de science-fiction depuis sa découverte dans les années 30 étant donné que l’énergie produite par la rencontre de matière et d’antimatière est colossale. Voilà une nouvelle qui relance l’idée de savoir si l’antimatière pourrait un jour être utilisée pour la propulsion spatiale comme dans Star Trek.

antimatière-2Mesurer l’énergie

L’énergie se mesure en Joule mais cette unité n’est pas très commode et peu représentative. Pour avoir une unité de mesure plus parlante et pour comparer les énergies facilement, on parlera plutôt en kilogramme équivalent pétrole ou « kep » qui correspond à l’énergie calorifique que l’on peut extraire d’un kilogramme de pétrole. Pour information, 1 kg de pétrole permet de produire 42 millions de Joules sous forme de chaleur lorsqu’on le brûle (combustion). Pour se rendre compte de ce que cela représente, un européen moyen consomme en moyenne 10 kep par jour.

 uss enterprise

L’USS Enterprise de Star Trek fonctionne à l’antimatière.

A titre de comparaison, la fission nucléaire exploitée dans nos centrales nucléaires permet de récupérer environ 10 000 kep par kilogramme d’uranium, soit une concentration énergétique bien supérieure qu’avec la combustion du pétrole. De même, la fusion thermonucléaire qui se produit dans les étoiles et qui pourrait être à long terme une nouvelle source d’énergie pour l’homme sur Terre (voir (voir ITER) permet de récupérer environ 15 millions de kep dans un kilogramme de mélange Deutérium-Tritium.

Et l’antimatière alors ? Selon la célèbre formule E=mc² d’Einstein, 1 kg de matière contient potentiellement 90 millions de milliards de Joules, soit 2 milliards de kep, ce qui correspond à une densité d’énergie 2 milliards de fois supérieure au pétrole et 200 000 fois supérieure à l’uranium avec la fission nucléaire de nos centrales.

Petit résumé des équivalents énergétiques:

  • 1 kg de bois (par combustion) = 0,3 kep
  • 1 kg de charbon (par combustion) = 0,7 kep
  • 1 kg de fioul (par combustion) = 0,95 kep
  • 1 kg d’essence (par combustion) = 1,05 kep
  •  1 kg d’uranium naturel (par fission nucléaire) = 10 000 kep
  • 1 kg de Deutérium-Tritium (par fusion thermonucléaire) = 15 millions de kep
  •  1 kg d’antimatière (par annihilation matière-antimatière) = 2 milliards de kep

Exploiter l’antimatière

Pour comprendre ce qu’est l’antimatière, je vous invite à lire un de mes billets précédents sur l’antimatière mise en boite au CERN.

Sur le papier, la solution de l’antimatière pour notre avenir énergétique parait bien évidemment la meilleure. Mais deux grands problèmes se posent (et pas des moindres) :

  • Comment créer des quantités suffisantes d’antimatière sans dépenser trop d’énergie
  • Comment stoker l’antimatière

Aujourd’hui, l’antimatière est créée dans des accélérateurs de particules en quantité infime et il faut dépenser beaucoup (mais alors beaucoup) plus d’énergie que ce que la quantité d’antimatière pourrait produire. En bref, ce n’est absolument pas rentable. De plus, pour la stocker, il faut fabriquer un piège bien particulier pour maintenir l’antimatière en lévitation dans le vide car le moindre contact avec de la matière ordinaire l’annihile instantanément.

Pour vous rendre compte des ordres de grandeurs, dans un kilogramme d’hydrogène, il y a environ 602 millions de milliards de milliards d’atomes. Il faudrait donc créer autant d’antihydrogènes pour pouvoir faire 1 kilogramme d’antimatière. Or, quand une expérience du CERN annonce avoir réussi à confiner de l’antimatière pendant 16 minutes, ce n’est pas 1 kilogramme mais seulement 309 antiatomes ! L’énergie pouvant être extraite de ces 309 antiatomes est de l’ordre d’un millième de milliardième de milliardième de kep (1.10-15 kep), soit rien du tout. Je précise que pour accomplir cet exploit, on a dû consommer une énergie colossale en comparaison à ces quelques antiatomes…

CERN AlphaL’expérience alpha du CERN qui a capturé 309 antihydrogènes pendant 1000 secondes. © CERN.

Le CERN a produit a peu près un milliardième de gramme d’antimatière durant ces 10 dernières années pour un coût estimé de plusieurs centaines de millions d’euros. On voit bien que cette solution n’est aujourd’hui absolument pas envisageable comme source d’énergie.

Une fusée qui carbure à l’antimatière

Pour propulser une fusée, la problématique est différente car on ne cherche pas à faire de l’énergie la moins chère possible sans polluer mais à embarquer un minimum de carburant pour un maximum de puissance. L’antimatière se relève alors être une excellente candidate. Pour mieux vous rendre compte, une mission vers la planète Mars doit embarquer environ 250 tonnes de carburant conventionnel (hydrogène et oxygène liquides) pour un voyage de presqu’une année alors que 10 milligrammes d’antimatière seraient suffisants pour aller sur mars en 1 mois seulement selon la NASA [source]. Toujours selon la NASA, un coût de 250 millions de dollars serait suffisant pour produire ces 10 milligrammes d’antimatière (sous forme de positrons) avec les technologies actuelles. Dans ce cas, cette solution pourrait être envisagée mais tout de même coûteuse.

NASA schema

Schéma de principe du moteur à antimatière pensé par la NASA pour aller sur Mars. © NASA.

En fait, les « moteurs à antimatière » actuellement à l’étude n’utilisent pas forcément directement l’énergie d’annihilation matière/antimatière pour la propulsion mais exploitent les rayonnements énergétiques (appelés rayons gamma) qui sont produits lors de la rencontre matière/antimatière. Ce rayonnement permet alors de chauffer un fluide comme l’hydrogène. Cependant, il faut tout de même fabriquer cette antimatière avant sur Terre et l’embarquer dans ce moteur et cela est encore loin d’être possible avec les technologies actuelles mais sûrement pas impossible à long terme. Affaire à suivre.

Pour aller plus loin: