Archives pour l'étiquette Strip Science

Le Boson de Higgs découvert au CERN

Toute la communauté de physique des particules est en effervescence car on ne comprend toujours pas précisément le monde qui nous entoure et la Science vient de faire un petit pas cette année !

L’année dernière, le CERN annonçait qu’il ne pouvait se prononcer quant à la détection ou non du boson de Higgs, une particule prédite par la théorie mais toujours pas détectée, car les données n’étaient pas encore suffisantes (voir mon billet de l’année dernière). Ce 4 Juillet 2012, des milliards de milliards de collisions plus tard , le CERN vient d’annoncer qu’une nouvelle particule de 125 GeV/c² a été détectée avec un intervalle de confiance de plus de 99.99% (un écart type de 5 sigmas pour les mathématiciens) et il semblerait que ce soit le boson de Higgs, mais reste à prouver que c’est bien lui…

 Un boson c’est quoi au fait ?

Les physiciens aiment bien faire des catégories et ranger leurs particules dans des boites plus ou moins grandes. Les particules peuvent par exemple être séparées en 2 grands ensembles selon leur comportement:

  • Les Fermions : obéissent à la statistique de Fermi-Dirac
  • Les Bosons : obéissent à la statistique de Bose-Einstein

Ces 2 catégories de particules se distinguent par ce que les physiciens appellent leur spin. Le spin est un peu comme la capacité de la particule à tourner sur elle-même. A chaque particule, on attribue un nombre de spin qui permet de caractériser cette rotation. Les bosons ont un spin entier comme le photon par exemple (spin=1). Au contraire, les fermions sont des particules ayant un spin demi-entier (1/2, 3/2, 5/2…) comme l’électron (spin=1/2).

Les Fermions

Les fermions constituent l’essentiel de la matière qui nous entoure (les quarks et les électrons) car ces derniers ne peuvent pas se trouver dans le même état d’énergie ensemble (c’est ce qu’on appelle le principe d’exclusion de Pauli). Ceci a pour conséquence qu’un assemblage de fermions forme une structure de matière rigide comme dans les atomes et les molécules qui constituent notre environnement quotidien.

Les Bosons

Au contraire, les bosons peuvent tous être dans le même état d’énergie et on ne peut pas forcément distinguer les différentes particules les unes des autres. Les bosons sont les vecteurs des forces entre les fermions (la force électromagnétique, la force forte et faible). Pareil pour notre désormais célèbre boson de Higgs qui donne une masse aux autres particules (aux autres fermions et aussi aux autres bosons).

Ce comportement bosonique (toutes les particules dans le même état) est directement observable à notre échelle comme dans un laser où tous les photons sont dans le même état et induisent une lumière cohérente (couleur unique en ligne bien droite). C’est également parce que l’hélium-4 est un boson que l’on peut observer la superfluidité de l’hélium à basse température. La supraconductivité aussi provient du fait que les paires d’électrons se comportent comme un seul boson (spin=1/2+1/2=1) à basse température et peuvent ainsi se déplacer sans perte dans un conducteur. Voir ce billet pour ces comportements atypiques de la matière.

Et si ce n’était pas notre bon vieux Higgs ?

Le dernier accélérateur de particules du CERN, le LHC, doit observer un certain taux de production de ce fameux boson de Higgs selon plusieurs modes de désintégrations possibles. Premièrement, le Higgs peut être créé lors d’une collision proton-proton selon différents processus, voir les petits dessins plus bas, appelés diagrammes de Feynman, où notre Higgs est représenté par la lettre « H » :

 

Ensuite, le Higgs peut se désintégrer selon plusieurs modes et c’est ce que les détecteurs de particules regardent. En particulier, les détecteurs regardent les « canaux » suivants :

  • Un Higgs se désintègre en 2 photons
  • Un Higgs se désintègre en 2 bosons Z
  • Un Higgs se désintègre en 2 bosons W
  • Un Higgs se désintègre en 2 tau
  • Un Higgs se désintègre en 2 quarks/antiquark b

Ensuite ces particules secondaires se désintègrent à leur tour selon différents modes possibles également et au total, c’est environ 85 modes de désintégrations qui sont analysés dans les détecteurs.

 

Deux gluons fusionnent pour donner un Higgs qui se désintègre en 2 bosons W

Ces différents processus de désintégrations sont expliqués par le modèle standard, la théorie actuelle qui marche pour ce que l’on a observé jusqu’à présent mais si le LHC observe plus ou moins de Higgs que prévu selon ces différents scénarios, c’est le modèle sur lequel se base toute la physique depuis les années 60 qui serait remis en question ! A partir d’ici, tout est permis et les physiciens ne sont pas en manque d’imagination pour expliquer telle ou telle anomalie du modèle standard qui ouvrirait alors une nouvelle physique. Ces anomalies pourraient par exemple provenir d’une autre particule chargée non prévue par le modèle standard.

Bref, les physiciens ont du pain sur la planche et le LHC relance la recherche internationale pour la compréhension de notre monde et c’est parti pour durer un certain nombre d’années de recherche et d’affinement des mesures du Higgs pour le regarder sous toutes les coutures et voir s’il se tient à carreaux ou si il fait des choses plus « exotiques ».

Certes, pour le commun des mortels, le fait que le boson de Higgs soit différent de ce que prédit le modèle ne va pas changer grand chose. Mais il ne faut pas oublier notre histoire et que chaque remise en question de la physique d’une époque a débouché sur de grandes avancées scientifiques et technologiques. Et puis n’oublions pas que pour trouver ce boson de Higgs, l’homme a dû construire des machines et de détecteurs complexes qui ont de nombreuses applications dans les technologies de l’information et dans l’imagerie médicale.

Et après ?

Le LHC doit poursuivre sa campagne de collisions jusqu’à mars 2013, ce qui permettra encore d’affiner les résultats et de s’assurer que le Higgs colle dans certains modèles ou pas. Ensuite, le CERN va passer un an et demi à consolider cet accélérateur de particules car le LHC fonctionne aujourd’hui à un peu plus de la moitié de sa puissance seulement (mais c’est déjà beaucoup). Il devrait alors repartir à quasiment sa puissance maximale en 2015 pour fournir de nouveaux résultats à des énergies que nous n’avons jamais explorées.

Le problème est que le LHC est une machine de découverte qui fait beaucoup de collisions entre protons et qui balaye une grande portion d’énergie mais ce n’est pas la meilleure machine pour étudier le Higgs en détail. La communauté de physique planche désormais plus sérieusement sur l’après-LHC qui permettra d’étudier en détail le Higgs maintenant que nous savons où il se cachait. Ce sera sans doute un accélérateur linéaire d’électrons et de positrons qui ferait plus de 30 kilomètres de long. Actuellement, les deux projets les plus sérieux et avancés sont l’ILC (International Linear Collider) et le CLIC (Compact Linear Collider). L’ILC permettrait des collisions à 1 TeV et serait sans doute aux USA ou au Japon et le CLIC permettrait des collisions à 3 TeV et serait sans doute au CERN à Genève. Ce choix sera sans doute à faire par la communauté internationale dans les 5 prochaines années selon les résultats du LHC. Affaire à suivre…

 

Prototype test pour le CLIC au CERN (CTF3)

 Quelques liens utiles :

Les Terres Rares

Voici un terme que l’on retrouve de plus en plus dans les journaux et les magazines à juste titre car c’est la Chine qui fournit aujourd’hui 96% des terres rares à l industrie mondiale. J’ai donc voulu éclaircir dans ce billet ce que sont les terres rares et pourquoi elles constituent un enjeu stratégique économique majeur pour la planète étant donné qu’elles sont un pivot des technologies vertes.

Terres Rares

Si vous vous souvenez du tableau de Mendeleïev, on apprend que chaque colonne constitue un ensemble d’éléments chimiques ayant des propriétés voisines. Les terres rares sont représentées par la troisième colonne de ce tableau et sont constituées de 17 métaux qui se finissent pour la plupart en « ium » ou « dyme ». En voici la liste: Sc(Scandium), Y(Yttrium), La(Lanthane), Ce(Cérium), Pr(Praséodyme), Nd(Néodyme), Pm(Prométhium), Sm(Samarium), Eu(Europium), Gd(Gadolinium), Tb(Terbium), Dy(Dysprosium), Ho(Holmium), Er(Erbium), Tm(Thulium), Yb(Ytterbium), Sc (Scandium), Y(Yttrium), La (Lanthane), Ce(Cérium), Pr(Praséodyme), Nd(Néodyme), Pm(Prométhium), Sm(Samarium), Eu(Europium), Gd(Gadolinium), Tb(Terbium), Dy(Dysprosium), Ho(Holmium), Er(Erbium), Tm(Thulium), Yb(Ytterbium), Lu(Lutécium).

Je parie que vous n’en connaissez pratiquement aucun alors que sans eux, notre quotidien serait bien différent puisque ces métaux sont indispensables à nos petits appareils mobiles qui nous sont si chers tels nos téléphones portables et autres tablettes numériques!

Selon une enquête du magazine L’Expansion en 2011, les cours des terres rares affichaient des hausses comprises entre 500 et 2000 % sur un an. Par exemple, le néodyme utilisé pour les aimants permanents des génératrices d’éoliennes a vu son prix multiplié par 20 entre 2003 et 2010 !! Cet ensemble de matériaux est devenu dans les dernières années un marché clef pour les technologies high-tech et les technologies vertes.

Répartition de la production des terres rares entre la Chine et le reste du Monde depuis 1950

 Les applications

Les applications des terres rares sont innombrables dans des domaines très variés. En général elles sont utilisées en proportions « infimes » mais leur application pour des produits de masse fait que la demande mondiale augmente rapidement. On les retrouve par exemple dans la plupart des applications mobiles comme les téléphones portables et les tablettes numériques comme l’iPad. Les militaires sont de gros consommateurs également avec la fabrication d’aimants permanents pour des missiles et des systèmes guidage (Samarium, Néodyme) ou bien pour le fuselage des avions de chasse (Yttrium). Les technologies vertes sont évident le secteur qui augmentent le plus rapidement avec la fabrication indispensables d’aimants permanents pour les génératrices d’éolienne (Néodyme), les ampoules basses consommation ou les batteries pour voitures électriques. On les retrouve aussi dans les nouvelles générations de panneaux solaires CIGS utilisant de l’indium qui est lui aussi utilisé dans tous les écrans plats et les ordinateurs portables (environ 2g d’Indium par ordinateur portable). Les pots catalytiques des voitures sont également réalisés avec des terres rares.

Le problème écologique

Tous ces métaux ne sont pas si rares que ça en fait, on en trouve partout dans la croute terrestre et les chinois ne possèdent « que » 37% des réserves mondiales exploitables. Cependant, les terres rares sont relativement difficiles à extraire car très polluants. Les procédés d’extraction sont donc chers dans les pays développés où les normes écologiques et sanitaires sont assez strictes. La Chine étant plus « souple » que nous en matière écologique (comprenez que c’est le dernier de leur souci), ils sont tout à fait disposer à contaminer des populations entières pour extraire ces métaux et les vendre à des occidentaux pour fabriquer leurs petits appareils électroniques et développer des technologies « vertes ». En effet, l’extraction et le raffinage des terres rares produisent des poussières métalliques entrainant des maladies pulmonaires et il est nécessaire d’utiliser de très nombreux produits chimiques dangereux. De plus, on peut également observer la libération d’éléments radioactifs dans certains cas comme pour le Thorium. Aloys Ligault, chargé de campagne sur la Responsabilité sociale et environnementale aux Amis de la Terre nous dit la chose suivante : « Autour des usines chinoises, les déchets radioactifs de roches s’accumulent, les vapeurs de soufre, de fluor imprègnent l’air et les rejets de métaux lourds polluent les rivières« .

 

Les mines à ciel ouvert de Baotou en sont le plus sinistre symbole où des territoires entiers sont sinistrés à cause de cette activité minière qui en fait un des lieux les plus pollués de la planète selon le magazine Terre Sauvage. Il faut tout de même signaler que 75% des terres rares dans le monde sont produites à Baotou sans se préoccuper de l’environnement ni des populations locales (2.5 millions d’habitants à Baotou tout de même).

Pour conclure

Les technologies vertes et les appareils high-tech nécessitent des terres rares qui sont produites quasi exclusivement en Chine dans des conditions écologiques et sociales scandaleuses (d’où le paradoxe avec les technologies vertes !!). L’industrie continue néanmoins à augmenter sa demande ce qui a pour conséquence de faire exploser les prix et la Chine commence à limiter ses exportations, bien consciente de sa force de pression sur l’occident. Les USA, le Japon et l’Union Européenne ont ainsi déposé plainte à l’OMC à cause de ses limitations d’exportation au mois de mars 2012. Barack Obama a dit à cette occasion que « Si la Chine laissait simplement le marché fonctionner de lui-même, nous n’aurions pas d’objection […] mais ses politiques actuelles empêchent que cela se produise. Et elles vont à l’encontre des règles que la Chine a accepté de suivre ».

Newton : calcul différentiel, gravité et optique

Voici un livre que je préconise à tout amateur d’Histoire des sciences : Isaac Newton, un destin fabuleux, de James Gleick aux éditions Quai des Sciences.

Cette biographie de l’illustre Newton nous replonge dans l’Angleterre du milieu du 17ème siècle encore moyenâgeuse où un homme d’origine modeste et destiné à être fermier dans la campagne environnante de Cambridge a révolutionné la Science. De mon point de vue, Newton a révolutionné les sciences dans le sens où c’est lui qui a séparé science et philosophie en deux approches bien distinctes, l’une basée sur la démonstration mathématique et l’autre basée sur la pensée et la réflexion. Newton fut certainement le dernier à cumuler les rôles de magicien, alchimiste, philosophe, métaphysicien, théologien, mathématicien et physicien. Après Newton, ce fut le siècle des lumières avec ses philosophes d’un coté  (Diderot, Rousseau, Voltaire, etc.) et ses scientifiques de l’autre (Euler, Bernoulli, Laplace, Lavoisier, etc.).

Dans ce billet, je veux simplement aborder brièvement les 3 principales avancées dues à Newton dans les sciences, à savoir le calcul différentiel, la mécanique et l’optique mais il faut souligner que Newton a passé une très grande partie de sa vie (et sûrement la plus grande partie de sa vie) à étudier l’alchimie ainsi que les différentes versions de la bible pour en retrouver les origines fondamentales.

Les Principia MathEmatica

La rédaction de son œuvre majeure et publiée pour la première fois en 1687 à Londres sont les Principes mathématiques de la philosophie naturelle (plus communément appelées Principia Mathematica). Ces Principia Mathematica abordent un grand nombre de sujets dont la célèbre théorie mécanique de Newton, en incorporant la théorie de la gravité universelle. Ces volumes furent réellement le point de départ de la physique moderne en se basant sur l’explication des phénomènes naturels par leurs mises en équations mathématiques, sans en expliquer leur origine métaphysique ou leur cause, c‘est ce que nous appelons aujourd’hui la Physique.

Première édition des Principia Mathematica avec les annotations manuscrites de Newton conservée à la bibliothèque Wren de Cambridge (1687)

Les Principia Mathematica ont été au début très peu diffusés en dehors de l’Angleterre (une centaine d’éditions seulement avaient été éditées) et il a fallu attendre le milieu du 18ème siècle pour avoir accès à ces 3 volumes fondateurs dans le reste de l’Europe comme par exemple avec la traduction française fameuse de Emilie du Châtelet en 1756 (Miss « Pompon Newton » selon Voltaire). J’ai moi-même eu la chance de tenir entre mes mains et de consulter une édition des Principia Mathematica de 1740 conservée à l’université de Valladolid en Espagne à la bibliothèque historique de Santa Cruz. Avec cette publication, Newton devint un des pères fondateurs de la physique, provoquant une rupture avec la Grèce antique d’Aristote et le cartésianisme de Descartes qui prévalaient alors comme références incontestables jusqu’à Newton.

Le calcul infinitésimal

Au milieu du 17ème siècle, les mathématiciens ne savaient guère appréhender les infinis, grands ou petits. Newton s’attaque à ce problème lors de la grande peste de Londres qui fait rage en Angleterre en 1665-1666 et aboutit à une méthode du calcul infinitésimal vers 1669. Malheureusement, il préfère ne pas publier ses résultats. Ce nouveau mode de calcul permet à Newton de calculer la pente (la tangente) de n’importe quelle courbe ainsi que son aire. C’est ce qu’on appelle aujourd’hui le calcul différentiel et intégral. Ces mêmes opérateurs permettront à Newton d’établir les relations nécessaires entre position, vitesse et accélération en mécanique (à moins que ce ne soit la mécanique qui l’ait amené à trouver le calcul différentiel). Il introduit alors la notation de la dérivée à l’aide d’un point au dessus des lettres (notation encore parfois utilisée).

Au même moment, en Allemagne, Leibniz invente également en 1674 et de manière indépendante le calcul différentiel à la différence qu’il mettra en place un système de notation extrêmement ingénieux et qui est toujours utilisé aujourd’hui : il notera la dérivée avec un « d » droit ou un Delta grec pour représenter une différence infiniment petite et le « S » allongée pour l’intégrale. Une bataille entre Newton et Leibniz fera alors rage pour revendiquer cet outil mathématique extrêmement puissant et constituant la base de l’analyse (la discipline mathématiques étudiant les fonctions).

Mécanique

La mécanique newtonienne est aujourd’hui la théorie mécanique la plus utilisée pour les problèmes courants des ingénieurs permettant de calculer les trajectoires, les vitesses et les accélérations lorsque les vitesses mises en jeu sont faibles devant la vitesse de la lumière (après c’est la relativité d’Einstein qui prend le relais).

Le centre de la mécanique développée par Newton est bien entendu la théorie de la gravitation universelle. Elle est qualifiée d’universelle car elle s’applique à tous les objets ayant une masse, du grain de sable au Soleil en passant par les pommes et la Lune: elle explique la trajectoire des boulets de canons, la rotation des planètes autour du Soleil et le mouvement des marées sur Terre à cause de la Lune.

Newton par Noémie

Newton comprend pour la première fois que plus la masse est grande, plus l’attraction est forte et qu’il est bien question d’attraction et non de pulsion comme il était alors question à l’époque. Newton révoque irrémédiablement la théorie de l’éther et des tourbillons de Descartes et clame que cette force d’attraction se propage dans le vide, ce qui déplaît fortement à l’époque. De plus, Newton ne donne pas d’explication de cette force mystérieuse qui s’exerce à distance (en passant, la transmission de la gravité est toujours un mystère et demeure la force la moins bien comprise). Newton identifie également que cette force est inversement proportionnelle au carré de la distance qui sépare les objets et retrouve les conjectures de Kepler par le calcul comme quoi les planètes décrivent une trajectoire elliptiques autour du Soleil. Il effectue même des corrections aux trajectoires de Kepler et permet à Edmond Halley en 1682 d’annoncer le prochain passage d’une comète en 1738 (soit 76 ans plus tard) qui deviendra la comète de Halley, la théorie de Newton sera alors à son paroxysme et fera l’unanimité sur le continent.

Optique

Newton était attaché à une théorie atomique de la lumière, à l’inverse de Huygens qui défendait une théorie ondulatoire (ils avaient en fait tous les deux raison selon la théorie quantique). La théorie défendue par Newton lui vaudra de nombreux débats et controverses à l’Académie Royale de Londres mais Newton fut le premier à comprendre que la lumière blanche était en fait une composition de toutes les couleurs de l’arc-en-ciel puisqu’en passant dans un prisme, la lumière blanche se décomposait en des pinceaux de lumière de différentes couleurs et qu’il était alors impossible d’en extraire de la lumière blanche à nouveau (on pensait alors que c’est le prisme qui fabriquait les autres couleurs).

Fort de cette théorie, Newton pensait que les télescopes de l’époque utilisant des lentilles (lunettes de Galilée) étaient limités du fait que les couleurs n’étaient pas déviées de la même façon dans les lentilles incurvées. Il inventa alors un nouveau télescope, qualifié de Newton aujourd’hui, utilisant un miroir courbe et permettant un grossissement identique avec un télescope beaucoup plus compact qu’avec les lunettes de Galilée.

 

Un télescope Newton monté sur une monture équatoriale

Pour conclure

Je citerai simplement cette épitaphe et Alexander Pope (1730) pour conclure ce billet :

La Nature et ses lois
Restaient cachées dans la nuit
Et Dieu dit « Que Newton soit ! »
Et alors tout s’éclaircit.

L’Hadronthérapie contre le cancer

C’est en lisant un des derniers billets des Quantum Diaries intitulé La face cachée du CERN que je me suis dit qu’un billet sur l’hadronthérapie serait un sujet très intéressant car prometteur et relativement peu connu du grand public.

La radiothérapie

La radiothérapie consiste à tuer les cellules cancéreuses d’un patient au moyen de radiations. L’idée de la radiothérapie consiste à exploiter le fait que les radiations peuvent détruire les cellules, quelles qu’elles soient. La difficulté est alors de détruire uniquement les cellules cancéreuses pour empêcher leur reproduction sans toucher aux cellules saines de manière à enrayer la maladie sans dommages collatéraux.

Il est à noter qu’aujourd’hui plus de la moitié des cancers sont traités à l’aide de la radiothérapie et que cette seule méthode peut entraîner une guérison complète avec des effets secondaires moindre qu’avec une chimiothérapie.

Les radiations peuvent être produites de 2 manières pour tuer les cellules cancéreuses :

  • La curiethérapie : Un élément naturellement radioactif est introduit dans le patient ou est placé à proximité de la zone à traiter.  Cette technique est utilisée principalement pour traiter les cancers du sein, de la prostate, de l’utérus et de la peau.
  • La radiothérapie externe : Un accélérateur de particules produit un faisceau de particules dirigé vers le patient de manière à irradier les cellules tumorales. C’est cette dernière méthode qui nous intéresse ici.

La difficulté est la suivante : les tumeurs peuvent être situées à la périphérie du corps ou bien enfouies profondément à l’intérieur comme dans le cerveau. Dans ce dernier cas, il faut alors trouver un moyen d’irradier fortement les cellules tumorales à l’intérieur en abîmant le moins possible les tissus alentours. Pour évaluer l’efficacité des faisceaux de particules à tuer des cellules, on calcule l’énergie qu’ils déposent dans les tissus, c’est ce qu’on appelle aussi la dose, qui est proportionnelle aux radiations induites sur les tissus pour les détruire. Il existe alors plusieurs types de radiothérapies externes qui exploitent différents types de rayonnement:

  • Faisceaux d’électrons : pénètrent faiblement dans les tissus et déposent toute leur dose quelques centimètres après le point d’entrée du faisceau dans le corps.
  • Rayons X (photons) : peuvent pénétrer en profondeur dans les tissus mais l’énergie déposée est maximale quelques centimètres seulement après le point d’entrée et diminue ensuite faiblement. Ainsi la majorité des tissus (sains et cancéreux) situés dans l’axe du faisceau sont irradiés fortement ce qui implique de déposer une dose relativement faible sur les cellules cancéreuses pour ne pas trop irradier les tissus sains.
  • Faisceaux de hadrons (protons ou ions carbones) : peuvent pénétrer en profondeur et une grande partie de l’énergie du faisceau est déposée une dizaine de centimètres après le point d’entrée du faisceau dans les tissus. De cette manière, la zone d’entrée du faisceau est peu irradiée, la zone où se situe la tumeur peut être fortement irradiée et la zone située derrière n’est pratiquement pas irradiée.

 Dépôts d’énergie de différents faisceaux (électrons, rayons X, protons) en fonction de la profondeur dans les tissus.

L’hadronthérapie

L’hadronthérapie permet ainsi de tuer des cellules cancéreuses enfouies à l’intérieur du corps comme dans le cerveau sans chirurgie tout en préservant au maximum les cellules saines autour de la tumeur. Mais au fait, c’est quoi un hadron ?

Les hadrons sont une classe de particules sensibles à l’interaction forte, c’est-à-dire à la force qui permet la cohésion des noyaux atomiques. Toutes les particules constituées de quarks comme les protons, neutrons ou n’importe quel noyau atomique sont des hadrons (contrairement aux leptons et aux bosons comme les électrons et les photons, voir mon billet sur le bestiaire des particules pour plus de détails).

Les hadrons ont cette caractéristique de déposer toute leur énergie d’un coup après avoir traversé une certaine épaisseur de matière, c’est ce que les physiciens appellent le pic de Bragg (voir la courbe rouge dans le dessin plus haut). Grâce aux bonnes connaissances que l’homme a acquises sur le fonctionnement de ces particules il est capable de fabriquer des accélérateurs de particules ultra-précis permettant de déposer l’énergie de ces hadrons exactement sur une tumeur de quelques centimètres enfouie au milieu de notre corps. Tout ça pour dire que la recherche fondamentale en physique des particules est indispensable pour développer de telles thérapies et que de très nombreux laboratoires en physique des particules comme le CERN ou GSI collaborent étroitement avec les instituts médicaux pour développer de telles thérapies. Aujourd’hui 2 types d’hadronthérapie existent et une vingtaine de centres en sont équipés dans le monde:

  • La protonthérapie qui utilise des protons. Plus de 30 centres sont opérationnels (à Orsay et à Nice pour la France), voir la liste ici.
  • L’hadronthérapie qui utilise des ions carbones. 5 centres sont opérationnels en  en Allemagne, en Chine et au Japon,  et plusieurs autres centres sont en construction (à Caen et à Lyon pour la France). Les ions carbones sont encore plus précis que les protons et permettent de déposer des doses plus importantes sur les cellules tumorales permettant ainsi de vaincre les tumeurs les plus radiorésistantes.

Salle de contrôle du synchrocyclotron au Centre de Protonthérapie d’Orsay.

Ces centres ont permis de traiter environ 7000 personnes dans le monde ces dernières années contre plusieurs millions par radiothérapie conventionnelle. En effet, cette méthode est relativement récente et est également plus chère que les autres méthodes mais elle est surtout plus difficile à mettre en œuvre à cause des équipements très sophistiqués à mettre en place. Cependant, elle est beaucoup plus précise et permet de soigner des tumeurs qui sont inopérables et non curables par radiothérapies conventionnelles lorsque ces dernières sont localisées près d’organes sensibles. De plus, les hadrons sont beaucoup plus efficaces pour tuer les cellules cancéreuses que les photons, de 2 à 10 fois plus efficaces selon les cas.

L’hadronthérapie est principalement utilisée pour soigner les tumeurs du cerveau non atteignables par neurochirurgie, certains cancers de l’œil qui nécessitaient une énucléation auparavant (extraction de l’œil) et certains cancers chez les enfants qui sont plus sensibles aux radiations et donc plus fragiles face aux techniques de radiothérapies conventionnelles utilisant des rayons X.

Je vous conseille ce petit reportage de 4 minutes sur le centre de radiothérapie de Heidelberg qui est en étroite collaboration avec GSI à Darmstadt: http://www.allodocteurs.fr/actualite-sante-hadrontherapie-une-radiotherapie-specifique-2631.asp?1=1

Radiothérapie avec de l’antimatière ?

Des recherches sont actuellement en cours au CERN à Genève sur la possibilité d’utiliser de l’antimatière, des antiprotons plus exactement, pour traiter les cancers. Cette expérience dénommée ACE pour Antiproton Cell Experiment, étudie comment l’antimatière peut détruire les cellules cancéreuses par annihilation matière/antimatière. Actuellement, l’expérience bombarde des cellules vivantes de hamsters avec des protons puis avec des antiprotons (pour voir la différence), et il apparaît qu’une énergie 4 fois inférieure avec des antiprotons permet de détruire autant de cellules cancéreuses tout en diminuant significativement la dose déposée dans les tissus sains.

L’expérience ACE au CERN étudiant l’effet des antiprotons sur des cellules de hamsters. © CERN.

Si cette expérience est concluante, peut-être que de futurs partenariats permettraient de développer dans quelques décennies une « antiproton thérapie » permettant de soigner des cancers difficiles d’accès en irradiant encore moins les cellules saines autours des tumeurs.

 

Le LHC et le Boson de Higgs

Non ce n’est pas une fable de la Fontaine mais une épopée de la physique moderne : la traque d’une particule invisible par un accélérateur de particules de 27 km de circonférence…

Aujourd’hui à 14h, une conférence donnée au CERN par les 2 porte-paroles des expériences phares du LHC (ATLAS et CMS) faisait un résumé des résultats obtenus grâce à l’accélérateur de particules LHC lors de la campagne de collisions 2011. Je vais donc essayer de vous faire un résumé compréhensible de cette conférence à laquelle j’ai assisté cette après-midi.

Les résultats des 2 expériences indépendantes sont très similaires et indiquent deux grandes tendances:

  • Le modèle standard de la physique des particules fonctionne comme prévu à 7 TeV (l’énergie maximale des collisions du LHC en 2011).
  • Le boson de Higgs n’a plus beaucoup d’endroits où se cacher et il commencerait à montrer le bout de son nez vers une énergie de 125 GeV mais pas encore de quoi annoncer sa découverte.

 Le modèle standard

Le modèle standard de la physique des particules est la théorie physique utilisée aujourd’hui pour décrire la matière et ses interactions. L’objectif des accélérateurs de particules est de tester cette théorie autant que possible pour voir si la nature est bien celle que les physiciens imaginent, voir ce billet que j’ai écrit il y a quelques mois à ce sujet.

Le LHC ouvre à présent une nouvelle gamme d’énergie encore jamais explorée par les accélérateurs et c’est pour cela que les physiciens sont un peu fébriles. Après plusieurs milliards de milliards de collisions effectuées et analysées durant cette année 2011, les particules se sont comportées comme la théorie le prévoit et le modèle standard se trouve ainsi conforté.

 Le Boson de Higgs

Le boson de Higgs est une particule un peu à part dans ce modèle standard car elle permet d’expliquer la masse de toutes les autres particules, constituant ainsi la pierre angulaire de cette théorie. Le problème est que ce boson de Higgs a une section efficace extrêmement faible, ce qui signifie qu’il faut faire des milliards de milliards de collisions pour voir 1 seul boson de Higgs, ce qui explique entre autre pourquoi aucun accélérateur n’a encore été capable de le voir. Voir ce billet qui explique tout ça par rapport à la campagne de collisions du LHC en 2010.

De plus, les physiciens ne savent pas exactement quelle est la masse du Higgs, ou son énergie, rappelez-vous que masse et énergie sont équivalentes selon la relativité restreinte d’Einstein (E= mc²). Plusieurs théories existent et peuvent expliquer le boson de Higgs à différentes énergies mais pour trancher, il faut le « voir » et donc faire des expériences, ceci étant le but du LHC. Les accélérateurs vont donc balayer petit à petit des bandes d’énergies pour voir si le boson de Higgs se cache à l’intérieur.

Deux grands principes sont à garder à l’esprit:

  • Plus l’énergie de la particule recherchée est importante, plus l’accélérateur doit être puissant.
  • Plus la section efficace est petite, plus le nombre de collisions doit être important pour voir statistiquement la particule recherchée.

Le LHC essaye donc de faire le plus de collisions possible à des énergies les plus hautes possibles pour « voir » ce boson de Higgs.

Comment « voir » le Higgs ?

Le boson de Higgs n’est pas directement détectable car sa durée de vie est trop faible. On cherche donc des particules qui pourraient être issues de sa désintégration en d’autres particules. Selon la masse du Higgs (toujours inconnue), les schémas de désintégration sont différents les uns des autres. Dans le cas du LHC, on cherche un boson de Higgs ayant une masse comprise entre 115 GeV et 600 GeV car les accélérateurs précédents ont écarté un Higgs en dessous de 115 GeV, et au dessus de 600 GeV le modèle standard ne marche plus.

Au total, les expériences ATLAS et CMS balayent ainsi une dizaine de schémas de désintégration possibles pour le Higgs. Par exemple dans l’hypothèse d’un Higgs léger entre 110 et 150 GeV, il peut se désintégrer en 2 photons gamma émis dans 2 directions opposées.

C’est cette dernière désintégration qui semble aujourd’hui sortir un peu du lot suite aux observations faites par ATLAS et CMS. Mais encore une fois, pour être certain que les mesures sont fiables, il faut valider statistiquement les mesures accumulées ce qui nécessite une quantité de données absolument gigantesque tant l’évènement de voir un Higgs est rare.

Les 2 expériences ont vu se dessiner un pic dans les collisions analysées qui indiquerait que le boson de Higgs aurait une masse proche de 125 GeV, voir les graphiques ci-dessous. Pour lire ces graphiques,  tant que la courbe noire (mesure) reste dans les bandes jaunes ou vertes, on ne peut rien dire car ces 2 courbes symbolisent l’incertitude des mesures. En revanche, dès que des données commencent à « sortir » de ces bandes, c’est que le Higgs pourrait se cacher à cet endroit.

Résultats préliminaires de ATLAS et CMS dans la recherche du Boson de Higgs dans l’hypothèse d’un boson de Higgs autour de 125 GeV issu d’une désintégration en 2 photons gamma.

Conclusion

Une tendance commence donc à apparaître pour un Higgs vers 125 GeV mais ce n’est pas encore assez pour certifier que le Higgs existe à cette énergie. Pour l’instant ATLAS estime la masse possible entre 116 GeV et 130 GeV et CMS entre 115 GeV et 127 GeV (les zones autour ont été exclues).

Pour valider ce résultat, il faudra accumuler encore plus de données pour voir si ce pic va être lissé ou bien s’accentuer, auquel cas l’existence du Higgs ne fera plus de doute. Si les attentes du CERN pour 2012 sont remplies, il y aura 4 fois plus de données à analyser dans un an et cette accumulation de collisions permettra de trancher la question du boson de Higgs avec 99% de certitude.

Fable à suivre…

C’est l’espace : le CNES a 50 ans !

Le Centre National d’Etudes Spatiales (CNES) a 50 ans cette année et à cette occasion, il publie un ouvrage à mettre entre toutes les mains: C’est l’espace !

Le principe de ce bel ouvrage de 300 pages magnifiquement illustré est de recenser un ensemble hétéroclite de savoirs, d’histoires et de curiosités sous forme encyclopédique avec 101 entrées, de « Actualité » à « Vie ». D’une page à l’autre on voyage en ordre alphabétique, ce qui peut au début surprendre. On passera donc sans problème de Migration à Militaire puis à Mode. Au final, cette lecture parfois décousue permet au lecteur de tomber sur des articles assez inattendus et ce sont généralement de bonnes surprises.

Des sujets variés

Comme on peut l’attendre, les grands succès spatiaux comme Ariane ou Apollo avec le premier pas sur la Lune sont abordés mais les ratés sont aussi au menu comme l’article Désenchantement qui nous rappelle que la conquête spatiale est périlleuse. On gardera en mémoire l’explosion de la navette Challenger en 1986 qui a meurtrie l’Amérique. Au total, 21 astronautes sont morts en mission lors de 4 crashs depuis les débuts de l’aventure spatiale (en 1967, 1971, 1986 et 2003).

Il est bien sûr question des technologies spatiales et de science dans les articles, mais pas seulement. On y trouve des articles artistiques comme Architecture, Art Brut, BD, Chanson, Cinéma, Design, Mode, Publicité, Space Art, des articles politiques avec Bipolaire ou Europe ainsi qu’un grand nombre d’articles plutôt philosophiques tels Cieux et Spatialité. La science fiction est également de la partie avec des articles sur les Cyborgs, la TV, le Cinéma et la Littérature car la science fiction s’est souvent inspirée des technologies de l’espace, mais l’inverse est également vrai.

Personnellement, j’ai été très sensible aux textes des historiens qui nous rappellent que la conquête spatiale est passée par de très nombreuses étapes progressives et pas toujours très glorieuses comme l’histoire de la fusée nazie V2 assemblée par les détenues des camps de concentration et destinée à tuer des civils pendant la seconde guerre mondiale.  On verra d’ailleurs dans un grand nombre d’articles que cette fusée V2 à inspiré toutes les autres puissances spatiales et qu’elle réapparaît souvent.

Au fil des pages, des articles insolites peuvent aussi surgirent tel que Poste où l’on apprend que depuis les années 30, différentes compagnies postales prévoyaient l’envoi de courrier à l’aide de fusées. On s’étonnera de voir que la poste française avait conçu une fusée prototype en 1960 et qu’elle prévoyait d’envoyer le courrier vers la Corse en fusée dans les années à venir! Des articles permettent également de répondre à des interrogations légitimes telles que le Droit juridique dans l’espace ainsi que le Coût et l’organisation de ces gigantesques Projets. Mais ce sont surtout des articles qui nous font rêver en nous faisant des Promesses qui peuplent ce livre accessible à tous.

Cocorico

En dehors des Etats-Unis et de la Russie qui ont été les pionniers de l’espace, on parle évidemment de la France avant tout, puisque le CNES est une entité française et que ce livre se veut un peu comme le témoignage du CNES à la conquête spatiale française. On nous rappelle donc que la France a été la 3ème puissance spatiale mondiale après les USA et l’URSS en 1965 lors du lancement de son premier Satellite Astérix (Cocorico !).

On trouvera par exemple un article sur la base de Hammaguir en Algérie qui a été un terrain d’essai clef pour la France dans les années 50 et 60  ainsi qu’un article sur la venue de Gagarine en 1963 à Ivry-sur-Seine, commune alors communiste. Il est également question de l’antenne géante de Pleumeur-Bodou de 340 tonnes en Bretagne (le radôme), qui permit la première réception télévisuelle transatlantique le 10 juillet 1962 via le satellite Telstar.

Pour conclure

Pour conclure mon billet, j’utiliserai la même conclusion que l’article Cosmologie qui résume bien l’esprit de cet ouvrage qui fera sans doute des heureux à Noël: « Sans la physique, l’astronomie n’a pas de tête, sans le CNES, la physique n’a pas d’ailes. »

Plus d’infos avec des extraits: http://www.cnes.fr/web/CNES-fr/9642-c-est-l-espace-.php

Le vide

Qu’est-ce que le vide ? L’absence de matière ? Le rien ? Le néant ? La vacuité ? Selon le philosophe, l’ingénieur ou le physicien, la réponse peut varier. Ce billet va donc essayer de faire la lumière sur le vide…

Le vide: question de densité

Quand on veut évaluer la quantité de matière dans un espace défini, on utilise la densité (qui se mesure en kilogramme par mètre cube). Si on considère le vide comme l’absence de matière « pesante », faire le vide parfait consiste donc à avoir une densité de zéro kilogramme par mètre cube. Mais attention, ce n’est pas parce qu’il n’y a pas de matière « pesante » qu’il n’y a rien du tout comme on pourrait le croire de la lumière par exemple, puisque cette dernière n’a pas de masse. La définition devient alors plus ardue… On en reparle à la fin du billet…

 Le vide: question de pression

Cependant, pour évaluer le « vide », on utilise plus volontiers la pression qui est en fait directement liée à la densité: pour un gaz parfait, la pression est proportionnelle à la température multipliée par la densité (P= \rho \cdot R \cdot T). En revanche, si la température diminue, la pression diminue également donc lorsque l’on veut une très basse pression (et donc un vide poussé), il faut d’une part diminuer la densité, et d’autre part la température.

Je vous rappelle que la pression se mesure en pascal. Un pascal est équivalent à une force de 1 newton appliquée à 1 m², comme si on posait une masse de 100 grammes sur un mètre carré (sur Terre). La pression atmosphérique (environ 1 bar) est égale à 100 000 pascals, ce qui correspond à une masse de 10 tonnes par mètre carré sur Terre! Quand vous êtes allongé, il s’exerce donc une masse d’environ 10 tonnes d’air sur vous mais comme à l’intérieur de votre corps il règne une pression équivalente, les forces exercées se compensent et c’est pour cette raison que nous ne ressentons pas vraiment ces 10 tonnes d’air…

En revanche, dans un pneu de voiture gonflé à 2 bars, la pression différentielle entre la pression dans le pneu et la pression à l’extérieure est de 1 bar et il s’applique alors effectivement une force équivalente de 10 tonnes par mètres carré. De même, si vous faites le vide dans une enceinte (le vide parfait correspondrait à une pression égale à zéro), il s’exerce une force d’environ 10 tonnes par mètre carré.

Conclusion: lorsque vous voulez faire le vide dans une enceinte, cette dernière doit être suffisamment résistante mécaniquement pour supporter la différence de pression entre les 2 côtés des parois.

 Des molécules qui s’agitent

La pression est en fait due aux chocs des molécules contre les parois d’une enceinte. A 1 bar et à 20°C, les molécules d’air se déplacent en moyenne à 1700 kilomètres/heure et parcourent en moyenne 70 nanomètres (70 milliardième de mètre) entre 2 chocs, autant vous dire que notre air qui nous paraît si anodin est le théâtre d’un flipper géant à grande vitesse. Si la température et si la pression baisse, la vitesse des molécules va diminuer naturellement et la distance entre 2 chocs également. Par exemple, pour 0.1 pascal, les molécules parcourent 5cm entre 2 chocs et à 0.0000001 pascal, nos petites molécules parcourent 500 km avant de se rencontrer !

 Distribution des vitesses pour des molécules de diazote à différentes températures. © V. Baglin, Vacuum in Accelerators.

 Le vide de l’ingénieur

Pour l’ingénieur, la définition du vide est simplement l’absence de matière mais dans une moindre mesure. On parle de différentes qualités de vide selon la pression qui est directement liée à la densité ou au nombre de molécules par centimètre cube. N’oublions pas que dans l’air que nous respirons à 1 bar, il y a environ 10 milliards de milliards de molécules par centimètre cube !

  • Le vide primaire est défini par une pression de l’ordre de 100 pascals (soit mille fois moindre que la pression atmosphérique). Dans ce cas, un cm3 contient tout de même encore 10 millions de milliards de molécules !!!
  • Le vide moyen est entre 0.1 et 100 pascals.
  • Le vide secondaire a une pression comprise de 0.1 à 0.00001 pascal (soit encore un milliard de molécules par cm3).
  •  L’ultra-vide se situe entre 1 milliard et 10 000 molécules par cm3 (entre 10-5 et 10-10 pascal).
  • L’ultra ultra-vide est à moins de 10 000 molécules par cm3. Le trajet moyen d’une molécule avant d’en rencontrer une autre est alors d’environ 100 000 kilomètres et la pression est inférieure à 10-10 pascals (0.0000000001 pascal).

A titre de comparaison, la pression sur la Lune est de 10-7 pascal, c’est donc un ultra-vide (on sait d’ailleurs reproduire un tel vide sur Terre). En revanche, dans le vide interstellaire (entre les étoiles, loin de tout objet céleste) la pression est d’environ 1 atome par cm3, chose que l’homme n’a jamais réussi à atteindre sur Terre.

Comment faire le vide ?

Eh bien c’est très facile, il faut faire comme les Shadoks : Pomper, Pomper, Pomper ! Il existe différents types de pompe, chacune ayant ses particularités pour différentes qualités de vide. Les pompes sont utilisées en différents étages et pour différentes utilisations. Elles peuvent être utilisées seulement pendant la phase de pompage ou uniquement pour maintenir le vide. En effet, il ne suffit pas de faire le vide une fois et de mettre un bouchon pour maintenir le vide car tous les matériaux « dégazent », c’est-à-dire qu’ils libèrent naturellement des molécules. Ce phénomène diminue lorsque la température diminue mais reste néanmoins toujours présent. Je ne vais pas entrer dans les détails des différentes pompes mais simplement vous en présenter une que j’aime bien.

La pompe turbomoléculaire est une pompe permettant de faire un vide secondaire, voir un ultra-vide jusqu’à 1 milliardième de pascal. Elle est généralement utilisée pendant la phase de pompage pour « faire » le vide, pas pour le maintenir. Le principe de cette pompe consiste à frapper les molécules qui passent dans la pompe avec des roues à ailettes qui tournent à très haute vitesse pour les envoyer dans une direction bien précise. Les ailettes ont des tailles différentes permettant de « percuter » des molécules de tailles différentes (hélium, argon, diazote, dihydrogène, etc.). Pour vous donner un ordre d’idée, une pompe turbo tourne à environ 36000 tours par minute, soit 600 tours par secondes, ce qui correspond à une vitesse à l’extrémité des ailettes de plus de 720 km/h (2/3 de la vitesse du son). Les ailettes peuvent être montées sur roulement à billes pour tourner mais désormais, un système magnétique permet de faire tourner les ailettes sans frottement en les faisant léviter dans un champ magnétique.

Les applications du vide

Une question importante: à quoi sert le vide ? Eh bien, à de très nombreuses applications en matière d’ingénierie ou de recherche. En voici quelques exemples :

  • Toutes les techniques de dépôts de couches minces se réalisent sous vide comme la réalisation de couches minces pour les verres antireflets des lunettes ou pour les revêtements de matériaux très techniques dans les voiliers ou les formules 1.
  • La fabrication de circuits intégrés et de composants électroniques se fait également sous vide pour éviter la pollution des circuits avec des impuretés.
  • Les accélérateurs de particules nécessitent un ultra-vide pour permettre la circulation de faisceaux de particules sur plusieurs kilomètres sans provoquer de chocs avec des molécules résiduelles. A titre d’exemple, le vide pour les faisceaux du LHC est de 10-9 pascal sur 27 kilomètres !
  • De nombreuses expériences de physique utilisent des vides secondaires voire des ultra-vides pour différentes expériences à très basse température et pour limiter les interactions avec d’autres molécules, particulièrement en physique quantique.
  • La cryogénie nécessite un vide secondaire pour l’isolation thermique et réduire les pertes thermiques par convection.
  • Le Microscope Electronique à Balayage (voir ce billet pour plus de détails)
  • Le Microscope à Force Atomique pour manipuler les atomes un à un.

 Physique Quantique

En physique quantique le vide est défini comme « un état dans lequel tous les champs ont une énergie minimale ». Le vide est donc plein d’énergie, c’est ce que l’on appelle le vide quantique. Cela signifie qu’en physique quantique le « rien » n’existe pas. Une absence de matière peut donc être envisagée théoriquement (quant à la pratique, c’est impensable) mais une absence d’énergie est totalement exclue dans les théories modernes de la physique. Le simple fait d’avoir un champ électromagnétique (de la lumière) montre bien que même un espace dépourvu de matière n’est pas vide.

 La force de Casimir

Désolé, rien à voir avec l’île aux enfants et la grosse peluche jaune. Cette force du vide tire son nom du physicien néerlandais Hendrik Casimir (1909-2000) qui l’avait prédite en 1948 et qui fut observée 10 ans plus tard en laboratoire alors que les technologies avaient suffisamment évolué.

 

La prédiction de Casimir (le physicien) était la suivante : « Si on place parallèlement 2 plaques conductrices non chargées dans vide à une faible distance l’une de l’autre, une force tend à rapprocher les 2 plaques ». Cet effet est directement lié aux énergies du vide quantique et a été observé un grand nombre de fois en laboratoire. Comme quoi le vide n’est jamais vide !

Bref, vous l’aurez compris, la maxime : « la nature a horreur du vide » est une réalité car la nature tend à remplir le vide de manière à équilibrer les pressions et le vide n’est jamais vraiment vide… Einstein a notamment écrit que « les objets physiques ne sont pas dans l’espace, mais ces objets ont une étendue spatiale. De la sorte, le concept d’espace vide perd son sens».

CLOUD : les physiciens dans les nuages

On pourrait penser que les physiciens et les climatologues savent parfaitement comment les nuages se forment dans notre atmosphère… Eh bien non !

clouds-color.jpg

Des physiciens fabriquant des nuages. © Noémie.

Il y a encore de nombreuses inconnues et nous ne savons toujours pas expliquer pourquoi nous observons autant de nuages ! Les modèles climatiques doivent d’ailleurs être corrigés « à la main » pour les phénomènes de création des nuages.

Les Aérosols et les nuages

Il y a dans notre atmosphère des aérosols autour desquels de la vapeur d’eau se condense sous forme de gouttelettes pour former un nuage.

Les aérosols sont de petites particules solides de l’ordre du milliardième de mètre (nanomètre) en suspension qui sont d’origines naturelles ou industrielles. Certains aérosols sont dangereux pour la couche d’ozone (comme les chlorofluorocarbures aujourd’hui interdits dans les bombes aérosols) mais d’autres sont inoffensifs comme les

aérosols soufrés
produits entre autres par les incendies de forêt ou la combustion de carburants fossiles dans nos voitures. Ces aérosols permettent la formation des nuages et luttent contre le réchauffement climatique puisqu’ils renvoient la lumière du soleil.  Certains scientifiques estiment d’ailleurs que le rejet d’aérosols par l’activité économique humaine compense le réchauffement climatique entraîné par les gaz à effets de serre. Des études montrent également des différences sur la formation de nuages entre les jours de la semaine et les week-ends à cause de l’activité humaine.

CLOUD

« Cloud » signifie « nuage » en anglais, mais c’est aussi un acronyme pour « Cosmics
Leaving OUtdoor Droplets 
», une expérience menée au CERN par des physiciens pour mieux comprendre comment les nuages se forment, ou plutôt comment les aérosols sont créés dans l’atmosphère. En effet, aujourd’hui la quantité des différents gaz sous forme de vapeur dans l’atmosphère ne peut pas expliquer à elle seule la création d’autant d’aérosols, et donc d’autant de nuages: un autre phénomène doit avoir lieu pour créer ces aérosols.

L’expérience CLOUD dans le complexe du PS au CERN. © CERN.

La réponse viendrait peut être du cosmos qui nous bombarde constamment de particules énergétiques appelées « rayons cosmiques », découverts au début du 20ème siècle.  Ces rayons cosmiques pourraient, lorsqu’ils traversent notre atmosphère, être responsables de la création d’aérosols entraînant la formation de nuages.

Les physiciens de CLOUD reconstituent un milieu proche de celui de l’atmosphère à différentes altitudes avec des concentrations de gaz extrêmement précises dans différentes chambres. Un accélérateur de particules du CERN, le Proton Synchrotron (PS) est ensuite utilisé pour générer des faisceaux de particules énergétiques (des pions) équivalents à des rayons cosmiques pour bombarder la chambre et observer le résultat. L’analyse des données doit permettre de mieux expliquer la formation de certains aérosols et à améliorer les modèles sur l’impact des aérosols sur le climat en général.  

cloud chamber

Chambre interne de l’expérience CLOUD. © CERN.

CLOUD est une collaboration internationale regroupant 18 instituts de 9 pays dont le CERN où a lieu l’expérience. Pour la petite info, c’est dans mon groupe de travail qu’est élaboré le système de contrôle de CLOUD manipulant tous les différents gaz pour obtenir des mélanges proches de ceux observés dans l’atmosphère.

Pour plus d’info sur les dernières trouvailles de CLOUD :

De l’antimatière pour propulser une fusée dans l’espace?

Au mois de novembre 2010, une équipe du CERN avait réussi à mettre de l’antimatière en boite  pendant quelques fractions de secondes et au mois de mars 2011 c’est pendant 20 minutes que les physiciens ont capturé de l’antihydrogène dans un piège…

antimatière-1L’antimatière a toujours interpellé les auteurs de science-fiction depuis sa découverte dans les années 30 étant donné que l’énergie produite par la rencontre de matière et d’antimatière est colossale. Voilà une nouvelle qui relance l’idée de savoir si l’antimatière pourrait un jour être utilisée pour la propulsion spatiale comme dans Star Trek.

antimatière-2Mesurer l’énergie

L’énergie se mesure en Joule mais cette unité n’est pas très commode et peu représentative. Pour avoir une unité de mesure plus parlante et pour comparer les énergies facilement, on parlera plutôt en kilogramme équivalent pétrole ou « kep » qui correspond à l’énergie calorifique que l’on peut extraire d’un kilogramme de pétrole. Pour information, 1 kg de pétrole permet de produire 42 millions de Joules sous forme de chaleur lorsqu’on le brûle (combustion). Pour se rendre compte de ce que cela représente, un européen moyen consomme en moyenne 10 kep par jour.

 uss enterprise

L’USS Enterprise de Star Trek fonctionne à l’antimatière.

A titre de comparaison, la fission nucléaire exploitée dans nos centrales nucléaires permet de récupérer environ 10 000 kep par kilogramme d’uranium, soit une concentration énergétique bien supérieure qu’avec la combustion du pétrole. De même, la fusion thermonucléaire qui se produit dans les étoiles et qui pourrait être à long terme une nouvelle source d’énergie pour l’homme sur Terre (voir (voir ITER) permet de récupérer environ 15 millions de kep dans un kilogramme de mélange Deutérium-Tritium.

Et l’antimatière alors ? Selon la célèbre formule E=mc² d’Einstein, 1 kg de matière contient potentiellement 90 millions de milliards de Joules, soit 2 milliards de kep, ce qui correspond à une densité d’énergie 2 milliards de fois supérieure au pétrole et 200 000 fois supérieure à l’uranium avec la fission nucléaire de nos centrales.

Petit résumé des équivalents énergétiques:

  • 1 kg de bois (par combustion) = 0,3 kep
  • 1 kg de charbon (par combustion) = 0,7 kep
  • 1 kg de fioul (par combustion) = 0,95 kep
  • 1 kg d’essence (par combustion) = 1,05 kep
  •  1 kg d’uranium naturel (par fission nucléaire) = 10 000 kep
  • 1 kg de Deutérium-Tritium (par fusion thermonucléaire) = 15 millions de kep
  •  1 kg d’antimatière (par annihilation matière-antimatière) = 2 milliards de kep

Exploiter l’antimatière

Pour comprendre ce qu’est l’antimatière, je vous invite à lire un de mes billets précédents sur l’antimatière mise en boite au CERN.

Sur le papier, la solution de l’antimatière pour notre avenir énergétique parait bien évidemment la meilleure. Mais deux grands problèmes se posent (et pas des moindres) :

  • Comment créer des quantités suffisantes d’antimatière sans dépenser trop d’énergie
  • Comment stoker l’antimatière

Aujourd’hui, l’antimatière est créée dans des accélérateurs de particules en quantité infime et il faut dépenser beaucoup (mais alors beaucoup) plus d’énergie que ce que la quantité d’antimatière pourrait produire. En bref, ce n’est absolument pas rentable. De plus, pour la stocker, il faut fabriquer un piège bien particulier pour maintenir l’antimatière en lévitation dans le vide car le moindre contact avec de la matière ordinaire l’annihile instantanément.

Pour vous rendre compte des ordres de grandeurs, dans un kilogramme d’hydrogène, il y a environ 602 millions de milliards de milliards d’atomes. Il faudrait donc créer autant d’antihydrogènes pour pouvoir faire 1 kilogramme d’antimatière. Or, quand une expérience du CERN annonce avoir réussi à confiner de l’antimatière pendant 16 minutes, ce n’est pas 1 kilogramme mais seulement 309 antiatomes ! L’énergie pouvant être extraite de ces 309 antiatomes est de l’ordre d’un millième de milliardième de milliardième de kep (1.10-15 kep), soit rien du tout. Je précise que pour accomplir cet exploit, on a dû consommer une énergie colossale en comparaison à ces quelques antiatomes…

CERN AlphaL’expérience alpha du CERN qui a capturé 309 antihydrogènes pendant 1000 secondes. © CERN.

Le CERN a produit a peu près un milliardième de gramme d’antimatière durant ces 10 dernières années pour un coût estimé de plusieurs centaines de millions d’euros. On voit bien que cette solution n’est aujourd’hui absolument pas envisageable comme source d’énergie.

Une fusée qui carbure à l’antimatière

Pour propulser une fusée, la problématique est différente car on ne cherche pas à faire de l’énergie la moins chère possible sans polluer mais à embarquer un minimum de carburant pour un maximum de puissance. L’antimatière se relève alors être une excellente candidate. Pour mieux vous rendre compte, une mission vers la planète Mars doit embarquer environ 250 tonnes de carburant conventionnel (hydrogène et oxygène liquides) pour un voyage de presqu’une année alors que 10 milligrammes d’antimatière seraient suffisants pour aller sur mars en 1 mois seulement selon la NASA [source]. Toujours selon la NASA, un coût de 250 millions de dollars serait suffisant pour produire ces 10 milligrammes d’antimatière (sous forme de positrons) avec les technologies actuelles. Dans ce cas, cette solution pourrait être envisagée mais tout de même coûteuse.

NASA schema

Schéma de principe du moteur à antimatière pensé par la NASA pour aller sur Mars. © NASA.

En fait, les « moteurs à antimatière » actuellement à l’étude n’utilisent pas forcément directement l’énergie d’annihilation matière/antimatière pour la propulsion mais exploitent les rayonnements énergétiques (appelés rayons gamma) qui sont produits lors de la rencontre matière/antimatière. Ce rayonnement permet alors de chauffer un fluide comme l’hydrogène. Cependant, il faut tout de même fabriquer cette antimatière avant sur Terre et l’embarquer dans ce moteur et cela est encore loin d’être possible avec les technologies actuelles mais sûrement pas impossible à long terme. Affaire à suivre.

Pour aller plus loin:

Pourquoi la recherche fondamentale est-elle fondamentale ?

C’est en écoutant le discours de Rolf Heuer, le Directeur Général du CERN, au forum économique mondial de Davos que j’ai voulu aborder ce sujet ici.

Rolf nous explique que ce n’est pas en persévérant dans la recherche appliquée sur la bougie que l’homme a découvert l’ampoule électrique à incandescence ! C’est bien en faisant de la science fondamentale, en voulant comprendre l’essence même de la nature, que l’homme a mis en évidence la nature de l’électricité et son fonctionnement, sans vouloir à priori trouver un système d’éclairage pour remplacer la bougie ou trouver une nouvelle source d’énergie.

Faraday.jpg

Cette problématique n’est pas nouvelle : Michael Faraday, un des pionniers dans la compréhension de l’électricité, fut à l’époque critiqué au sujet de ses recherches considérées comme « inutiles ». Il aurait répondu à William Gladstone au sujet de l’électricité : « Un jour, on pourra prélever des impôts dessus ». Faraday ne comptait pas si bien dire 50 ans avant la découverte de la lampe à incandescence par Thomas Edison puis de l’utilisation massive de l’électricité dans nos sociétés. Cette petite anecdote  nous permet de nous rendre compte qu’il est extrêmement difficile d’évaluer à un moment donné les retombées futures d’une découverte en recherche fondamentale.

 Délai entre recherche fondamentale et application

Le délai entre la recherche fondamentale et son application peut être très rapide voire instantané comme la découverte des rayons X et de la radiographie par Wihelm Röntgen en 1895. Cependant, ce laps de temps peut être beaucoup plus long : c’est le cas de la découverte du spin des particules (une propriété quantique fondamentale des particules) en 1925 et de l’augmentation des capacités des disques durs en 1997
(spintronique).

Bien évidemment, avant d’utiliser le spin des particules  dans nos disques durs d’ordinateurs, il fallait d’abord inventer l’ordinateur et le disque dur, qui eux-mêmes dépendent de centaines de découvertes fondamentales et il est donc normal que Samuel Goudsmit et George Uhlenbeck, les découvreurs du spin en 1925, ne puissent pas penser aux disques durs…

Ce raisonnement peut paraitre absurde mais il est pourtant important de le mentionner pour comprendre que le monde évolue vite et que de nombreuses applications de la recherche fondamentale peuvent être inenvisageables avec les connaissances de l’époque. Aujourd’hui, nous vivons de plus en plus dans une société de l’immédiateté où tout le monde (politiques incluses) veut voir des résultats immédiats. Il faut bien comprendre que la Recherche ne marche pas de cette manière et que la Science a besoin de temps!

DD_atome.jpg

Les disques durs utilisent aujourd’hui la magnétorésistance géante, un phénomène quantique issu du spin des électrons (recherches issues du Prix Nobel français Albert Fert)

 L’explosion de l’information du 20ème siècle

Certes la Science d’aujourd’hui va plus vite qu’au 19ème siècle avec les moyens de télécommunications ultrarapides mais la quantité d’information a littéralement explosée et il devient de plus en plus difficile d’appréhender toute la recherche d’un domaine. Aujourd’hui, quand on fait un doctorat, on a besoin d’une année entière (après les 5 ans d’études universitaires réglementaires) pour faire l’état de l’art d’un domaine de la science souvent restreint.

Pour le dire plus simplement: il faut 1 année complète d’étude à un universitaire pour comprendre où en est la science dans un tout petit domaine que seule une poignée de chercheurs comprend vraiment. C’est pourquoi il est important de faire de la recherche dans un environnement pluridisciplinaire car aucun chercheur ne peut maitriser plusieurs domaines, contrairement aux scientifiques d’antan (disons jusqu’à la fin du 19ème siècle) qui cumulaient les fonctions de philosophes, médecins et scientifiques dans tous les domaines (mécanique, optique, thermodynamique…).

 chercheur.jpg

Différences entre un scientifique du 17ème siècle (René Descartes) et du 21ème siècle (John Ellis)

 Des exemples tout au long de ce blog

Je voulais vous citer une série de liens entre recherche fondamentale et applications qui ont déjà fait l’objet de billets dans ce blog :

ARVA (Appareil de Recherche de Victime d’Avalanches) : Cet appareil permettant de sauver des vies en cas d’avalanches est basé sur l’émission et à la réception des ondes électromagnétiques découvertes à la fin du 19ème siècle et mises en équation par Maxwell en 1865.

Charpak et sa chambre à fils : Georges Charpak inventa un détecteur de particules bien particulier pour le CERN en 1968 et ce type de détecteur est aujourd’hui utilisé en imagerie médicale pour faire de la radiologie 3D.

Comment mesurer la température d’une étoile : On peut mesurer la température d’un objet (comme une étoile) à partir de son spectre électromagnétique via l’équation de Planck expliquant le rayonnement des corps noirs.

L’échographie : Cette technique
d’imagerie médicale bien connue des futures mamans est basée sur l’émission et la réception d’ultrasons, ondes sonores découvertes en 1883 par Galton.

La datation radiométrique au Carbone 14 : Cette méthode inventée en 1960 par Libby pour dater des échantillons organiques est directement issue de la découverte de la radioactivité par Becquerel en
1896.

Le LASER : En 1917, Einstein découvre
l’émission stimulée des atomes. Plus de 40 ans plus tard en 1960, ce phénomène est utilisé pour produire une source de lumière cohérente par Maiman: le LASER.

Le Microscope Electronique a Balayage : Ce microscope permettant de réaliser des images exceptionnelles depuis les années 60  n’aurait jamais pu voir le jour sans la découverte de la
structure de l’atome et des électrons du début du 20ème  siècle.

Sadi Carnot : Toutes les machines thermiques,
des machines à vapeurs aux moteurs d’avions à réactions en passant par les réfrigérateurs essayent de se rapprocher de la machine de Carnot, la machine thermique idéale. 

Le web : Il ne faut pas non plus oublier que pour
faire de la recherche fondamentale, il faut parfois construire des machines très complexes comme des accélérateurs de particules, et que pour construire de telles machines, il faut faire de la recherche appliquée et développer de nouvelles technologies. Un des meilleurs exemples est peut être le WEB : C’est en voulant échanger des informations issues de la physique des particules que Tim Berners Lee a inventé le WEB au CERN en 1989. Aujourd’hui, presque tous les foyers des pays développés l’utilisent.