Archives pour l'étiquette Strip Science

L’antimatière mise en boite au CERN

La semaine dernière, l’expérience ALPHA du CERN annonçait avoir pour la première fois « piégé » de l’antimatière, mais au fait, c’est quoi l’antimatière ?

alpha antimatter

Atomes d’anti-hydrogènes non capturés s’annihilant sur la surface interne du piège ALPHA au CERN le 10 Novembre 2010. © CERN.

Un peu d’histoire

Jusqu’en 1930, le monde des physiciens était exclusivement fait de matière. Cette matière était composée de petites « briques élémentaires » appelées particules et portant des noms étranges comme électrons, photons ou protons (voir mon billet sur le bestiaire des particules pour plus de détails).

C’est alors que le physicien Paul Dirac, pour résoudre une équation de physique, postulat qu’il devait exister une autre particule, identique à l’électron, mais ayant une charge électrique opposée. En effet, l’électron a une charge électrique négative, alors que l’équation de Dirac possède une solution supplémentaire correspondant à une « particule jumelle » positive. Cette nouvelle particule hypothétique fut baptisée positron (plus tard renommée antiélectron) et fut découverte rapidement en 1932 en analysant les rayons cosmiques venant de l’univers.

Dirac

Paul Dirac en 1933, « inventeur » du positron, la première antiparticule

Cette théorie fut ensuite généralisée à toutes les particules que nous connaissons et l’ensemble de ces nouvelles particules furent nommée antimatière. Cependant, il faudra attendre 1955 pour découvrir l’antiproton et 1995 pour créer le premier antiatome au
CERN.

Je tiens à préciser à ce sujet que la paternité du positron revient toujours à Paul Dirac alors que Jean Becquerel, le fil d’Henri Becquerel, avait déjà postulé l’existence d’électrons positifs en 1908 dans un article (Jean Becquerel. «Sur les électrons positifs», Radium (Paris) 5, 1908, pp. 193-200).

Matière Vs Antimatière

Ca ressemble à de la matière, ça a le gout de la matière mais ce n’est pas de la matière : c’est de l’antimatière !

Comme on l’a vu, la différence qui caractérise l’antimatière est la charge électrique opposée, ce qui veut dire que si on fait passer une particule et son antiparticule dans un champ magnétique, les 2 particules sont déviées dans des directions opposées. Outre cette propriété, les antiparticules ont la même masse et le même comportement physique que leur homologue de matière.
positron-electron
Electrons et positrons sont déviés dans des directions opposées dans un champ magnétique. © Noémie.

Comme les charges sont opposées, matière et antimatière s’attirent mutuellement (les particules positives attirent les particules négatives et vice-versa). Lorsque matière et antimatière se rencontrent, elles se désintègrent pour se transformer en énergie pure selon la célèbre formule d’Einstein E=mc² : la matière est convertie intégralement en énergie sous forme de photons (rayonnement gamma).

Fabriquer de l’antimatière

Pour fabriquer des antiparticules en labo, il « suffit » d’avoir un accélérateur de particules assez puissant. Le fait de projeter des particules accélérées à grande énergie sur des cibles métalliques permet de transformer l’énergie cinétique des particules en couple particule/antiparticule : encore E=mc² mais ici l’énergie se transforme en masse (ce processus est ainsi réversible).

Le problème des physiciens n’est pas de « fabriquer » de l’antimatière mais de la « conserver » pour la manipuler et l’observer. A cause des grandes énergies mise en jeu, les antiparticules créées vont pratiquement à la vitesse de la lumière et si elles rencontrent une particule de matière, elles s’annihilent !

Pour contrer ce problème, il faut littéralement freiner l’antimatière pour pouvoir l’étudier, ce n’est donc plus accélérateur qu’il faut mais un décélérateur ! Le décélérateur du CERN s’appelle AD (antiproton decelerator) et mesure 188 m de circonférence. AD permet de diminuer l’énergie d’antiprotons de 3000 MeV à 5 MeV (leur énergie est divisée par 600), ce qui veut dire que les antiprotons sont ralentit au tiers de la vitesse de la lumière.

Fabriquer des antiatomes

Fabriquer des antiparticules est une chose mais les physiciens veulent aller plus loin pour comprendre l’antimatière et pour cela, il faut fabriquer des antiatomes, c’est-à-dire un antinoyau formé d’antiprotons et d’antineutrons avec des positrons qui tournent autour.

En 1995, le CERN a ainsi créé les premiers atomes d’antihydrogènes (le plus simple des antiatomes, composé d’un antiproton et d’un positron qui tourne autour). Neuf antiatomes ont été créés pendant 40 milliardièmes de seconde avant de se désintégrer. L’exploit a été réitéré par la suite aux USA plusieurs centaines de fois mais ces antiatomes étaient toujours trop volatiles, se désintégrant quasi instantanément et ne permettant aucune étude approfondie.

  LEAR

Le décélérateur LEAR (Low Energy Antiproton Ring) au CERN ayant fabriqué les premiers antihydrogènes en 1995. © CERN

Pour stabiliser cette antimatière et l’étudier à la loupe, l’idéal serait de la ralentir jusqu’à l’immobiliser (la piéger). Il faut comprendre que plus une particule est énergétique, plus elle est agitée et donc « chaude ». Les physiciens doivent alors refroidir l’antimatière le plus possible. Pour cela, les antiprotons sont envoyés à travers de fines feuilles de métal et à travers des pièges électromagnétiques appelés pièges de Penning. Ainsi, on arrive à refroidir les antiprotons à environs -269°C (4 kelvins). On procède de même avec des positrons et on met l’ensemble (antiprotons + positrons) dans une espèce de bouteille électromagnétique jusqu’à ce que le positron (positif) se mette à tourner autour de l’antiproton (négatif) pour former un antihydrogène. C’est ce que vient de réussir L’expérience ALPHA du CERN. Voir une animation comment attraper un antihydrogène (en anglais).

alpha trap

Piège de l’expérience ALPHA au CERN ayant capturé un antihydrogène. © CERN

Pourquoi étudier l’antimatière ?

Pour étudier l’antimatière, les physiciens étudient de près ce qu’ils appellent la symétrie CPT (Charge-Parité-Temps). Lors d’une réaction particulière sur une particule, cette même réaction doit être observée sur son antiparticule mais de manière symétrique. Dans le théorème CPT, tout est inversé : la charge (positif Vs négatif), la parité (droite Vs gauche) et le temps (le temps doit s’écouler à l’envers). Un monde composé
d’antimatière serait l’image de notre monde à travers un miroir.

Le problème, c’est que l’univers n’est pas aussi symétrique qu’il n’y parait. En effet, si matière et antimatière étaient strictement identiques (en dehors de la charge électrique), nous ne serions pas là selon la théorie du Big-bang qui stipule qu’à l’origine, matière et antimatière ont du être créées en même temps et en quantité égale (toujours le E=mc², la matière est toujours créée en quantité égale avec de l’antimatière). Un raisonnement simple aboutit donc sur la non-existence de notre Univers car matière et antimatière  auraient du s’attirer juste après le Big-bang pour s’annihiler et fin de l’histoire… La réalité semble tout autre : nous sommes bien là et notre univers semble être composé quasi exclusivement de matière, seuls quelques phénomènes physiques dans le cosmos génèrent de l’antimatière mais en quantité infime et cette antimatière est rapidement annihilée en touchant de la matière ordinaire. Conclusion : les astronomes et les cosmologistes ont perdu la moitié de l’Univers !!

 proton nono

Un proton et un antiproton. © Noémie.

Ce qui peut expliquer cette observation étrange est que matière et antimatière ne sont pas si symétriques que cela : on parle alors de violation de symétrie. Les symétries entre matière et antimatière sont parfois non respectées et pourraient expliquer pourquoi toute l’antimatière a disparue aujourd’hui au profit de la matière. Les accélérateurs de particules ont déjà mis en évidence certaines de ces violations de symétries et ces recherches sont toujours très actives aujourd’hui car il est très difficile d’étudier l’antimatière qui est très volatile.

Applications de l’antimatière ?

La réaction d’annihilation entre matière et antimatière est la plus puissante que la physique connaisse mais il faut relativiser (sans mauvais jeu de mot): c’est inexploitable actuellement pour fabriquer une bombe à antimatière comme le laisse suggérer le roman de Dan Brown Anges et Démons. Si vous prenez  10 milliards de protons et 10 milliards antiprotons, l’énergie équivalente qu’ils pourraient dégager serait d’environ 1 Joule… soit assez d’énergie pour soulever une pomme de 1 mètre… Pour faire une bombe, il faudrait fabriquer beaucoup plus d’antimatière que la science est capable de produire et il faudrait dépenser une énergie supérieure à la
consommation d’énergie mondiale.

De toute manière, l’énergie mise en jeu pour « fabriquer » de l’antimatière sera toujours nettement supérieure à ce que l’annihilation matière/antimatière peut dégager donc aucune source énergétique de ce côté-là…

Cependant, l’antimatière a déjà trouvée une application dont vous avez peut être déjà entendu parler en imagerie médicale : La Tomographie par Emission de Positons (TEP). En Effet, les positrons sont utilisés en imagerie médicale pour obtenir des images d’organes en 3 dimensions en cancérologie, neurologie et cardiologie.

L’échographie

Tout le monde connait les images d’échographie faites chez les femmes enceintes pour voir les futurs bébés. Mais comment ces images sont-elles obtenues ?

echo1trim

Echographie d’un fœtus de 3 mois mesurant 4,5 cm.

L’échographie est une technique d’imagerie médicale non invasive (pas de substance à injecter dans les patients) et complètement inoffensive pour l’organisme, contrairement aux autres techniques d’imageries médicales qui peuvent utiliser des rayons ionisants radioactifs (radiographies), de puissants champs magnétiques (IRM) ou des agents de contraste radioactifs (comme la Tomographie par Emission de Positrons).

Des ultrasons qui rebondissent

L’échographie utilise les ultrasons. Ce sont des ondes acoustiques hautes fréquences qui sont inaudibles par l’homme (les ultrasons ont une fréquence de 20kHz à 1GHz). Voir ce billet de blog sur le son pour plus de détails sur les ondes sonores.

Les ultrasons pénètrent plus ou moins bien dans les différents milieux qu’ils traversent. La résistance à la propagation d’une onde acoustique s’appelle une impédance acoustique (généralement notée Z) et se mesure en Pascale seconde par mètre (Pa.s/m). Cette impédance est en fait égale à la densité du matériau multipliée par la vitesse du son dans ce matériau (Z = D * c). Donc plus un matériau est dense et plus la vitesse du son est importante, plus l’impédance acoustique augmente.

Densité

(kg/m3)

Vitesse du son

(m/s)

impédance acoustique

(Pa.s/m)

Air 1,204 343 413
Eau 1000 1480 1,48 millions

De plus, une partie des ondes sonores (et donc les ultrasons) rebondissent lorsque l’impédance acoustique change, c’est-à-dire aux interfaces entre les différents milieux. C’est pour cette raison que sous l’eau, on entend très peu ce qui se passe à la surface car une grande partie des ondes sonores rebondissent sur l’eau et très peu sont transmises sous l’eau car les impédances de l’eau et de l’air sont très différentes.

Le principe de l’échographie revient à balayer à l’aide d’ultrasons une zone à étudier (par exemple l’utérus d’une future maman) et de mesurer et d’analyser les ondes ayant rebondi aux différentes interfaces (l’écho des ultrasons) de manière à reconstituer une image des différents milieux traversés.

Les liquides vont renvoyer très peu d’écho et apparaitront alors en noir à l’écran, les tissus mous renverront un peu d’écho et apparaitront en gris selon l’impédance de ces derniers, et les os ayant une impédance très forte (entre 3,6 et 7 millions Pa.s/m) formeront une image bien blanche.

 ultrasons foetus

Réflexions des ultrasons aux interfaces des milieux traversés ((c) Noémie).

 L’échographe

Pour une échographie, le médecin utilise une sonde qui remplit 2 fonctions :

Emission : La sonde balaye une zone à l’aide d’ultrasons. Ces derniers sont générés à l’aide de matériaux piézoélectriques comme des céramiques qui se déforment lorsqu’ils sont soumis à un champ électrique. Cette déformation entrainent des ondes ultrasonores et la fréquence réglable permet de pénétrer plus ou moins profondément dans le corps selon le type d’échographie réalisée (on augmente la fréquence pour pénétrer plus en profondeur). Le balayage est ensuite assuré soit par un système mécanique, soit par un dispositif électronique de manière à balayer un secteur. C’est pour cette raison que les échographies se présentent généralement sous forme d’une image dans un cône correspondant à la région balayée par la sonde.

Réception : La sonde capte les échos des ultrasons réfléchis aux interfaces. L’écart de temps entre l’émission et la réception permet de connaitre précisément la profondeur où l’onde a rebondi. De plus, la sonde mesure l’amplitude de l’écho permettant de savoir si une partie importante a été réfléchie ou pas.

Le signal reçu par la sonde est ensuite amplifié par un système électronique puis chaque ligne de tir est reconstituée pour former une image en 2 dimensions. Un point variant entre le noir et le blanc est alors créé en fonction de l’intensité de l’écho. L’espace entre les lignes de tirs est alors complété par interpolation entre les différentes données obtenues de manière à créer une image continue.

matrice echo

Formation d’une image d’échographie ( Source: ENSTA)

 On applique également un gel échographique sur la zone à analyser. Ce gel possède une impédance acoustique proche de celle de la peau de manière à ce qu’il n’y ait pas d’air entre la peau et la sonde car l’air ayant une impédance très faible fausserait les mesures. C’est également pour cette raison que l’échographie ne peut pas être utilisée comme méthode d’imagerie médicale pour les poumons ou la trachée qui contiennent de l’air.

Echographie 3D

 Une nouvelle technique d’échographie dite « 3D » a vu le jour durant la dernière décennie et est désormais monnaie courante dans les examens gynécologiques pour voir les fœtus en 3D ! La technique de balayage diffère de l’échographie 2D classique car 3 plans de balayages perpendiculaires sont réalisés pour obtenir des informations volumiques. Des techniques perfectionnées de traitement des données et de rendu surfacique permettent ensuite de reconstituer une image en 3 dimensions.

 
echographie-3D

Echographie 3D d’un fœtus de 3 mois (Source : Le journal des Femmes)

Cette « échographie en relief » permet de diagnostiquer plusieurs malformations du fœtus qui sont extrêmement difficiles à diagnostiquer en échographie 2D, particulièrement les malformations de la face, de la colonne vertébrale et des membres.

En conclusion

L’échographie utilise la réflexion des ultrasons aux interfaces des différents milieux pour reconstituer une image interne de notre corps en noir et blanc. Cette méthode est donc entièrement inoffensive et convient particulièrement bien aux femmes enceintes pour voir le fœtus dans l’utérus (échographie gynécologique). De plus, l’échographie est facile à mettre en œuvre et peu chère pour une imagerie médicale.

Les états de la matière

Tout le monde connait les 3 états de la matière : solide, liquide et
gaz. Cependant, peu de personnes sont capables de bien définir ces 3 états et il en existe d’autres que peu de gens connaissent.

états de la matière

Les états « classiques »

Prenez un glaçon (solide), mettez le dans une casserole et chauffez le : le glaçon va fondre en eau (liquide) puis l’eau va se vaporiser en vapeur (gaz). Ca y est, vous venez d’explorer la matière dans tous ses états !

Pour comprendre les différents états de la matière, on peut dessiner un diagramme de phases qui représentent les 3 états (ou phases) d’un élément en fonction de sa température et de sa pression. Dans le cas de l’eau à pression atmosphérique (1 bar), la phase est solide en dessous de 0°C, liquide entre 0°C et 100°C et gazeuse au dessus de 100°C. Le passage d’une phase à une autre porte un nom précis et se réalise à pression et à température constante, il y a donc des points (en fait des lignes) où 2 états de la matière coexistent lors du changement de phase.

 

diagramme etats

Diagramme de phases de l’eau


Il faut bien comprendre que pour connaitre l’état d’un élément, il ne suffit pas de connaitre sa température: sa pression est également indispensable! Par exemple, on peut obtenir de la vapeur d’eau à -10°C à très basse pression et de l’eau liquide à 300°C sous haute pression, ce qui peut s’avérer très pratique. L’eau liquide pressurisée à environ 300 °C est par exemple utilisée dans certains réacteurs nucléaires pour refroidir le cœur de la centrale (centrales de type EPR), voir ce billet sur le blog d’Alexandre Moatti.

Il existe également 2 points particuliers :

  • Le point triple où les 3 états coexistent ensemble (0,006 bar et 0,01°C pour l’eau).
  • Le point critique : au-delà de ce point, liquide et gaz ne sont plus distinguables et on parle alors de fluide supercritique (218 bar et 374 °C pour l’eau).  C’est en quelque sorte un état indéfini, car au-delà de ce point, les transitions de phase sont impossibles et donc il n’est plus possible de distinguer gaz et liquide.

Caractéristiques microscopiques et propriétés

Les solides sont caractérisés par un agencement des atomes très ordonnés et rapprochés. Il est donc très difficile de les comprimer car il y a peu d’espace entre les atomes. De plus, tous les atomes sont liés fortement les uns aux autres, ce qui confère aux solides une forme propre bien délimitée dans l’espace.

Les liquides sont caractérisés quant à eux par un agencement désordonnés des atomes mais toujours assez rapprochés, ils sont donc également difficilement compressibles. En revanche, les atomes sont peu liés les uns aux autres et les liquides ne possèdent donc pas de forme propre et peuvent d’évaporer facilement.

Les gaz sont caractérisés par un agencement des atomes désordonnés et espacés et peuvent ainsi être comprimé facilement. Les atomes ne sont pas liés les uns aux autres et sont très agités. Pour ces raisons, les gaz se répandent librement et n’ont pas de forme propre sans pouvoir être délimités.

Le verre

verre fusion

Le verre est-il solide ou liquide ? La réponse parait évidente: solide ! Malheureusement, la réalité n’est pas aussi évidente. En effet, le verre serait plutôt un liquide extrêmement visqueux mais là encore, les avis divergent. Du point de vue microscopique, le verre ressemble vraiment à un liquide car il possède des atomes très désordonnés sans aucun schéma répétitif contrairement à un cristal qui lui est bien ordonné et appartient donc à la famille des solides. Du point de vue thermodynamique, là encore il est difficile de trancher, le verre est fabriqué à partir d’une phase liquide très chaude qui quand on la refroidit et ne subit pas la transition de phase normale vers le solide (cristal) mais une transition dite « vitreuse » et caractéristique du verre.

Mais attention tout de même, contrairement à certaines croyances, le verre ne coule pas et si les vitres de Versailles sont plus épaisses en bas qu’en haut ce n’est pas parce que le verre a coulé mais à cause du procédé de fabrication de l’époque.

La matière molle

tomate cube

Le problème est que les 3 états que je qualifie de « classiques » ne suffisent parfois pas à bien caractériser un état de la matière. Même des choses communes posent parfois problème. Par exemple, comment qualifieriez-vous la mousse à raser, du dentifrice, un gel douche ou bien de la gelée alimentaire ? La réponse n’est pas si aisée, surtout si on y regarde de plus près au microscope. En fait, on qualifie ces matières de « molles ».

La matière molle est une appellation qui regroupe les colloïdes (substances ayant 2 phases dont les particules d’une phase sont très petites et diffusées dans l’autre phase comme une mousse au chocolat), les cristaux liquides (les écrans de vos montres électroniques) et les polymères (ensemble de macromolécules comme les plastiques). Cette physique de la matière molle est très récente et a émergée il y a une quarantaine d’années, particulièrement avec le prix Nobel de physique français Pierre-Gilles De Gennes. L’étude de la matière molle constitue toujours un intérêt majeur pour la recherche qui ne cesse de progresser dans la compréhension de ces états de la matière qui intriguent.

Le plasma

Le plasma est un quatrième état de la matière bien à part qui est caractérisé par le fait que les électrons peuvent se mouvoir librement alors que dans les trois autres phases classiques (solide, liquide et gaz), les électrons sont liés aux noyaux des atomes en gravitant autour. Les plasmas sont obtenus en portant à très haute température un gaz ou en appliquant un important champ électrique, on parle alors de gaz ionisé.

Les plasmas sont très répandus dans l’univers (étoiles, quasars, pulsars)  mais sont également présents dans des phénomènes naturels terrestres comme les aurores boréales ou plus simplement les éclairs. Dans les applications domestiques, certains téléviseurs plats (écrans plasmas) utilisent cet état de la matière
ainsi que dans ces fameuses « boules à plasma » qu’on trouve dans certains magasins de gadgets.

Lampe Plasma
Superfluide

Il existe également d’autres états bien distincts des autres par leurs propriétés exceptionnelles. C’est le cas des superfluides qui ne présentent pas de viscosité (ils s’écoulent parfaitement) à très basse température. Ce phénomène est observé uniquement en laboratoire et se produit avec de l’hélium refroidi en dessous de -271°C (2,2 K). Voir un de mes billets précédents sur les supers états.

Il existerait également un phénomène analogue sur les solides (supersolides) mais les observations sont encore controversées… Affaire à suivre. Tout cela pour vous faire comprendre que la matière est parfois plus complexe qu’il n’y parait et que même les physiciens ont du mal à classer et comprendre toutes ces formes de matière parfois étranges

Le Bestiaire des particules

La physique des particules est une science étrange et fascinante. Elle a pour mission de réaliser le bestiaire des particules qui nous entourent et d’expliquer les différents mécanismes entre particules qu’on appelle interactions. On trouve également la dénomination physique des hautes énergies pour parler de la physique des particules car la plupart de ces petites choses se désintègrent très vite et n’existent que pendant quelques pouillèmes de seconde lors de collisions à hautes énergies avant de se désintégrer. Ci-dessous : une particule en pleine action :



Il n’est pas chose aisée que d’établir une liste des particules de manière claire, même s’il existe des grandes familles. Pour les néophytes, voici quelques règles simples à retenir avant tout :


  1. Les particules élémentaires sont les constituants élémentaires de la matière qui nous entoure. A ce titre, elles sont insécables : on ne peut pas les diviser en de plus petites entités. Exemple : un électron.
  2. A chaque particule élémentaire est associée une antiparticule élémentaire de même masse et ayant presque les mêmes propriétés mais avec une charge électrique opposée. Exemple : un antiélectron (aussi appelé positron)
  3. Les particules élémentaires peuvent se regrouper pour former de nouvelles particules compositesExemple :  un proton est composé de quarks.
  4. Les atomes sont constitués de particules. Exemple : un atome d’hydrogène est composé d’un proton et d’un électron.
  5. Les molécules sont constituées d’atomes.  Exemple : une molécule d’eau (H2O) est composée d’un atome d’oxygène et de deux atomes d’hydrogène.
  6. Certaines particules sont stables, d’autres sont instables car elles se désintègrent très vite après leur création. Exemple :  l’électron est stable, le muon est instable.
  7. Il existe 4 forces d’interaction : la gravité, l’électromagnétisme, la force faible et la force forte. Pour plus de détails sur les interactions, voir le billet Vous avez dit force ?

Les particules élémentaires

La physique des particules possède un modèle théorique pour décrire les particules élémentaires qui porte le simple nom de modèle standard. A ce jour, toutes les particules du modèle standard ont été observées dans les accélérateurs de particules à l’exception d’une particule : le boson
de Higgs
, qui devrait être détectée dans l’avenir avec le nouvel accélérateur de particule du CERN, le LHC.

 Le modèle standard regroupe 25 particules élémentaires représentées dans le tableau ci-dessous (ainsi que leurs 25 antiparticules associées que je ne citerai pas pour raison de lisibilité). Il existe 2 grandes familles de particules élémentaires :

  • La famille des particules de matière : ce sont les fermions.
  • La famille des particules de champ qui sont des médiateurs et permettent de véhiculer une force d’interaction : les bosons de gauge.



Le modèle standard parle ensuite de 3 générations qui sont dues à la différence de masse entre les particules. La première génération rassemble les particules les plus légères qui sont stables et constituent la matière qui nous entoure alors que les générations 2 et 3 sont constituées de particules plus lourdes créées artificiellement sur Terre dans les accélérateurs de particules et qui se désintègrent rapidement.

 Il existe 12 fermions qui sont classés en 2 sous-familles :

6 leptons qui ne sont pas sensibles à l’interaction forte :

  • Première génération : l’électron et le neutrino électronique.
  • Deuxième génération : le muon et le neutrino muonique.
  • Troisième génération : le tauon et le neutrino tauonique.

6 quarks qui sont sensibles à toutes les interactions :

  • Première génération : quarks up et down.
  • Deuxième génération : quarks strange et charmed.
  • Troisième génération : quarks bottom (aussi appelé beauty) et top.

 

Il existe 13 bosons de gauge pour véhiculer 3 forces d’interaction ainsi que la masse aux différentes particules :

  • Le photon qui est le médiateur de la force électromagnétique.
  • Les bosons W+, W et Z0 qui véhiculent la force faible.
  • Les 8 gluons qui sont responsables de la force forte.
  • Le boson de Higgs qui conférerait leur masse aux particules (hypothétique).

 Il y a aussi une particule hypothétique appelée graviton qui serait le médiateur de la force gravitationnelle. Je le mentionne ici car cette particule me semble importante mais elle ne fait pas partie du modèle standard qui ne décrit pas les phénomènes gravitationnels. Il existe de nombreuses autres particules élémentaires hypothétiques dans les différentes théories des physiciens (parfois un peu tarabiscotées) mais aucune d’entre elles n’a jamais été détectée, je n’en
parlerai donc pas dans ce billet.

 Voila, vous connaissez à présent toutes les particules élémentaires du modèle standard qui permettraient d’expliquer toute la physique!!

 Les particules composites

 Des particules élémentaires peuvent se regrouper sous l’influence des différentes interactions pour former de nouvelles particules. Le meilleur exemple est le regroupement des quarks sous l’effet de la force forte, formant ainsi une nouvelle classe de particules composites appelées hadrons. Les hadrons se décomposent en 2 familles :

– Les mésons qui sont composés par un nombre pair de quarks et d’antiquarks. Il en existe à ce jour plus d’une dizaine dont, entre autres, les kaons et les pions.

– Les baryons qui sont composés de 3 quarks. On en dénombre plus d’une vingtaine mais les plus connus sont les protons (2 quarks up + 1 quark down) et les neutrons (2 quarks down + 1 quark up).

 La force forte agit comme un ressort sur les quarks : plus les quarks tentent de s’éloigner, plus la force forte augmente. Il est ainsi très difficile de séparer des quarks liés, et c’est pour cela que l’on a longtemps pensé que les protons et les neutrons étaient des particules élémentaires. Encore une fois, les différentes théories de la physique décrivent d’autres classes de hadrons, dit exotiques, dont je ne parlerai pas.

Les quasi-particules

 Par commodité, la physique peut faire appel au concept de particule pour décrire des phénomènes sans qu’une particule n’existe vraiment, on parle alors de quasi-particule. Une quasi-particule peut par exemple décrire un « manque de particule réelle », ce que l’on appelle un « trou » pour parler de l’absence d’un électron en électricité ou bien encore la propagation d’ondes dans des structures cristallines (phonon).

Illustrations : Noémie Thiéblemont et Alexandre Moraux, que je tiens tout particulièrement à remercier pour les différents dessins de particules présentés dans ce billet et qui permettront, je l’espère, à mieux se familiariser avec toutes ces petites particules ! C’est donc eux qu’il faut féliciter

Premier faisceau dans le LHC

C’est un succès pour l’Organisation Européenne pour la Recherche Nucléaire (CERN) à Genève. Aujourd’hui, 10 Septembre 2008 à 10h28, le premier faisceau de protons vient de faire un tour complet dans le plus puissant accélérateur de particules du monde : le  LHC (Large Hadron Collider). Voir le billet précédent intitulé Le LHC au CERN pour plus d’informations sur cette machine de 27 km de circonférence enfouie à 100 mètres sous la frontière franco-suisse.


Le  premier proton ayant fait un tour complet du LHC

 La mise en service

Les premiers essais d’injections de particules dans le LHC ont été réalisés le 8 aout dans le sens horaire et le 22 aout dans le sens anti-horaire avec succès (voir résumé).


Image du premier paquet de protons ayant circulé dans une portion du LHC le 8 août 2008 au point 3 lors du test d’injection du faisceau en sens horaire

Quand on regarde la complexité de la machine, le temps de construction (plus de 10 ans) et le nombre de personnes impliquées dans ce projet (environ 8000 personnes), la mise en service a été relativement rapide et a rencontré peu de problèmes grâce aux excellents outils de contrôle et de diagnostique mis en place au CERN dans la nouvelle salle de contrôle (CCC : CERN Control Center) qui centralise tout le contrôle des différents accélérateurs. Ce matin Lyn Evans, le chef du projet LHC disait « je ne sais pas combien de temps cela va prendre de faire un tour complet de la machine, pour le LEP (l’ancien accélérateur du CERN), cela a pris 12h. » Finalement, cela aura pris 50 minutes ce matin pour faire un tour complet, mais cela fait plus d’un mois que tout le monde s’entraine et que les premiers tests ont été réalisés.

Le CERN Control Center situé sur le site de Prevessin ce matin en effervescence

 Le premier faisceau

Aujourd’hui, le premier faisceau de particules vient de faire un tour complet de l’accélérateur à une énergie réduite de 0,45 TeV (soit 6.4% de l’énergie nominale du LHC qui est de 7 TeV). Voir plus d’informations sur la page web LHC first beam. Le CERN espère faire fonctionner la machine à 70% de sa puissance avant la fin de l’année, soit une énergie de 5 TeV et à pleine puissance dans les 2 prochaines années.

Le  premier faisceau traversant le détecteur ATLAS

 Cet événement historique est un succès pour le CERN et les 8000 techniciens, ingénieurs et physiciens de 80 pays différents qui ont contribué à ce projet titanesque qui marquera l’année 2008. Ce premier faisceau symbolise une « réussite technologique », reste maintenant la « réussite physique » à
accomplir. En effet, la prochaine étape est le bon déroulement des collisions de particules au centre des gigantesques détecteurs ainsi que l’archivage et l’analyse des millions de données produites par ces collisions.

  Le LHC ne présente aucun risque

Pris dans son ensemble, l’univers est le théâtre de plus de dix mille milliards de collisions du type LHC à chaque seconde. La possibilité que ces collisions aient de dangereuses conséquences est incompatible avec les observations des astronomes : les étoiles et les galaxies sont toujours là.

 Certaines personnes essayent de faire croire que « les collisions de particules [dans le LHC] pourraient favoriser l’apparition de micro-trous noirs. Ces derniers pourraient aspirer le monde et le faire disparaître. Le risque est suffisamment élevé pour que le projet soit stoppé ».

 Une plainte a été déposée au tribunal de Hawaï au mois de mars par Walter L. Wagner, titulaire d’un doctorat en droit et qui a étudié la physique à l’université de Californie, et Luis Sancho, écrivain et chercheur en Espagne. Ils avaient déposé la même plainte en 1999 pour l’accélérateur de particules américain du
Brookhaven National Laboratory (BNL) près de NewYork mais la plainte était restée sans suite, les autorités se déclarant incompétentes. Évidemment, il n’y a eu aucun incident près de New-York, pas plus qu’il n’y en aura à Genève.

Une autre plainte a également été déposée à la Cour Européenne des Droits de l’Homme à Strasbourg par un biochimiste et un théoricien du chaos (qui n’ont aucune compétence pour juger sérieusement des risques du LHC). La plainte a été rejetée sans surprise par la cour la semaine dernière.

 Ces plaintes n’ont aucun fondement physique et ont toutes été rejetées. Le LHC Safety Assessment Group (le Groupe d’évaluation de la sécurité des collisions du LHC ou LSAG) a réactualisé l’analyse menée en 2003 par le LHC Safety Study Group (Groupe d’étude sur la sécurité du LHC), un groupe de scientifiques indépendants et a démontré qu’il n’y avait aucun risque quant à la mise en service du LHC. On peut également consulter dans le dernier numéro du Journal of Physics G: Nuclear and Particle Physics l’article intitulé « Review of the Safety of LHC Collision ».

 Les médias et le CERN

Dans ces histoires, j’ai l’impression que des gens profitent du démarrage du LHC et de la puissance des médias auprès du public pour se mettre sous les projecteurs. Quoi de plus vendeur pour les journaux que les titres du style « La menace fantôme du trou noir » dans le numéro de Libération du 5 Septembre 2008 ou encore « La Terre aspirée par un trou noir » dans L’Express du 4 Avril 2008. On va jusqu’à pronostiquer l’Apocalypse dans le Nouvel Observateur du 8 Août 2008 qui titre « La fin du monde commencera t-elle en Suisse ? » ou encore «La fin du monde pour le 10 Septembre », dans le 7 sur 7 du 1er Septembre 2008. Le seul quotidien qui ne fait pas une tournure alarmante est Le Monde du 26 Juin 2008 : « Aucun trou noir n’engloutira la Terre à la frontière franco-suisse ». Je tiens également à signaler l’excellente émission du « Téléphone Sonne » animée par Alain Bédouet sur France-Inter hier soir au sujet du démarrage du LHC (Podcastable ici).

 Google nous fait également l’honneur aujourd’hui de mettre son logo à l’image du LHC :

A l’étranger aussi le débat fait rage. On pouvait voir dans le Sun magazine en Angleterre le titre accrocheur « End of the world due in nine days » le 1er septembre ou encore « Asking a Judge to Save the World, and Maybe a Whole Lot More » dans le New York Times du 29 Mars 2008. La
Tribune de Genève titrait le 6 Septembre « La nouvelle installation du CERN éveille les craintes les plus farfelues » en énumérant toutes les théories loufoques avec extraterrestres, mondes parallèles et théorie du complot à la clef (voir ici l’article), on nage en plein délire….

 Pour plus d’informations :

Comment mesurer la température d’une étoile ?

On voit souvent écrit que notre Soleil a une température de surface de 5800K (ou 5500°C)  mais comment fait-on pour calculer cette température sachant que cette température a été mesurée bien avant l’aventure spatiale et que personne n’est jamais allé sur le Soleil avec un thermomètre ! Réponse évidente : On calcule sa température à partir de mesures faites depuis la Terre en l’observant, mais comment ?

 

Le concept physique principal pour calculer cette température est ce que les physiciens appellent le rayonnement des corps noirs. Le nom « corps noir » a été introduit par le physicien Gustav Kirchhoff en 1860 et est à l’origine de nombreuses découvertes du début du 20ième siècle.

 Cet objet entièrement théorique est défini comme suit : Un corps noir est un objet idéal qui absorbe TOUS les rayonnements électromagnétiques (lumière comprise), sans aucune réflexion ou transmission de ce rayonnement, c’est pour ,cette raison qu’un tel objet, s’il est à la même température que son environnement, paraît totalement noir. Dans ce cas, le seul rayonnement dégagé par un corps noir est un rayonnement électromagnétique d’origine thermique qui ne dépend que de sa température et de rien d’autre. Oui, il faut préciser que tous les objets ayant une température au dessus du zéro absolu rayonnent, c’est à dire qu’ils émettent un rayonnement thermique. Par exemple le corps humain à 37°C émet un rayonnement infrarouge invisible à l’œil nu mais visible avec un détecteur infrarouge (les militaires s’en servent particulièrement pour la vision nocturne).

Un corps noir parfait n‘existe pas dans la nature mais on peut facilement faire une bonne approximation. Par exemple, il suffit de prendre un four fermé de tous les cotés de manière hermétique à la lumière. Si on perce un minuscule trou sur un des cotés du four, il s’échappera alors un rayonnement qui sera le rayonnement d’un corps noir presque parfait. L’étude de ce rayonnement permettra de connaître la température de l’air à l’intérieur du four avec précision. C’est exactement ce que fit Wilhelm Wien à la fin du 19ième siècle pour étudier ce rayonnement qui a longtemps intrigué les physiciens.
Etudier un rayonnement ça veut dire quoi ?
Un rayonnement électromagnétique est composé de plusieurs ondes de différentes fréquences, chaque fréquence correspond à une couleur pour la partie visible des rayonnements (autrement dit, la lumière, voir article la nature de la lumière ou l’électromagnétisme). Etudier un rayonnement, c’est donc mesurer l’intensité de chaque fréquence qui compose le rayonnement, on parle alors de l’analyse du spectre du rayonnement. On peut voir dans le dessin ci-dessous le spectre émit par notre Soleil. La couleur verte est la plus intense, mais le mélange de toute les couleurs ensemble fait que nous percevons une lumière blanche.



Wilhelm Wien postula en 1896 que lorsqu’on chauffe un corps, la longueur d’onde (correspondant à une couleur) de plus forte intensité dans le spectre (le vert pour le soleil) se décale vers le bleu, c’est ce qu’on appelle la loi de Wien :


Si on chauffe du fer, il va d’abord viré orange-rouge puis bleu et blanc si on le chauffe encore plus (d’où l’expression chauffé à blanc). De cette manière, on peut parfaitement connaître la température d’un corps noir simplement en mesurant où se trouve la raie maximale dans le spectre. On peut dire que le Soleil est presque un corps noir car sa température est très élevée par rapport à son environnement et si on veut une mesure grossière, cela va très bien. En mesurant depuis la Terre le spectre du Soleil, on mesure la raie verte maximale à une longueur d’onde Lmax=0,50 mm et on obtient alors T = 5800K avec la loi de Wien.

 C’est aussi intéressant de savoir que chaque couleur du spectre peut permettre
de savoir de quoi est composé le corps. Le vert indique une présence de fer, le rouge de l’hydrogène, les ultra-violets de l’hélium…
la couleur dépend de la nature chimique de l’objet et est utilisée en spectroscopie pour analyser la composition des échantillons de matériaux mais aussi des étoiles La loi de Wien est bien jolie mais elle a posé d’énormes problèmes aux physiciens, et plus particulièrement à Max Planck qui voulait aller plus loin et comprendre les causes physiques de cette loi empirique. Cette équation posait des problèmes avec la théorie, les énergies divergeaient vers l’infini et Planck reformula donc une nouvelle loi, appelée de Wien-Planck qui collait avec les mesures et la théorie.

Malheureusement cette loi fut mise en défaut un peu plus tard par des mesures faites à Berlin avec des rayonnements de basses fréquences, toute la théorie s’écroulait. Planck persévère et quelques mois plus tard, il introduit une nouvelle constante, h, appelée constante de Planck permettant de « quantifier » la matière en laissant de coté l’approche classique continue à laquelle il était pourtant très attaché. Planck a fait l’hypothèse que l’énergie devait être quantifiée pour expliquer le rayonnement du corps noir dans tous les cas, et cette hypothèse a tout simplement donnée naissance à la théorie des quanta de Planck en 1900 qui enfantera toute la physique quantique !

Le LASER

Depuis la fin des années 60, les lasers ont envahi notre quotidien et notre industrie. Que ce soit dans les procédés de découpe ou de soudure, les méthodes de lecture de l’information, les méthodes de guidage, les moyens de communication, les systèmes de mesure, les techniques de sondage de la matière, la médecine, les films de science-fiction: ils sont omniprésents, mais qu’est-ce qu’un laser exactement? Comment fonctionnent t-ils ? Y a-t-il plusieurs sortes de laser? Où sont-ils utilisés? C’est ce que je vais essayer de détailler dans ce billet.

Pour l’étymologie, le mot « laser » est un acronyme anglais. Un laser est un dispositif permettant une amplification de la lumière par émission stimulée de rayonnement, soit en anglais, Light Amplification by Stimulated Emission of Radiation: L.A.S.E.R. La définition courte qui revient souvent est la suivante : Dispositif émettant de la lumière très cohérente, grâce au processus d’émission induite. L’acronyme et cette définition sont quelque peu absconses à première vue, essayons de détailler les différents mots et concepts…


La première apparition du LASER au cinéma en 1964 dans le James Bond
GoldFinger.


Le principe de base
Le principe physique utilisé dans les lasers est l’émission stimulée (on parle aussi d’émission induite). Ce principe est issu de la physique quantique et a été décrit la première fois par un certain Albert Einstein en 1917 dans un article intitulé « sur la théorie quantique du rayonnement ».  L’émission stimulée est apparentée à deux autres phénomènes quantiques: l’absorption et l’émission spontanée.

Pour introduire ces concepts, un petit rappel de l’atome est nécessaire: il existe un modèle de l’atome appelé le modèle de Bohr dans lequel l’atome est composé d’un noyau contenant des nucléons (protons+neutrons) et les électrons gravitent autour sur des orbites bien définies (ce n’est qu’un modèle car les électrons ne possèdent pas vraiment de trajectoire dans la théorie quantique).

Les électrons se trouvent obligatoirement sur une de ces orbites prédéfinies. Chaque orbite possède une énergie propre qui est quantifiée (on parle alors de niveaux d’énergie). Si on considère 2 niveaux d’énergie (2 orbites) ayant respectivement des énergies E1 et E2 avec E1 < E2 et que l’on apporte une énergie dE = E2-E1 à un électron qui se trouve dans le niveau E1, il peut « sauter » au niveau E2. La réciproque est également vraie.

Voici une brève illustration en BD. Le « bonhomme » jaune est un photon, le «  »bonhomme » bleu est un électron, et les 2 étages représentent 2 niveaux d’énergie (2 orbites) d’un atome.

 L’absorption (stimulée). Un photon est envoyé sur l’électron d’un atome (1), ce dernier absorbe le photon (2) et emmagasine ainsi son énergie, ce qui lui permet de « sauter » au niveau supérieur. L’électron est alors excité (3).


L’émission spontanée. Un électron excité (1) peut perdre spontanément son état d’excitation en émettant un photon (2) pour retrouver son état d’énergie inférieur (3). Dans ce cas, le photon est émis dans une direction aléatoire.


L’émission stimulée. Un photon est émis vers un électron excité (1). L’électron, « bousculé » par le photon incident, libère un deuxième photon exactement égal au premier (2) et retombe dans son état d’énergie inférieur (3). Le photon émis possède la même fréquence, la même direction, la même phase et
la même polarité que le photon incident: on dit qu’ils sont dans le même état.


L’effet laser
Imaginez maintenant qu’on se serve des 2 photons identiques issus de l’émission stimulée pour exciter 2 autres atomes, on obtiendra alors 4 photons dans le même état et ainsi de suite par effet cascade: c’est l’effet laser. Les photons émis  constituent une onde électromagnétique ayant une fréquence propre. On peut donc obtenir un rayon laser lumineux (dans le spectre visible) mais également  des rayons micro-ondes, infra-rouges, ultraviolets ou X. V. On comprend aisément que dans l’effet laser, il y a eu amplification de l’intensité lumineuse et tous les photons sont dans le même état, on parle alors de lumière cohérente. La caractéristique même du laser est cette cohérence de la lumière où tous les photons sont dans le même état (direction, fréquence, polarisation, phase). Comme la fréquence de l’onde lumineuse correspond à une couleur (dans le spectre visible), on obtient un rayon très directionnel d’une couleur unique très pure. La couleur en question dépend de l’atome de base que l’on a utilisé car
la fréquence de la lumière émise est fonction de la distance entre les 2 niveaux d’énergie entre lesquels les électrons « sautent ».
Le fonctionnement d’un laser
Un laser est composé de 4 organes principaux :

  1. Le milieu actif du laser : il est composé des atomes que l’on va venir exciter (ou pomper). Ce milieu peut être solide, liquide ou gazeux.
  2. Une source de pompage : elle permet d’exciter les atomes du milieu actif en injectant de l’énergie. Cette source peut être d’origine électrique ou lumineuse (un autre laser par ex).
  3. Un miroir qui réfléchit tous les photons incidents.
  4. Un miroir semi-réfléchissant qui laisse passer entre 1% et 10% des photons incidents et réfléchit le reste du rayonnement.

Le principe de fonctionnement du laser est le suivant (voir illustration ci-dessous) :

  1.  Le milieu actif est au repos.
  2. Le milieu actif est excité par une source de pompage externe. Pour obtenir une amplification, on doit faire en sorte que le maximum d’atomes soient excités pour qu’ils puissent provoquer le maximum d’émissions stimulées car les atomes non-excités sont susceptibles de faire une absorption de photons qui va à l’encontre de l’amplification. On dit qu’il doit y avoir une inversion de population (il doit y avoir plus d’atomes excités qu’au repos).
  3. Une partie des atomes excités se désexcite provoquant un faible rayonnement de photons cohérents.
  4. Grâce aux miroirs, le rayonnement est réfléchi et est amplifié par effet cascade, le rayonnement oscille dans le milieu actif qui constitue alors une cavité. Une faible partie du rayonnement est émis vers l’extérieur par le miroir semi-réfléchissant sous forme de rayon laser exploitable.

Les types de lasers

On peut séparer les lasers selon leur mode de fonctionnement et le type de milieu actif qu’ils utilisent (solide, liquide, gaz, semi-conducteur, …).Il existe deux modes de fonctionnement distincts :

  • Soit la source de pompage donne de l’énergie au milieu actif en permanence pour réexciter les atomes désexcités par émission stimulée. On obtient alors un rayon laser continu à la sortie.
  • Soit la source de pompage fonctionne de manière pulsée. Pendant un pulse, un rayon laser très bref est produit, la durée peu aller de quelques femtosecondes (millionième de milliardième de secondes) à quelques millisecondes. Ce mode de fonctionnement permet la création de rayons laser très brefs et plus puissants.

Les lasers solides (dit cristallins) peuvent fournir des puissances de l’ordre du kW en régime continu et des pics de puissance avoisinant le GW en régime pulsé.

Voici les 2 types de lasers les plus courants :

Les lasers Nd-YaG. Le milieu actif est un solide, plus précisément un cristal de grenat d’yttrium aluminium dopé au néodyme (neodymium-doped yttrium aluminium garnet). La source de pompage est en général une lampe flash (un stroboscope) fournissant des flashs lumineux puissants au milieu actif pour exciter les atomes. Le rayon obtenu se situe à 1065 nanomètres (infra-rouge), il n’est donc pas visible à l’œil nu (spectre visible entre 400 et 700 nanomètres). La puissance maximale est d’environ 5kW en régime continu et 25kW en régime pulsé. Le gros avantage de ce laser est que le rayon laser produit peut être très facilement transportable dans des fibres optiques à cause de sa longueur d’onde. Il sont utilisés en ophtalmologie, en médecine esthétique,  en gravure, découpe, soudure et perçage. La fréquence de l’onde lumineuse peut également être doublée pour fournir un rayon laser dans le spectre visible de couleur verte (532 nanomètres).

–  Les lasers CO2. Le milieu actif est en général un mélange de différents gaz (dioxyde de carbone, azote, hydrogène et hélium). Ces lasers peuvent fournir de grosses puissances (plusieurs centaines de kW et jusqu’à 1GW avec des systèmes amplificateurs) et sont très utilisés dans les techniques de marquage et gravure mais également en découpe, en soudure et en chirurgie plastique. Les lasers CO2 fournissent un rayon ayant une longueur d’onde de 10,6 micromètres (milieu infra-rouge): le rayon n’est donc pas visible à l’œil nu.

Les différentes applications
Les applications du laser sont très nombreuses. Le laser a permis de remplacer bon nombre de procédés en améliorant la précision et l’efficacité tout en étant moins invasif. Voici une énumération non exhaustive :
 
Médecine
-Ophtalmologie : découpes
-Dermatologie : épilation
-Dentisterie : nombreuses applications, remplacement de la « fraise »
-Chirurgie plastique : découpe, resurfaçage,…
 
Industrie
-Soudure
-Découpe
-Perçage
-Décapage
-Marquage
-Gravure

Armement
-Anti-missile (au sol ou aérien)
-Désignateur laser : source laser permettant de guider un projectile (missile) ou de faciliter la visée à l’aide
d’un pointage laser sur les armes légères.

 
Technologies de l’information
-Télécommunication par fibres optiques
-Lecture/enregistrement sur support optique (CD, DVD, …)
-Télémétrie : Mesure de longueurs ou de vitesses à distance
 
Matériaux
-Spectroscopie : analyse des spectres lumineux
-Ellipsométrie : analyse de surface de matériaux

Physique quantique
-Refroidissement par pompage laser : permet de refroidir des atomes à des températures très proches du zéro absolu.
-Manipulation de photons pour leur étude et la réalisation d’expériences

Si vous désirez plus d’informations scientifiques sur les lasers, vous pouvez trouver de bons cours niveau Licence, Master ou Doctorat à l’adresse suivante : http://icb.u-bourgogne.fr/universitysurf/ressources-laser.html