Archives pour la catégorie Physique

Le verre dans tous ses états

Une histoire de vitrail de cathédrales

Lors d’une visite de cathédrale en région centre pendant mon enfance (oui, j’ai eu une enfance difficile), je me rappelle qu’on m’a expliqué que les vitraux étaient très vieux (genre XIIème siècle) et que la preuve était la suivante: le verre qui constitue le vitrail a coulé avec la gravité et les vitres sont plus épaisses en bas qu’en haut. Me rappelant cette anecdote,  je vais chercher un peu sur le net et cette explication est finalement complètement erronée (la preuve ici dans ce papier paru dans l’American Journal of Physics en 1998). Ce papier permet de calculer le temps qu’il faut au verre pour couler (ce qu’on appelle le temps de relaxation) après l’étude chimique des verres employés aux temps des cathédrales. Dans les vitraux du 12ème siècle, il faudrait compter plusieurs milliards d’années avant de voir le verre couler ! Ça serait physiquement possible en « seulement » 800 ans mais avec une température moyenne de 400 degrés ! En fait, c’est la méthode de fabrication de l’époque qui ne permettait pas la fabrication de vitraux « plats » mais plus épais d’un côté. Le coté le plus épais était donc naturellement placé en bas pour des questions de stabilité du vitrail.

    vitrail-blog

Verre : Solide ou liquide ?

OK, le verre peut donc quand même couler mais dans des temps très longs à température ambiante. Mais au fait, le verre, c’est un liquide ou un solide ? Physiquement parlant, le verre est un solide amorphe : c’est un solide car il possède un volume et une forme propre mais il est qualifié de amorphe car ses atomes ne sont pas structurés de manière organisée à moyenne et à grande échelle, contrairement aux solides cristallisés qui nous sont plus familiers comme les métaux, la neige, le sucre, etc. En fait, cette question est tout de même encore débattue par certains scientifiques mais la communauté considère bien le verre comme un solide, même s’il possède la structure atomique désorganisée d’un liquide.

Transition vitreuse

Pour comprendre la confusion des thermodynamiciens sur l’état du verre, il faut regarder comment le verre est fabriqué :

  • On prend de l’oxyde de silicium (constituant du sable) avec un fondant (qui permet d’abaisser la température fusion) et on les fait fondre à haute température (environ 1300 C) : ces composés sont alors sous forme liquide.
  • On procède ensuite à un refroidissement extrêmement rapide de ce liquide de manière à passer le point de fusion très vite et à ne pas laisser le temps aux atomes de se cristalliser pour former un solide classique, on obtient alors un liquide surfondu.
  • Si on abaisse encore la température mais cette fois-ci doucement, on obtient un « verre » à partir de la « température  de transition vitreuse » où la viscosité augmente alors brutalement pour former un solide amorphe.

 thermo_verre

Le cristal… de verre

Nous venons de voir que par définition, le verre est un solide amorphe, ce qui est l’opposé d’un cristal. Mais alors, comment peut-on fabriquer des verres (à boire) et des carafes en cristal ? Eh bien c’est tout bonnement impossible ! Le mot « cristal » est ici un abus de langage (au sens du physicien) car la structure atomique du « cristal de verre » n’est pas un cristal mais bien un verre !

cristal-francais-verre-vinEn fait, le cristal de verre est un verre dans lequel il y a au moins 24% de plomb (on parle même de cristal supérieur quand la proportion de plomb dépasse les 30% de la masse totale). C’est pour cela que les verres en cristal sont si lourds ! En effet, le plomb a de nombreux avantages dans la fabrication du verre : il permet d’abaisser la température de fusion du verre et donc permet un travail plus facile car plus malléable pendant plus de temps. De plus, le cristal de verre possède un bel éclat à cause de son indice de réfraction important ainsi qu’une sonorité cristalline.

saturnismeAutre chose de très important : ne jamais boire de coca  ayant été conservé dans une carafe en cristal, ça peut être mortel ou rendre votre enfant débile (je ne rigole pas). En effet, les liquides acides (comme le coca et les alcools) peuvent devenir toxiques s’ils sont conservés dans une carafe en cristal ayant peu servi car ils se chargent en plomb jusqu’à des niveaux toxiques et on peut alors en ingérer avec tous les problèmes que cela peut occasionner comme le saturnisme. Il y a même de nombreuses personnes qui pensent que la goutte qui est observée dans la bourgeoisie européenne et nord-américaines serait en fait du saturnisme chronique (qui présente les mêmes symptomes) à cause de leur consommation régulière d’alcool dans des carafes en cristal (voir cet article du American Journal of Medecine par exemple).
Mais bon, si les carafes sont utilisées seulement quelques heures et qu’elles sont bien nettoyées, ça ne pose pas de problème et les carafes en cristal modernes sont souvent pourvues d’une couche protectrice à l’intérieur pour justement éviter de contaminer en plomb les liquides qui s’y trouvent.

Du cristal dans les détecteurs de particules ?

On m’avait déjà trompé dans mon enfance avec les vitraux de cathédrales et maintenant, à l’âge adulte, on me trompe encore dans les détecteurs de particules ! J’ai entendu au CERN que le détecteur de particules CMS détectait dans le LHC certaines particules à l’aide de cristaux de « verre au plomb ». Effectivement, on peut voir ces espèces de lingots de verre, extrêmement lourds, installés dans le détecteur. Eh bien c’est encore faux ! Ces cristaux sont de vrais cristaux au sens physique du terme, avec une structure atomique bien ordonnée, et ce ne sont absolument pas des verres !

En fait, ces cristaux « plombés » permettent de freiner certaines particules et donc de mesurer leur énergie (on parle de calorimètres). Par exemple, le détecteur de particules CMS au CERN possède 80 000 cristaux de tungstate de plomb (PbWO4) pour mesurer l’énergie des particules sensibles à la force électromagnétique comme les photons et électrons. A leur passage dans ces cristaux, les électrons et photons scintillent et génèrent de la lumière de manière proportionnelle à leur énergie et cette lumière générée est ensuite transformée en signal électrique. Ce signal est alors amplifié pour être par la suite traité informatiquement de manière à recalculer avec une très grande précision l’énergie de la particule qui a traversé le cristal (mais pour que ça marche, il faut contrôler la température du cristal au dixième de degré, ce qui n’est pas super facile).

Au total, il a fallu plus de 10 ans aux scientifiques et ingénieurs pour fabriquer ces 80 000 cristaux aux propriétés très spéciales dans une ancienne base militaire russe ainsi que dans un institut chinois à Shanghai. Imaginez que la densité de ces cristaux est de 8,3 tonnes par m3, soit plus que de l’acier (7,8 tonnes par m3) !! Chaque petit cristal pèse 1,5 kg alors que son volume est analogue à une petite tasse à café (parallélépipède de 2,2 cm de côté et 23 cm de long).

 CMS_CristalCristaux de tungstate de plomb utilisés dans le détecteur CMS (et ce n’est pas du verre !)

 Des particules plus rapides que la lumière dans le verre au plomb

En revanche, il est vrai qu’il existe bel et bien des détecteurs de particules utilisant du verre au plomb pour détecter des particules énergétique comme les muons. Ces verres au plomb ont également une grande densité (plus de 6 tonnes par m3) et quand des muons ultra-relativistes (qui vont presque aussi vite que la lumière) traversent du verre au plomb, ils sont beaucoup moins freinés que les photons de lumière et vont alors plus vite que la lumière dans le verre au plomb (mais attention, en aucun cas ils ne dépassent la vitesse de la lumière dans le vide). Ce faisant, un cône de lumière bleue est émis le long de la trajectoire de ces muons qui dépassent la vitesse des photons, c’est ce qu’on appelle l’effet Tcherenkov. C’est le même effet qu’on peut observer dans les piscines de stockage des déchets radioactifs dans les centrales nucléaires où une belle lumière bleue est émise du fait que plusieurs particules vont plus vites que les photons dans l’eau de la piscine.

L’eau chaude gèle avant l’eau froide : l’effet Mpemba

Alors que j’étais en train de lire un livre au coin du feu dans le canapé (Impasciences de J-M. Lévy-Leblond que je vous conseille en passant), j’apprends que si on place un verre d’eau à 50 C et un verre d’eau à 20 C dans le congélateur, le verre d’eau initialement à 50 C gèle avant celui à 20 C ! Je questionne alors ma voisine de canapé, ma belle-sœur (qui est autant physicienne que je suis trapéziste volant), à ce sujet qui me répond sans ciller que évidemment, l’eau chaude gèle avant, et que tout le monde sait cela. J’étais abasourdi de cette révélation alors que je n’en avais jamais entendu parler, moi, ayant fait une bonne partie de mon doctorat en thermodynamique ! Je m’indigne de cet effet en contradiction totale avec mon intuition ainsi qu’avec mon raisonnement scientifique. Je vais alors consulter sur Wikipédia l’effet Mpemba, qui stipule que l’eau chaude peut geler avant l’eau froide. Ce serait donc vrai… C’est même connu depuis l’Antiquité et redécouvert plus « scientifiquement » en 1963 par un lycéen nommé E.B. Mpemba en Tanzanie.

Mpemba1

Refroidissement et solidification de 30mL d’eau déminéralisée dans un bécher en verre non couvert et non agité

Expérience à la maison

Je m’empare alors de trois verres que je remplis avec 60 g d’eau à 21 C, 31 C, et 53 C (mesurés avec un thermomètre infrarouge). Je les mets au congélateur sur le même étage et je mesure les températures des 3 verres toutes les 5 minutes. Verdict : pas d’effet Mpemba, c’est clairement le verre initialement à 21 C qui gèle, puis celui à 31 C, puis celui à 53 C, les 3 courbes ne se sont pas croisées. Mystère, ça n’a pas marché avec moi…

glaciation

Explications scientifiques

Je cherche alors un peu partout une explication scientifique de l’effet Mpemba et là abomination : personne ne sait vraiment pourquoi et en plus ça n’arrive pas à tous les coups, ça a même l’air difficilement reproductible selon les expériences mais ça a néanmoins été abondamment observé. Ce phénomène reste donc inexpliqué aujourd’hui ! Les scientifiques s’étant penchés sur la question sont tous d’accord pour dire que c’est sans doute un agglomérat de phénomènes interagissant les uns avec les autres qui se produisent dans cette expérience simple beaucoup plus compliquée qu’il n’y parait. Sont en cause :

  • Les conditions expérimentales : Dans un congélateur domestique, la température n’est ni constante ni uniforme à l’intérieur. De plus, la composition de l’eau varie et la température initiale du récipient ainsi que sa nature ont leur importance. La température du congélateur est aussi un facteur important à prendre en compte.
  • L’évaporation de l’eau chaude et donc la perte de masse mais non satisfaisant comme explication car même sur des récipients fermés hermétiquement on peut observer le phénomène et après pesage de la masse perdue, ça ne justifie pas cet effet.
  • Les gaz dissous dans l’eau chaude changent ses propriétés comme la conductivité thermique ou la capacité calorifique (chaleur à extraire d’un kilogramme d’eau pour la refroidir de un degré). Cependant, même en préchauffant l’eau à l’avance de manière à obtenir la même composition de gaz dissous, l’effet Mpembra perdure.
  • La surfusion de l’eau: l’eau peut geler bien en dessous des 0 C à pression atmosphérique dans certaines conditions (jusqu’ à -39 C !). De plus, la présence de gaz dissous renforce cet effet. Le passage entre la surfusion et l’état solide a lieu si des poussières tombent dans l’eau ou si des cristaux de glace se forment : processus très aléatoire difficilement reproductible.

 Mpemba3

Différence de surfusion (et donc de temps pour geler) entre différents échantillons d’eau contenus dans des bouteilles ayant la même température initiale. La courbe bleue foncée en bas représente la température du congélateur.

  • Les courants de convection plus prononcés dans l’eau chaude accélèrent les échanges de chaleur et donc le refroidissement. La profondeur du récipient ainsi que le gradient de température sont des éléments significatifs à prendre en compte également dans les phénomènes convectifs.

Interprétations

Dans tous les cas, la raison scientifique dit que de l’eau à 50 C passe forcément par de l’eau à 20 C avant de geler car le refroidissement est un processus continu donc on retombe sur la même condition qu’avec le verre à 20 C à un temps postérieur. Il y a donc 2 solutions plausibles à cette observation :

  • Le processus de refroidissement de l’eau est très complexe comme l’eau est composée de nombreux éléments et que de nombreux phénomènes physiques rentrent en jeu (convection et surfusion). Le phénomène est donc non reproductible facilement, ce pour quoi on observe parfois que l’eau chaude gèle avant l’eau froide. Je n’ai malheureusement pas de trouver des statistiques sérieuses à ce sujet.
  • L’eau subit une transformation lorsqu’elle est chauffée, ce pour quoi l’eau chaude refroidie rapidement à 20 C n’a pas les  mêmes propriétés que l’eau à 20 C du robinet. Là encore, difficile de trouver des explications.

Quand on regarde de plus près les nombreuses expériences faites pour trouver la cause majeure expliquant l’effet Mpemba, on découvre que la convection a clairement un rôle important : lorsque que l’eau est mélangée constamment pendant le refroidissement, l’influence des différences de convection est très réduite et on observe que l’effet Mpemba est grandement diminuée           (quasiment plus de différence entre de l’eau initialement à 20 C ou 35 C) mais néanmoins possible donc ce n’est pas la seule cause.

Mpemba2

Refroidissement et solidification de 30mL d’eau déminéralisée dans un bécher en verre non couvert et agité continuellement

Vient ensuite la surfusion de l’eau qui peut faire pencher la balance : une surfusion entre 0 C et -6 C (assez courant lors des expériences) entraine un retard de gèle d’environ 10 minutes par rapport à de l’eau qui gèle directement à 0 C, ce qui fait que les expériences sont peu reproductibles et que l’effet Mpemba n’est pas toujours observable. Même avec deux échantillons d’eau provenant de la même bouteille, on observe que la surfusion est différente. Cependant, pourquoi de l’eau initialement à 35 C aurait une surfusion plus prononcée qu’une eau initialement à 20 C ?? Je n’ai pas non plus réussi a trouver une bonne explication à cela.

Si jamais vous avez plus d’info sur ce sujet, n’hésitez pas à le signaler en commentaires.

Sources

Les vagues scélérates

Les vagues, tout le monde connait ! Les raz-de-marée (tsunamis en japonais), comment les ignorer depuis celui de 2004 dans l’océan indien (220 000 morts) et celui de 2011 au large du Japon qui frappa la centrale de Fukushima ? Mais les vagues scélérates ? Les connaissez-vous ? C’est ce que je vais essayer de vous détailler ici.

Définition

Les vagues scélérates sont de gigantesques vagues solitaires formées au milieu des océans sans raison apparente. Une vague scélérate est définie comme une vague étant au moins 2 fois plus haute (entre sa crête et son creux) que la hauteur significative des vagues alentours : c’est-à-dire 2 fois plus haute que la moyenne du tiers des vagues les plus hautes.   vague Sa particularité est donc qu’elle est isolée et souvent abrupte, contrairement à un raz-de-marée provoqué par des effondrements sous-marins ou des séismes entrainant une onde de choc de très grande amplitude et se matérialisant par une vague seulement lorsque le plancher océanique remonte près des côtes.

Donc si vous êtes en pleine mer par force 9 (ce que je ne vous souhaite pas), la hauteur significative étant d’environ 15 mètres, vous pouvez qualifier une vague de « scélérate » si cette dernière dépasse les 30 mètres uniquement !

Un peu d’histoire

Pendant longtemps, les vagues scélérates ont été considérées comme des hallucinations de marins ayant abusé du rhum. Les scélérates faisaient parties du folklore maritime mais avec la photographie, les radars, les satellites et autres technologies, ce phénomène est maintenant avéré: les vagues scélérates existent et ne sont pas si rares que ça !

Le premier enregistrement « sérieux » d’une vague scélérate date du 1er Janvier 1995 aux abords de la plateforme pétrolière Draupner au large de la Norvège : une vague de 26,8 mètres est enregistrée au milieu d’une mer ayant une hauteur significative de 10,8 mètres (donc 2,5 fois plus haute). Il avait été recensé auparavant de telles vagues scélérates, comme à bord du navire USS Ramapo en 1933 qui avait mesuré une vague de 33 mètres, mais jamais les scientifiques n’avaient eu de données réellement mesurées pour analyser ce phénomène singulier.

 File_Drauper_freak_wavePremier enregistrement d’une vague scélérate le 1er Janvier 1995 aux abords d’une plateforme pétrolière au large de la Norvège

 Occurrence des vagues scélérates

En 2004, trois semaines d’images radars provenant de satellites de l’Agence Spatiale Européenne ont été minutieusement analysées et pas moins de 10 vagues scélérates de 25 mètres chacune ont été identifiées (http://www.dtic.mil/cgi-bin/GetTRDoc?AD=ADA462573). Ce phénomène n’est donc pas si rare et il n’est donc pas impossible qu’un navire en mer en croise une, ce qui est cohérent avec les récits de plusieurs marins ayant survécu à de telles vagues. Par exemple, le capitaine du paquebot Queen Elisabeth II a rencontré en 1995 une vague scélérate de 30 mètres de haut en Atlantique nord et a déclaré que cette vaque était « Un gigantesque mur d’eau… C’était comme si nous nous précipitions sur les falaises blanches de Douvres« .

L’Agence Spatiale Européenne déclarait d’ailleurs en 2004 que sur les 200 supertankers et porte-conteneurs de plus de 200 mètres de longs ayant coulés à cause de raisons climatiques lors des 20 dernières années, la plupart ont coulé suite à une vague scélérate (lien). Cependant, il n’existe à ce jour aucune statistique précise de l’apparition de ces vagues dans les océans. Même si Michel Olagnon, ingénieur à l’Ifremer, a déclaré dans une interview au journal le Temps « qu’en un endroit donné, on estime qu’il ne s’en forme qu’une tous les 10 000 ans».

Modélisation des vagues régulières

En termes de modélisation physique, la tâche n’est pas évidente étant donné que nous possédons très peu de mesures de ces vagues et donc peu de données pour valider les modèles.

Il existe de très nombreux modèles pour décrire les vagues dues au vent sur l’eau dans une eau plus ou moins profonde, voir graphique ci-dessous.

533px-Water_wave_theories.svg Différents domaines de validité des modèles expliquant les vagues régulières en profondeur constante (h= hauteur d’eau, tau=période temporelle de la vague, H = hauteur de la vague, g=gravité)

Ces modèles sont tous des approximations grossières des équations de la mécanique des fluides ignorant la viscosité, la compressibilité et les tourbillons. Même après toutes ces approximations, le modèle demeure non-linéaire et il n’existe pas de solution simple à ce problème. L’idée consiste alors à approximer des termes selon la profondeur plus ou moins importante de l’eau. Par exemple des vagues de 30 mètres de haut (H=30) ayant une période de 15 secondes (tau=15) dans 400 mètres d’eau (h=400) peuvent être modélisées par un modèle de Strokes au 3ème ordre (H/(g*tau^2) = 0.013 et h/(g*tau^2) = 0.18), ce qui revient à une équation aux dérivées partielles du 2ème ordre que l’on peut résoudre (équation de Laplace) mais attention, tous ces modèles permettent de rendre compte des vagues régulières uniquement. De plus, si la cambrure de la vague (le rapport entre la hauteur de la vague H et sa longueur d’onde lambda) dépasse 0,14, alors aucun modèle n’explique la formation de telles vagues car elles sont censées déferler à ce stade. Par exemple une vague de 30 mètres n’est possible que si elle possède une longueur de 214 mètres minimum.

Modèle pour vagues scélérates

Les vagues scélérates peuvent être modélisées selon l’équation d’un soliton. Un soliton est une onde se propageant sans se déformer dans un milieu non-linéaire dispersif : c’est-à-dire que la vitesse de l’onde dépend de sa fréquence,  comme les vagues dans l’eau ou la lumière dans l’air.

Le soliton apparait comme solution de plusieurs  équations aux dérivées partielles non-linéaires comme l’équation de Schrödinger en physique quantique qui explique la propagation d’un signal lumineux dans une fibre optique. Dans le cas des fluides non compressibles et non visqueux, le soliton est également une solution de l’équation de Korteweg-de Vries qui permet de rendre compte de la propagation des vagues dans une eau peu profonde. Mais là encore, cela ne permet pas d’expliquer notre vague scélérate en eau profonde en pleine mer.

En 1983, Howell Peregrine pense à modéliser de telles vagues à partir d’une équation type Schrödinger non-linéaire étant donné que le soliton est une solution possible. On parle alors de « soliton de Peregrine ». Le problème, toujours le même, est que pour valider ce modèle, nous avons trop peu de mesures de vagues scélérates et que c’est quasi impossible à reproduire en laboratoire. Donc ce modèle est sujet à caution.

Une solution possible arrive en 2010 quand une équipe réussit à reproduire en laboratoire un soliton de Peregrine mais dans une fibre optique avec une impulsion de lumière extrêmement brève (voir Article dans Nature). Et oui, comme la propagation est non-linéaire, il est possible que plusieurs petites ondes fassent une onde beaucoup plus grande que la somme des plus petites et si ça marche avec de la lumière, ça devrait marcher dans l’eau également ! L’avantage de la lumière est que l’on maitrise très bien tous les paramètres et que c’est « assez facile » à faire en labo. En faisant un changement d’échelle entre les paramètres de la fibre optique et la mer on retombe alors sur des données cohérentes qui pourraient donc expliquer les vagues scélérates. Les auteurs de cette expérience pensent ainsi que les vagues scélérates seraient dues à la sommation de plus petites vagues de différentes fréquences donnant naissance à une vague gigantesque comme dans leur fibre optique.

Autres origines possibles des vagues scélérates

Aujourd’hui, aucune théorie ne fait vraiment consensus au sein de la communauté scientifique pour expliquer l’origine des vagues scélérates. Il est simplement avéré que très souvent (mais pas tout le temps), ces vagues apparaissent dans des endroits où les vents soufflent de manière opposée à d’importants courants marins comme au large de l’Afrique du Sud. Cette opposition entre vent et courant provoquerait une contraction de la longueur d’onde de la vague et donc son élongation en hauteur. Il existe de nombreuses autres explications comme le soliton de Peregrine mais ces recherches sont toujours actives et il y a encore du travail pour comprendre la Nature…

P.S. Merci à Eric de m’avoir suggéré ce sujet lors d’une pause-café au CERN.

Le démon de Maxwell

 Mes deux domaines scientifiques préférés sont sans doute la thermodynamique et la théorie de l’information. L’histoire a su allier ces 2 grands domaines avec élégance pour comprendre le paradoxe du démon de Maxwell.

En 1871, James Clerk Maxwell (celui de la théorie électromagnétique) tente de contredire le second principe de la thermodynamique en inventant une expérience de pensée dans laquelle il invoque un « démon » mais ce n’est véritablement qu’en 1949 que Léon Brillouin, en utilisant la théorie de l’information, va permettre de lever le voile sur le paradoxe de cette expérience de pensée et redonner au second principe de la thermodynamique son caractère universel.

Le second principe de la thermodynamique

C’est un des principes de la physique les plus intéressants dans le sens où il cache de nombreuses implications. Il est au premier abord difficile à comprendre à cause de la notion d’entropie qui n’est pas facile à appréhender mais on l’entend souvent de la manière vulgarisée suivante :

« Le désordre d’un système isolé ne peut qu’augmenter dans le temps »

 L’entropie d’un système est en quelque sorte son désordre. Si tous les atomes d’un gaz bougent lentement, il y a peu de chocs entre eux et l’entropie sera alors faible (et le gaz sera froid). Au contraire, si tous les atomes d’un gaz bougent rapidement, les chocs entre eux sont nombreux et l’entropie est grande (et le gaz sera chaud). On considère ici des systèmes isolés, c’est-à-dire qui n’échangent ni matière ni énergie avec l’extérieur (donc pas de chaleur non plus).

 Le second principe stipule donc que toutes les transformations que peut subir un système isolé génèrent de l’entropie (du désordre) et que cette grandeur ne peut donc qu’augmenter dans le temps. Ceci veut dire que pour créer de l’ordre (faire baisser l’entropie), un agent extérieur doit forcément intervenir. Notre Univers voit donc son entropie totale augmenter vers l’infinie en permanence vue que rien n’est externe à l’Univers par définition.

 Une des conséquences importantes de ce principe est que toutes les transformations que peut subir un système isolé ne peuvent se dérouler que dans un sens précis en suivant « la flèche du temps ». Les transformations sont ainsi qualifiées d’irréversibles dans le temps car génératrices d’entropie. Quelques exemples de transformations irréversibles évidentes dans la vie quotidienne :

  • Lorsque l’on mélange du sirop dans un verre d’eau, jamais le sirop et l’eau ne vont complètement se re-séparer spontanément dans le verre.
  • Lorsque l’on mélange de l’eau chaude et de l’eau froide dans un verre, jamais l’eau chaude et l’eau froide ne vont complètement se re-séparer spontanément dans le verre.
  • Si un verre tombe par terre et se casse, jamais il ne se reconstituera par lui-même.

L’expérience de Maxwell

L’expérience pensée par Maxwell pour contredire le second principe de la thermodynamique est relativement simple à comprendre mais extrêmement difficile à mettre en œuvre, d’où la création de ce « démon ».

 

Imaginons 2 compartiments contigus dans lesquels on a mis d’un coté un gaz froid et de l’autre un gaz chaud. Il existe une porte entre ces 2 compartiments et un démon peut l’ouvrir et la fermer à sa guise. Le démon, malicieux, ouvre la porte de manière à ce que les atomes rapides passent dans le compartiment chaud et que les atomes lents passent dans le compartiment froid. Ainsi, plus le temps s’écoule et plus le gaz chaud se réchauffe et plus le gaz froid se refroidit.

Cette observation est en contradiction avec le second principe de la thermodynamique car les 2 compartiments voient leur entropie décroître : en effet, il y a plus d’ordre qu’au départ comme on a séparé les atomes rapides de ceux plus lents. La thermodynamique nous dit que dans le temps, les températures des 2 compartiments devraient converger vers la même valeur alors qu’ici ce n’est pas le cas.

La levée du paradoxe

Pour la thermodynamique, l’entropie a été redéfinie en 1877 par Boltzmann de la manière suivante :

La formule de Boltzmann sur sa tombe à Vienne

 Ici, « S » représente l’entropie, « k » est une constante (de Boltzmann) et « W » correspond au nombre d’états macroscopiques que peut prendre le système.

Plus de 70 ans plus tard, en 1948, Claude Shannon définit à son tour un genre d’entropie qui correspond à la quantité d’information minimum pour transmettre un message. Cette entropie est définie par :

I= K log P

avec « I » la quantité d’information, « K » une constante et « P » l’ensemble des états possibles du système considéré.

 

Claude Shannon (Alfred Eisenstaedt/Time & Life Pictures/Getty Image)

 A priori ces deux concepts n’ont de commun que leur expression mathématique mais Brillouin démontre qu’il s’agit bien de la même entropie. Je vous conseille de lire cette analyse Bibnum pour plus de détails où l’on peut lire ceci :

 Pour obtenir de l’information sur un système, il faut le mesurer, cette mesure augmente l’entropie de l’univers d’une quantité exactement égale à la quantité d’information obtenue. De cette manière Brillouin établit une échelle absolue de la mesure de l’information et à cette fin créé une nouvelle grandeur : La néguentropie, ou entropie négative.

 Il est évident que dans l’expérience de Maxwell, notre démon a besoin de connaître la vitesse des atomes pour les laisser passer ou pas par la porte. Brillouin montre alors que cette « mesure » faite par le démon va créer de la néguentropie de manière à compenser exactement la baisse d’entropie du système : le deuxième principe reste donc valide car l’entropie du système « enceintes+gaz+porte+démon » reste constante !!

 Applications de l’entropie de Shannon

Le calcul de l’entropie de Shannon permet de coder un message sous forme numérique avec le moins de bits possible sans perdre de l’information comme dans les algorithmes de compression sans perte (voir ce billet sur la compression de données).

 Elle est aussi utilisée dans le domaine de l’imagerie médicale pour comparer des images ainsi qu’en génétique pour identifier les parties des chromosomes contenant plus d’informations.

 

Newton : calcul différentiel, gravité et optique

Voici un livre que je préconise à tout amateur d’Histoire des sciences : Isaac Newton, un destin fabuleux, de James Gleick aux éditions Quai des Sciences.

Cette biographie de l’illustre Newton nous replonge dans l’Angleterre du milieu du 17ème siècle encore moyenâgeuse où un homme d’origine modeste et destiné à être fermier dans la campagne environnante de Cambridge a révolutionné la Science. De mon point de vue, Newton a révolutionné les sciences dans le sens où c’est lui qui a séparé science et philosophie en deux approches bien distinctes, l’une basée sur la démonstration mathématique et l’autre basée sur la pensée et la réflexion. Newton fut certainement le dernier à cumuler les rôles de magicien, alchimiste, philosophe, métaphysicien, théologien, mathématicien et physicien. Après Newton, ce fut le siècle des lumières avec ses philosophes d’un coté  (Diderot, Rousseau, Voltaire, etc.) et ses scientifiques de l’autre (Euler, Bernoulli, Laplace, Lavoisier, etc.).

Dans ce billet, je veux simplement aborder brièvement les 3 principales avancées dues à Newton dans les sciences, à savoir le calcul différentiel, la mécanique et l’optique mais il faut souligner que Newton a passé une très grande partie de sa vie (et sûrement la plus grande partie de sa vie) à étudier l’alchimie ainsi que les différentes versions de la bible pour en retrouver les origines fondamentales.

Les Principia MathEmatica

La rédaction de son œuvre majeure et publiée pour la première fois en 1687 à Londres sont les Principes mathématiques de la philosophie naturelle (plus communément appelées Principia Mathematica). Ces Principia Mathematica abordent un grand nombre de sujets dont la célèbre théorie mécanique de Newton, en incorporant la théorie de la gravité universelle. Ces volumes furent réellement le point de départ de la physique moderne en se basant sur l’explication des phénomènes naturels par leurs mises en équations mathématiques, sans en expliquer leur origine métaphysique ou leur cause, c‘est ce que nous appelons aujourd’hui la Physique.

Première édition des Principia Mathematica avec les annotations manuscrites de Newton conservée à la bibliothèque Wren de Cambridge (1687)

Les Principia Mathematica ont été au début très peu diffusés en dehors de l’Angleterre (une centaine d’éditions seulement avaient été éditées) et il a fallu attendre le milieu du 18ème siècle pour avoir accès à ces 3 volumes fondateurs dans le reste de l’Europe comme par exemple avec la traduction française fameuse de Emilie du Châtelet en 1756 (Miss « Pompon Newton » selon Voltaire). J’ai moi-même eu la chance de tenir entre mes mains et de consulter une édition des Principia Mathematica de 1740 conservée à l’université de Valladolid en Espagne à la bibliothèque historique de Santa Cruz. Avec cette publication, Newton devint un des pères fondateurs de la physique, provoquant une rupture avec la Grèce antique d’Aristote et le cartésianisme de Descartes qui prévalaient alors comme références incontestables jusqu’à Newton.

Le calcul infinitésimal

Au milieu du 17ème siècle, les mathématiciens ne savaient guère appréhender les infinis, grands ou petits. Newton s’attaque à ce problème lors de la grande peste de Londres qui fait rage en Angleterre en 1665-1666 et aboutit à une méthode du calcul infinitésimal vers 1669. Malheureusement, il préfère ne pas publier ses résultats. Ce nouveau mode de calcul permet à Newton de calculer la pente (la tangente) de n’importe quelle courbe ainsi que son aire. C’est ce qu’on appelle aujourd’hui le calcul différentiel et intégral. Ces mêmes opérateurs permettront à Newton d’établir les relations nécessaires entre position, vitesse et accélération en mécanique (à moins que ce ne soit la mécanique qui l’ait amené à trouver le calcul différentiel). Il introduit alors la notation de la dérivée à l’aide d’un point au dessus des lettres (notation encore parfois utilisée).

Au même moment, en Allemagne, Leibniz invente également en 1674 et de manière indépendante le calcul différentiel à la différence qu’il mettra en place un système de notation extrêmement ingénieux et qui est toujours utilisé aujourd’hui : il notera la dérivée avec un « d » droit ou un Delta grec pour représenter une différence infiniment petite et le « S » allongée pour l’intégrale. Une bataille entre Newton et Leibniz fera alors rage pour revendiquer cet outil mathématique extrêmement puissant et constituant la base de l’analyse (la discipline mathématiques étudiant les fonctions).

Mécanique

La mécanique newtonienne est aujourd’hui la théorie mécanique la plus utilisée pour les problèmes courants des ingénieurs permettant de calculer les trajectoires, les vitesses et les accélérations lorsque les vitesses mises en jeu sont faibles devant la vitesse de la lumière (après c’est la relativité d’Einstein qui prend le relais).

Le centre de la mécanique développée par Newton est bien entendu la théorie de la gravitation universelle. Elle est qualifiée d’universelle car elle s’applique à tous les objets ayant une masse, du grain de sable au Soleil en passant par les pommes et la Lune: elle explique la trajectoire des boulets de canons, la rotation des planètes autour du Soleil et le mouvement des marées sur Terre à cause de la Lune.

Newton par Noémie

Newton comprend pour la première fois que plus la masse est grande, plus l’attraction est forte et qu’il est bien question d’attraction et non de pulsion comme il était alors question à l’époque. Newton révoque irrémédiablement la théorie de l’éther et des tourbillons de Descartes et clame que cette force d’attraction se propage dans le vide, ce qui déplaît fortement à l’époque. De plus, Newton ne donne pas d’explication de cette force mystérieuse qui s’exerce à distance (en passant, la transmission de la gravité est toujours un mystère et demeure la force la moins bien comprise). Newton identifie également que cette force est inversement proportionnelle au carré de la distance qui sépare les objets et retrouve les conjectures de Kepler par le calcul comme quoi les planètes décrivent une trajectoire elliptiques autour du Soleil. Il effectue même des corrections aux trajectoires de Kepler et permet à Edmond Halley en 1682 d’annoncer le prochain passage d’une comète en 1738 (soit 76 ans plus tard) qui deviendra la comète de Halley, la théorie de Newton sera alors à son paroxysme et fera l’unanimité sur le continent.

Optique

Newton était attaché à une théorie atomique de la lumière, à l’inverse de Huygens qui défendait une théorie ondulatoire (ils avaient en fait tous les deux raison selon la théorie quantique). La théorie défendue par Newton lui vaudra de nombreux débats et controverses à l’Académie Royale de Londres mais Newton fut le premier à comprendre que la lumière blanche était en fait une composition de toutes les couleurs de l’arc-en-ciel puisqu’en passant dans un prisme, la lumière blanche se décomposait en des pinceaux de lumière de différentes couleurs et qu’il était alors impossible d’en extraire de la lumière blanche à nouveau (on pensait alors que c’est le prisme qui fabriquait les autres couleurs).

Fort de cette théorie, Newton pensait que les télescopes de l’époque utilisant des lentilles (lunettes de Galilée) étaient limités du fait que les couleurs n’étaient pas déviées de la même façon dans les lentilles incurvées. Il inventa alors un nouveau télescope, qualifié de Newton aujourd’hui, utilisant un miroir courbe et permettant un grossissement identique avec un télescope beaucoup plus compact qu’avec les lunettes de Galilée.

 

Un télescope Newton monté sur une monture équatoriale

Pour conclure

Je citerai simplement cette épitaphe et Alexander Pope (1730) pour conclure ce billet :

La Nature et ses lois
Restaient cachées dans la nuit
Et Dieu dit « Que Newton soit ! »
Et alors tout s’éclaircit.

L’Hadronthérapie contre le cancer

C’est en lisant un des derniers billets des Quantum Diaries intitulé La face cachée du CERN que je me suis dit qu’un billet sur l’hadronthérapie serait un sujet très intéressant car prometteur et relativement peu connu du grand public.

La radiothérapie

La radiothérapie consiste à tuer les cellules cancéreuses d’un patient au moyen de radiations. L’idée de la radiothérapie consiste à exploiter le fait que les radiations peuvent détruire les cellules, quelles qu’elles soient. La difficulté est alors de détruire uniquement les cellules cancéreuses pour empêcher leur reproduction sans toucher aux cellules saines de manière à enrayer la maladie sans dommages collatéraux.

Il est à noter qu’aujourd’hui plus de la moitié des cancers sont traités à l’aide de la radiothérapie et que cette seule méthode peut entraîner une guérison complète avec des effets secondaires moindre qu’avec une chimiothérapie.

Les radiations peuvent être produites de 2 manières pour tuer les cellules cancéreuses :

  • La curiethérapie : Un élément naturellement radioactif est introduit dans le patient ou est placé à proximité de la zone à traiter.  Cette technique est utilisée principalement pour traiter les cancers du sein, de la prostate, de l’utérus et de la peau.
  • La radiothérapie externe : Un accélérateur de particules produit un faisceau de particules dirigé vers le patient de manière à irradier les cellules tumorales. C’est cette dernière méthode qui nous intéresse ici.

La difficulté est la suivante : les tumeurs peuvent être situées à la périphérie du corps ou bien enfouies profondément à l’intérieur comme dans le cerveau. Dans ce dernier cas, il faut alors trouver un moyen d’irradier fortement les cellules tumorales à l’intérieur en abîmant le moins possible les tissus alentours. Pour évaluer l’efficacité des faisceaux de particules à tuer des cellules, on calcule l’énergie qu’ils déposent dans les tissus, c’est ce qu’on appelle aussi la dose, qui est proportionnelle aux radiations induites sur les tissus pour les détruire. Il existe alors plusieurs types de radiothérapies externes qui exploitent différents types de rayonnement:

  • Faisceaux d’électrons : pénètrent faiblement dans les tissus et déposent toute leur dose quelques centimètres après le point d’entrée du faisceau dans le corps.
  • Rayons X (photons) : peuvent pénétrer en profondeur dans les tissus mais l’énergie déposée est maximale quelques centimètres seulement après le point d’entrée et diminue ensuite faiblement. Ainsi la majorité des tissus (sains et cancéreux) situés dans l’axe du faisceau sont irradiés fortement ce qui implique de déposer une dose relativement faible sur les cellules cancéreuses pour ne pas trop irradier les tissus sains.
  • Faisceaux de hadrons (protons ou ions carbones) : peuvent pénétrer en profondeur et une grande partie de l’énergie du faisceau est déposée une dizaine de centimètres après le point d’entrée du faisceau dans les tissus. De cette manière, la zone d’entrée du faisceau est peu irradiée, la zone où se situe la tumeur peut être fortement irradiée et la zone située derrière n’est pratiquement pas irradiée.

 Dépôts d’énergie de différents faisceaux (électrons, rayons X, protons) en fonction de la profondeur dans les tissus.

L’hadronthérapie

L’hadronthérapie permet ainsi de tuer des cellules cancéreuses enfouies à l’intérieur du corps comme dans le cerveau sans chirurgie tout en préservant au maximum les cellules saines autour de la tumeur. Mais au fait, c’est quoi un hadron ?

Les hadrons sont une classe de particules sensibles à l’interaction forte, c’est-à-dire à la force qui permet la cohésion des noyaux atomiques. Toutes les particules constituées de quarks comme les protons, neutrons ou n’importe quel noyau atomique sont des hadrons (contrairement aux leptons et aux bosons comme les électrons et les photons, voir mon billet sur le bestiaire des particules pour plus de détails).

Les hadrons ont cette caractéristique de déposer toute leur énergie d’un coup après avoir traversé une certaine épaisseur de matière, c’est ce que les physiciens appellent le pic de Bragg (voir la courbe rouge dans le dessin plus haut). Grâce aux bonnes connaissances que l’homme a acquises sur le fonctionnement de ces particules il est capable de fabriquer des accélérateurs de particules ultra-précis permettant de déposer l’énergie de ces hadrons exactement sur une tumeur de quelques centimètres enfouie au milieu de notre corps. Tout ça pour dire que la recherche fondamentale en physique des particules est indispensable pour développer de telles thérapies et que de très nombreux laboratoires en physique des particules comme le CERN ou GSI collaborent étroitement avec les instituts médicaux pour développer de telles thérapies. Aujourd’hui 2 types d’hadronthérapie existent et une vingtaine de centres en sont équipés dans le monde:

  • La protonthérapie qui utilise des protons. Plus de 30 centres sont opérationnels (à Orsay et à Nice pour la France), voir la liste ici.
  • L’hadronthérapie qui utilise des ions carbones. 5 centres sont opérationnels en  en Allemagne, en Chine et au Japon,  et plusieurs autres centres sont en construction (à Caen et à Lyon pour la France). Les ions carbones sont encore plus précis que les protons et permettent de déposer des doses plus importantes sur les cellules tumorales permettant ainsi de vaincre les tumeurs les plus radiorésistantes.

Salle de contrôle du synchrocyclotron au Centre de Protonthérapie d’Orsay.

Ces centres ont permis de traiter environ 7000 personnes dans le monde ces dernières années contre plusieurs millions par radiothérapie conventionnelle. En effet, cette méthode est relativement récente et est également plus chère que les autres méthodes mais elle est surtout plus difficile à mettre en œuvre à cause des équipements très sophistiqués à mettre en place. Cependant, elle est beaucoup plus précise et permet de soigner des tumeurs qui sont inopérables et non curables par radiothérapies conventionnelles lorsque ces dernières sont localisées près d’organes sensibles. De plus, les hadrons sont beaucoup plus efficaces pour tuer les cellules cancéreuses que les photons, de 2 à 10 fois plus efficaces selon les cas.

L’hadronthérapie est principalement utilisée pour soigner les tumeurs du cerveau non atteignables par neurochirurgie, certains cancers de l’œil qui nécessitaient une énucléation auparavant (extraction de l’œil) et certains cancers chez les enfants qui sont plus sensibles aux radiations et donc plus fragiles face aux techniques de radiothérapies conventionnelles utilisant des rayons X.

Je vous conseille ce petit reportage de 4 minutes sur le centre de radiothérapie de Heidelberg qui est en étroite collaboration avec GSI à Darmstadt: http://www.allodocteurs.fr/actualite-sante-hadrontherapie-une-radiotherapie-specifique-2631.asp?1=1

Radiothérapie avec de l’antimatière ?

Des recherches sont actuellement en cours au CERN à Genève sur la possibilité d’utiliser de l’antimatière, des antiprotons plus exactement, pour traiter les cancers. Cette expérience dénommée ACE pour Antiproton Cell Experiment, étudie comment l’antimatière peut détruire les cellules cancéreuses par annihilation matière/antimatière. Actuellement, l’expérience bombarde des cellules vivantes de hamsters avec des protons puis avec des antiprotons (pour voir la différence), et il apparaît qu’une énergie 4 fois inférieure avec des antiprotons permet de détruire autant de cellules cancéreuses tout en diminuant significativement la dose déposée dans les tissus sains.

L’expérience ACE au CERN étudiant l’effet des antiprotons sur des cellules de hamsters. © CERN.

Si cette expérience est concluante, peut-être que de futurs partenariats permettraient de développer dans quelques décennies une « antiproton thérapie » permettant de soigner des cancers difficiles d’accès en irradiant encore moins les cellules saines autours des tumeurs.

 

Le LHC et le Boson de Higgs

Non ce n’est pas une fable de la Fontaine mais une épopée de la physique moderne : la traque d’une particule invisible par un accélérateur de particules de 27 km de circonférence…

Aujourd’hui à 14h, une conférence donnée au CERN par les 2 porte-paroles des expériences phares du LHC (ATLAS et CMS) faisait un résumé des résultats obtenus grâce à l’accélérateur de particules LHC lors de la campagne de collisions 2011. Je vais donc essayer de vous faire un résumé compréhensible de cette conférence à laquelle j’ai assisté cette après-midi.

Les résultats des 2 expériences indépendantes sont très similaires et indiquent deux grandes tendances:

  • Le modèle standard de la physique des particules fonctionne comme prévu à 7 TeV (l’énergie maximale des collisions du LHC en 2011).
  • Le boson de Higgs n’a plus beaucoup d’endroits où se cacher et il commencerait à montrer le bout de son nez vers une énergie de 125 GeV mais pas encore de quoi annoncer sa découverte.

 Le modèle standard

Le modèle standard de la physique des particules est la théorie physique utilisée aujourd’hui pour décrire la matière et ses interactions. L’objectif des accélérateurs de particules est de tester cette théorie autant que possible pour voir si la nature est bien celle que les physiciens imaginent, voir ce billet que j’ai écrit il y a quelques mois à ce sujet.

Le LHC ouvre à présent une nouvelle gamme d’énergie encore jamais explorée par les accélérateurs et c’est pour cela que les physiciens sont un peu fébriles. Après plusieurs milliards de milliards de collisions effectuées et analysées durant cette année 2011, les particules se sont comportées comme la théorie le prévoit et le modèle standard se trouve ainsi conforté.

 Le Boson de Higgs

Le boson de Higgs est une particule un peu à part dans ce modèle standard car elle permet d’expliquer la masse de toutes les autres particules, constituant ainsi la pierre angulaire de cette théorie. Le problème est que ce boson de Higgs a une section efficace extrêmement faible, ce qui signifie qu’il faut faire des milliards de milliards de collisions pour voir 1 seul boson de Higgs, ce qui explique entre autre pourquoi aucun accélérateur n’a encore été capable de le voir. Voir ce billet qui explique tout ça par rapport à la campagne de collisions du LHC en 2010.

De plus, les physiciens ne savent pas exactement quelle est la masse du Higgs, ou son énergie, rappelez-vous que masse et énergie sont équivalentes selon la relativité restreinte d’Einstein (E= mc²). Plusieurs théories existent et peuvent expliquer le boson de Higgs à différentes énergies mais pour trancher, il faut le « voir » et donc faire des expériences, ceci étant le but du LHC. Les accélérateurs vont donc balayer petit à petit des bandes d’énergies pour voir si le boson de Higgs se cache à l’intérieur.

Deux grands principes sont à garder à l’esprit:

  • Plus l’énergie de la particule recherchée est importante, plus l’accélérateur doit être puissant.
  • Plus la section efficace est petite, plus le nombre de collisions doit être important pour voir statistiquement la particule recherchée.

Le LHC essaye donc de faire le plus de collisions possible à des énergies les plus hautes possibles pour « voir » ce boson de Higgs.

Comment « voir » le Higgs ?

Le boson de Higgs n’est pas directement détectable car sa durée de vie est trop faible. On cherche donc des particules qui pourraient être issues de sa désintégration en d’autres particules. Selon la masse du Higgs (toujours inconnue), les schémas de désintégration sont différents les uns des autres. Dans le cas du LHC, on cherche un boson de Higgs ayant une masse comprise entre 115 GeV et 600 GeV car les accélérateurs précédents ont écarté un Higgs en dessous de 115 GeV, et au dessus de 600 GeV le modèle standard ne marche plus.

Au total, les expériences ATLAS et CMS balayent ainsi une dizaine de schémas de désintégration possibles pour le Higgs. Par exemple dans l’hypothèse d’un Higgs léger entre 110 et 150 GeV, il peut se désintégrer en 2 photons gamma émis dans 2 directions opposées.

C’est cette dernière désintégration qui semble aujourd’hui sortir un peu du lot suite aux observations faites par ATLAS et CMS. Mais encore une fois, pour être certain que les mesures sont fiables, il faut valider statistiquement les mesures accumulées ce qui nécessite une quantité de données absolument gigantesque tant l’évènement de voir un Higgs est rare.

Les 2 expériences ont vu se dessiner un pic dans les collisions analysées qui indiquerait que le boson de Higgs aurait une masse proche de 125 GeV, voir les graphiques ci-dessous. Pour lire ces graphiques,  tant que la courbe noire (mesure) reste dans les bandes jaunes ou vertes, on ne peut rien dire car ces 2 courbes symbolisent l’incertitude des mesures. En revanche, dès que des données commencent à « sortir » de ces bandes, c’est que le Higgs pourrait se cacher à cet endroit.

Résultats préliminaires de ATLAS et CMS dans la recherche du Boson de Higgs dans l’hypothèse d’un boson de Higgs autour de 125 GeV issu d’une désintégration en 2 photons gamma.

Conclusion

Une tendance commence donc à apparaître pour un Higgs vers 125 GeV mais ce n’est pas encore assez pour certifier que le Higgs existe à cette énergie. Pour l’instant ATLAS estime la masse possible entre 116 GeV et 130 GeV et CMS entre 115 GeV et 127 GeV (les zones autour ont été exclues).

Pour valider ce résultat, il faudra accumuler encore plus de données pour voir si ce pic va être lissé ou bien s’accentuer, auquel cas l’existence du Higgs ne fera plus de doute. Si les attentes du CERN pour 2012 sont remplies, il y aura 4 fois plus de données à analyser dans un an et cette accumulation de collisions permettra de trancher la question du boson de Higgs avec 99% de certitude.

Fable à suivre…

Le vide

Qu’est-ce que le vide ? L’absence de matière ? Le rien ? Le néant ? La vacuité ? Selon le philosophe, l’ingénieur ou le physicien, la réponse peut varier. Ce billet va donc essayer de faire la lumière sur le vide…

Le vide: question de densité

Quand on veut évaluer la quantité de matière dans un espace défini, on utilise la densité (qui se mesure en kilogramme par mètre cube). Si on considère le vide comme l’absence de matière « pesante », faire le vide parfait consiste donc à avoir une densité de zéro kilogramme par mètre cube. Mais attention, ce n’est pas parce qu’il n’y a pas de matière « pesante » qu’il n’y a rien du tout comme on pourrait le croire de la lumière par exemple, puisque cette dernière n’a pas de masse. La définition devient alors plus ardue… On en reparle à la fin du billet…

 Le vide: question de pression

Cependant, pour évaluer le « vide », on utilise plus volontiers la pression qui est en fait directement liée à la densité: pour un gaz parfait, la pression est proportionnelle à la température multipliée par la densité (P= \rho \cdot R \cdot T). En revanche, si la température diminue, la pression diminue également donc lorsque l’on veut une très basse pression (et donc un vide poussé), il faut d’une part diminuer la densité, et d’autre part la température.

Je vous rappelle que la pression se mesure en pascal. Un pascal est équivalent à une force de 1 newton appliquée à 1 m², comme si on posait une masse de 100 grammes sur un mètre carré (sur Terre). La pression atmosphérique (environ 1 bar) est égale à 100 000 pascals, ce qui correspond à une masse de 10 tonnes par mètre carré sur Terre! Quand vous êtes allongé, il s’exerce donc une masse d’environ 10 tonnes d’air sur vous mais comme à l’intérieur de votre corps il règne une pression équivalente, les forces exercées se compensent et c’est pour cette raison que nous ne ressentons pas vraiment ces 10 tonnes d’air…

En revanche, dans un pneu de voiture gonflé à 2 bars, la pression différentielle entre la pression dans le pneu et la pression à l’extérieure est de 1 bar et il s’applique alors effectivement une force équivalente de 10 tonnes par mètres carré. De même, si vous faites le vide dans une enceinte (le vide parfait correspondrait à une pression égale à zéro), il s’exerce une force d’environ 10 tonnes par mètre carré.

Conclusion: lorsque vous voulez faire le vide dans une enceinte, cette dernière doit être suffisamment résistante mécaniquement pour supporter la différence de pression entre les 2 côtés des parois.

 Des molécules qui s’agitent

La pression est en fait due aux chocs des molécules contre les parois d’une enceinte. A 1 bar et à 20°C, les molécules d’air se déplacent en moyenne à 1700 kilomètres/heure et parcourent en moyenne 70 nanomètres (70 milliardième de mètre) entre 2 chocs, autant vous dire que notre air qui nous paraît si anodin est le théâtre d’un flipper géant à grande vitesse. Si la température et si la pression baisse, la vitesse des molécules va diminuer naturellement et la distance entre 2 chocs également. Par exemple, pour 0.1 pascal, les molécules parcourent 5cm entre 2 chocs et à 0.0000001 pascal, nos petites molécules parcourent 500 km avant de se rencontrer !

 Distribution des vitesses pour des molécules de diazote à différentes températures. © V. Baglin, Vacuum in Accelerators.

 Le vide de l’ingénieur

Pour l’ingénieur, la définition du vide est simplement l’absence de matière mais dans une moindre mesure. On parle de différentes qualités de vide selon la pression qui est directement liée à la densité ou au nombre de molécules par centimètre cube. N’oublions pas que dans l’air que nous respirons à 1 bar, il y a environ 10 milliards de milliards de molécules par centimètre cube !

  • Le vide primaire est défini par une pression de l’ordre de 100 pascals (soit mille fois moindre que la pression atmosphérique). Dans ce cas, un cm3 contient tout de même encore 10 millions de milliards de molécules !!!
  • Le vide moyen est entre 0.1 et 100 pascals.
  • Le vide secondaire a une pression comprise de 0.1 à 0.00001 pascal (soit encore un milliard de molécules par cm3).
  •  L’ultra-vide se situe entre 1 milliard et 10 000 molécules par cm3 (entre 10-5 et 10-10 pascal).
  • L’ultra ultra-vide est à moins de 10 000 molécules par cm3. Le trajet moyen d’une molécule avant d’en rencontrer une autre est alors d’environ 100 000 kilomètres et la pression est inférieure à 10-10 pascals (0.0000000001 pascal).

A titre de comparaison, la pression sur la Lune est de 10-7 pascal, c’est donc un ultra-vide (on sait d’ailleurs reproduire un tel vide sur Terre). En revanche, dans le vide interstellaire (entre les étoiles, loin de tout objet céleste) la pression est d’environ 1 atome par cm3, chose que l’homme n’a jamais réussi à atteindre sur Terre.

Comment faire le vide ?

Eh bien c’est très facile, il faut faire comme les Shadoks : Pomper, Pomper, Pomper ! Il existe différents types de pompe, chacune ayant ses particularités pour différentes qualités de vide. Les pompes sont utilisées en différents étages et pour différentes utilisations. Elles peuvent être utilisées seulement pendant la phase de pompage ou uniquement pour maintenir le vide. En effet, il ne suffit pas de faire le vide une fois et de mettre un bouchon pour maintenir le vide car tous les matériaux « dégazent », c’est-à-dire qu’ils libèrent naturellement des molécules. Ce phénomène diminue lorsque la température diminue mais reste néanmoins toujours présent. Je ne vais pas entrer dans les détails des différentes pompes mais simplement vous en présenter une que j’aime bien.

La pompe turbomoléculaire est une pompe permettant de faire un vide secondaire, voir un ultra-vide jusqu’à 1 milliardième de pascal. Elle est généralement utilisée pendant la phase de pompage pour « faire » le vide, pas pour le maintenir. Le principe de cette pompe consiste à frapper les molécules qui passent dans la pompe avec des roues à ailettes qui tournent à très haute vitesse pour les envoyer dans une direction bien précise. Les ailettes ont des tailles différentes permettant de « percuter » des molécules de tailles différentes (hélium, argon, diazote, dihydrogène, etc.). Pour vous donner un ordre d’idée, une pompe turbo tourne à environ 36000 tours par minute, soit 600 tours par secondes, ce qui correspond à une vitesse à l’extrémité des ailettes de plus de 720 km/h (2/3 de la vitesse du son). Les ailettes peuvent être montées sur roulement à billes pour tourner mais désormais, un système magnétique permet de faire tourner les ailettes sans frottement en les faisant léviter dans un champ magnétique.

Les applications du vide

Une question importante: à quoi sert le vide ? Eh bien, à de très nombreuses applications en matière d’ingénierie ou de recherche. En voici quelques exemples :

  • Toutes les techniques de dépôts de couches minces se réalisent sous vide comme la réalisation de couches minces pour les verres antireflets des lunettes ou pour les revêtements de matériaux très techniques dans les voiliers ou les formules 1.
  • La fabrication de circuits intégrés et de composants électroniques se fait également sous vide pour éviter la pollution des circuits avec des impuretés.
  • Les accélérateurs de particules nécessitent un ultra-vide pour permettre la circulation de faisceaux de particules sur plusieurs kilomètres sans provoquer de chocs avec des molécules résiduelles. A titre d’exemple, le vide pour les faisceaux du LHC est de 10-9 pascal sur 27 kilomètres !
  • De nombreuses expériences de physique utilisent des vides secondaires voire des ultra-vides pour différentes expériences à très basse température et pour limiter les interactions avec d’autres molécules, particulièrement en physique quantique.
  • La cryogénie nécessite un vide secondaire pour l’isolation thermique et réduire les pertes thermiques par convection.
  • Le Microscope Electronique à Balayage (voir ce billet pour plus de détails)
  • Le Microscope à Force Atomique pour manipuler les atomes un à un.

 Physique Quantique

En physique quantique le vide est défini comme « un état dans lequel tous les champs ont une énergie minimale ». Le vide est donc plein d’énergie, c’est ce que l’on appelle le vide quantique. Cela signifie qu’en physique quantique le « rien » n’existe pas. Une absence de matière peut donc être envisagée théoriquement (quant à la pratique, c’est impensable) mais une absence d’énergie est totalement exclue dans les théories modernes de la physique. Le simple fait d’avoir un champ électromagnétique (de la lumière) montre bien que même un espace dépourvu de matière n’est pas vide.

 La force de Casimir

Désolé, rien à voir avec l’île aux enfants et la grosse peluche jaune. Cette force du vide tire son nom du physicien néerlandais Hendrik Casimir (1909-2000) qui l’avait prédite en 1948 et qui fut observée 10 ans plus tard en laboratoire alors que les technologies avaient suffisamment évolué.

 

La prédiction de Casimir (le physicien) était la suivante : « Si on place parallèlement 2 plaques conductrices non chargées dans vide à une faible distance l’une de l’autre, une force tend à rapprocher les 2 plaques ». Cet effet est directement lié aux énergies du vide quantique et a été observé un grand nombre de fois en laboratoire. Comme quoi le vide n’est jamais vide !

Bref, vous l’aurez compris, la maxime : « la nature a horreur du vide » est une réalité car la nature tend à remplir le vide de manière à équilibrer les pressions et le vide n’est jamais vraiment vide… Einstein a notamment écrit que « les objets physiques ne sont pas dans l’espace, mais ces objets ont une étendue spatiale. De la sorte, le concept d’espace vide perd son sens».

L’astrophysique : la physique des astres

J’ai une petite nièce qui veut devenir astrophysicienne, un métier qui peut faire effectivement rêver, mais en quoi consiste le métier d’astrophysicien ?

simu magneto

Premièrement, il faut distinguer les différentes disciplines de l’étude des astres (« astro » en grec) de manière à bien positionner les disciplines les unes par rapports aux autres. A noter que je ne parlerai pas de l’astrologie qui n’est pas une science mais un ensemble de croyances et de traditions humaines qui peuvent varier selon les civilisations.

L’astronomie

L’astronomie est la science qui s’occupe de l’observation et de la mesure des propriétés des astres (leur distance, leur taille, leur intensité, leur composition chimique, etc.) ainsi que de tous les phénomènes extra-terrestres. L’astronomie est donc essentiellement basée sur les techniques d’observation comme les télescopes permettant de détecter des rayonnements électromagnétiques (la lumière, les ondes radios, etc.) issus des différents astres. Voir un précédent billet sur La nature de la lumière ou l’électromagnétisme pour plus de détails
sur le rayonnement électromagnétique.

VLT

Le plus grand système de télescopes du monde en fonctionnement: le
Very Large Telescope (VLT) situé sur un plateau à 2635 m d’altitude au Chili © ESO.

L’astronomie est un domaine très vaste contenant de nombreuses disciplines. On peut distinguer les disciplines selon le type de rayonnement observé (astronomie visible, radio, infrarouge, gamma, neutrino, X, ultraviolet, gravitationnelle) ou selon le type d’objet observé comme les planètes, le soleil, les étoiles, notre galaxie, les objets hors de notre galaxie (galaxies, pulsars, super novae, trous noirs, quasars, etc.). Toutes ces disciplines utilisent des technologies bien spécifiques pour observer et mesurer ces différents objets célestes.

L’astrophysique

L’astrophysique, comme vous l’avez sûrement compris, est un mélange d’astronomie et de physique. Plus précisément, l’astrophysique est une branche entière de la physique s’intéressant à tous les phénomènes physiques qui se produisent dans l’espace.
La différence avec l’astronomie est que l’astrophysique a pour mission d’expliquer les phénomènes mis en jeu au sein des astres et de l’Univers alors que l’astronomie s’intéresse à leur observation. On trouve ainsi différentes branches en astrophysique, selon le sujet d’étude ou selon la théorie utilisée pour expliquer les phénomènes.


La planétologie est la science qui étudie toutes les planètes et autres corps en
orbite
autour d’une étoile comme les satellites naturels, les astéroïdes, les comètes, les micrométéorites (poussières de moins d’un gramme). Il est donc question ici des objets de notre système solaire (la Terre et la Lune incluses) mais également des planètes situées en dehors de notre système solaire depuis la découverte de la première exoplanète en 1995. La planétologie est fortement pluridisciplinaire puisqu’elle s’intéresse à la géologie, la géophysique, la chimie, la cartographie, la climatologie, etc.

L’astrophysique stellaire étudie quant à elle les étoiles. Elle essaye d’expliquer et de comprendre leur naissance, leur développement dans le temps ainsi que leurs structures parfois complexes. Elle fait donc appel à la thermodynamique, la physique des plasmas, la physique nucléaire et l’étude des rayonnements.

L’astrophysique galactique s’intéresse aux galaxies et cherche à connaitre comme pour les étoiles leur formation et leur évolution ainsi que leurs propriétés physiques et leur répartition. La statistique est ainsi fortement utilisée dans cette discipline en plus des autres domaines nécessaires à l’astrophysique stellaire.

 nebuleuse helix

La nébuleuse de l’hélice (aussi appelée l’œil de Dieu) située à 700 années-lumière de la Terre prise par le VLT  © ESO.

La cosmologie est assez emblématique de l’astrophysique grâce à la théorie du Big-bang connue du grand public et très populaire, et parfois vivement controversée (principalement par les créationnistes). La cosmologie s’intéresse comme son nom l’indique au cosmos, c’est-à-dire à l’Univers dans son intégralité (on parlait de cosmos du temps de la Grèce antique, il désignait alors un monde clos ordonné, s’opposant au chaos). Les cosmologistes comme on les appelle essayent de retracer l’histoire de notre Univers vieux de 14 milliards d’années, ce sont un peu les historiens du cosmos. Il ne faut pas oublier que regarder loin dans l’espace revient à regarder loin dans le temps puisque la lumière voyage à une vitesse finie (300 000 km/s). Lorsqu’on regarde une galaxie à 13 milliards d’années-lumière, on la regarde telle qu’elle était il y a 13 milliards d’années (soit quelques centaines de millions d’années seulement après le Big-bang) : il s’agit du temps nécessaire pour que la lumière qu’elle émet atteigne notre œil.

L’astrophysique relativiste permet de comprendre les phénomènes physiques astronomiques qui se déroulent à très haute pression et densité d’énergie ou à des vitesses proches de celles de la lumière comme dans les trous noirs ou les étoiles à neutrons. Ces phénomènes ne sont généralement pas explicables par la physique dite « classique » comme la mécanique newtonienne et doivent faire appel aux théories relativistes comme la relativité générale ou la relativité restreinte, initialement
élaborées par Einstein au début du 20ème siècle.

L’astrophysique nucléaire est une discipline transverse pouvant étudier les étoiles et l’univers lorsque des réactions nucléaires sont réalisées. Le meilleur exemple est la réaction nucléaire de fusion dans les étoiles transformant l’hydrogène en hélium.

L’astrophysique des particules traite les phénomènes des hautes énergies comme l’étude des rayons cosmiques.

 soleil

Le soleil est le siège de puissantes réactions thermonucléaires
de fusion transformant l’hydrogène en hélium. © NASA.


Qui sont les astrophysiciens ?

Les astrophysiciens sont des gens normaux (si si, je vous assure) ayant une formation en physique leur permettant de maîtriser de nombreuses disciplines de la physique telles que la mécanique des fluides, la thermodynamique, la mécanique newtonienne, la mécanique relativiste, la physique des particules, etc. qui sont essentielles pour la compréhension des phénomènes astronomiques très divers et variés.

Aujourd’hui, la majorité des disciplines de l’astrophysique consistent de plus en plus à élaborer des modèles mathématiques basés sur les équations de la physique pour réaliser des simulations numériques sur ordinateurs. Ces simulations permettent de confirmer ou infirmer les différentes théories des astrophysiciens en les comparant avec les observations des astronomes. L’outil informatique et la modélisation sont donc des composantes transverses indispensables à presque toutes les branches de l’astrophysique.

 simu cea

Simulation de la galaxie NGC 4254 (à droite) reproduisant fidèlement la distribution du gaz et la concentration de gaz de Virgo HI21 observé (à gauche). © CEA/SAp. 

Pourquoi la recherche fondamentale est-elle fondamentale ?

C’est en écoutant le discours de Rolf Heuer, le Directeur Général du CERN, au forum économique mondial de Davos que j’ai voulu aborder ce sujet ici.

Rolf nous explique que ce n’est pas en persévérant dans la recherche appliquée sur la bougie que l’homme a découvert l’ampoule électrique à incandescence ! C’est bien en faisant de la science fondamentale, en voulant comprendre l’essence même de la nature, que l’homme a mis en évidence la nature de l’électricité et son fonctionnement, sans vouloir à priori trouver un système d’éclairage pour remplacer la bougie ou trouver une nouvelle source d’énergie.

Faraday.jpg

Cette problématique n’est pas nouvelle : Michael Faraday, un des pionniers dans la compréhension de l’électricité, fut à l’époque critiqué au sujet de ses recherches considérées comme « inutiles ». Il aurait répondu à William Gladstone au sujet de l’électricité : « Un jour, on pourra prélever des impôts dessus ». Faraday ne comptait pas si bien dire 50 ans avant la découverte de la lampe à incandescence par Thomas Edison puis de l’utilisation massive de l’électricité dans nos sociétés. Cette petite anecdote  nous permet de nous rendre compte qu’il est extrêmement difficile d’évaluer à un moment donné les retombées futures d’une découverte en recherche fondamentale.

 Délai entre recherche fondamentale et application

Le délai entre la recherche fondamentale et son application peut être très rapide voire instantané comme la découverte des rayons X et de la radiographie par Wihelm Röntgen en 1895. Cependant, ce laps de temps peut être beaucoup plus long : c’est le cas de la découverte du spin des particules (une propriété quantique fondamentale des particules) en 1925 et de l’augmentation des capacités des disques durs en 1997
(spintronique).

Bien évidemment, avant d’utiliser le spin des particules  dans nos disques durs d’ordinateurs, il fallait d’abord inventer l’ordinateur et le disque dur, qui eux-mêmes dépendent de centaines de découvertes fondamentales et il est donc normal que Samuel Goudsmit et George Uhlenbeck, les découvreurs du spin en 1925, ne puissent pas penser aux disques durs…

Ce raisonnement peut paraitre absurde mais il est pourtant important de le mentionner pour comprendre que le monde évolue vite et que de nombreuses applications de la recherche fondamentale peuvent être inenvisageables avec les connaissances de l’époque. Aujourd’hui, nous vivons de plus en plus dans une société de l’immédiateté où tout le monde (politiques incluses) veut voir des résultats immédiats. Il faut bien comprendre que la Recherche ne marche pas de cette manière et que la Science a besoin de temps!

DD_atome.jpg

Les disques durs utilisent aujourd’hui la magnétorésistance géante, un phénomène quantique issu du spin des électrons (recherches issues du Prix Nobel français Albert Fert)

 L’explosion de l’information du 20ème siècle

Certes la Science d’aujourd’hui va plus vite qu’au 19ème siècle avec les moyens de télécommunications ultrarapides mais la quantité d’information a littéralement explosée et il devient de plus en plus difficile d’appréhender toute la recherche d’un domaine. Aujourd’hui, quand on fait un doctorat, on a besoin d’une année entière (après les 5 ans d’études universitaires réglementaires) pour faire l’état de l’art d’un domaine de la science souvent restreint.

Pour le dire plus simplement: il faut 1 année complète d’étude à un universitaire pour comprendre où en est la science dans un tout petit domaine que seule une poignée de chercheurs comprend vraiment. C’est pourquoi il est important de faire de la recherche dans un environnement pluridisciplinaire car aucun chercheur ne peut maitriser plusieurs domaines, contrairement aux scientifiques d’antan (disons jusqu’à la fin du 19ème siècle) qui cumulaient les fonctions de philosophes, médecins et scientifiques dans tous les domaines (mécanique, optique, thermodynamique…).

 chercheur.jpg

Différences entre un scientifique du 17ème siècle (René Descartes) et du 21ème siècle (John Ellis)

 Des exemples tout au long de ce blog

Je voulais vous citer une série de liens entre recherche fondamentale et applications qui ont déjà fait l’objet de billets dans ce blog :

ARVA (Appareil de Recherche de Victime d’Avalanches) : Cet appareil permettant de sauver des vies en cas d’avalanches est basé sur l’émission et à la réception des ondes électromagnétiques découvertes à la fin du 19ème siècle et mises en équation par Maxwell en 1865.

Charpak et sa chambre à fils : Georges Charpak inventa un détecteur de particules bien particulier pour le CERN en 1968 et ce type de détecteur est aujourd’hui utilisé en imagerie médicale pour faire de la radiologie 3D.

Comment mesurer la température d’une étoile : On peut mesurer la température d’un objet (comme une étoile) à partir de son spectre électromagnétique via l’équation de Planck expliquant le rayonnement des corps noirs.

L’échographie : Cette technique
d’imagerie médicale bien connue des futures mamans est basée sur l’émission et la réception d’ultrasons, ondes sonores découvertes en 1883 par Galton.

La datation radiométrique au Carbone 14 : Cette méthode inventée en 1960 par Libby pour dater des échantillons organiques est directement issue de la découverte de la radioactivité par Becquerel en
1896.

Le LASER : En 1917, Einstein découvre
l’émission stimulée des atomes. Plus de 40 ans plus tard en 1960, ce phénomène est utilisé pour produire une source de lumière cohérente par Maiman: le LASER.

Le Microscope Electronique a Balayage : Ce microscope permettant de réaliser des images exceptionnelles depuis les années 60  n’aurait jamais pu voir le jour sans la découverte de la
structure de l’atome et des électrons du début du 20ème  siècle.

Sadi Carnot : Toutes les machines thermiques,
des machines à vapeurs aux moteurs d’avions à réactions en passant par les réfrigérateurs essayent de se rapprocher de la machine de Carnot, la machine thermique idéale. 

Le web : Il ne faut pas non plus oublier que pour
faire de la recherche fondamentale, il faut parfois construire des machines très complexes comme des accélérateurs de particules, et que pour construire de telles machines, il faut faire de la recherche appliquée et développer de nouvelles technologies. Un des meilleurs exemples est peut être le WEB : C’est en voulant échanger des informations issues de la physique des particules que Tim Berners Lee a inventé le WEB au CERN en 1989. Aujourd’hui, presque tous les foyers des pays développés l’utilisent.