Archives pour l'étiquette Thermodynamique

Le démon de Maxwell

 Mes deux domaines scientifiques préférés sont sans doute la thermodynamique et la théorie de l’information. L’histoire a su allier ces 2 grands domaines avec élégance pour comprendre le paradoxe du démon de Maxwell.

En 1871, James Clerk Maxwell (celui de la théorie électromagnétique) tente de contredire le second principe de la thermodynamique en inventant une expérience de pensée dans laquelle il invoque un « démon » mais ce n’est véritablement qu’en 1949 que Léon Brillouin, en utilisant la théorie de l’information, va permettre de lever le voile sur le paradoxe de cette expérience de pensée et redonner au second principe de la thermodynamique son caractère universel.

Le second principe de la thermodynamique

C’est un des principes de la physique les plus intéressants dans le sens où il cache de nombreuses implications. Il est au premier abord difficile à comprendre à cause de la notion d’entropie qui n’est pas facile à appréhender mais on l’entend souvent de la manière vulgarisée suivante :

« Le désordre d’un système isolé ne peut qu’augmenter dans le temps »

 L’entropie d’un système est en quelque sorte son désordre. Si tous les atomes d’un gaz bougent lentement, il y a peu de chocs entre eux et l’entropie sera alors faible (et le gaz sera froid). Au contraire, si tous les atomes d’un gaz bougent rapidement, les chocs entre eux sont nombreux et l’entropie est grande (et le gaz sera chaud). On considère ici des systèmes isolés, c’est-à-dire qui n’échangent ni matière ni énergie avec l’extérieur (donc pas de chaleur non plus).

 Le second principe stipule donc que toutes les transformations que peut subir un système isolé génèrent de l’entropie (du désordre) et que cette grandeur ne peut donc qu’augmenter dans le temps. Ceci veut dire que pour créer de l’ordre (faire baisser l’entropie), un agent extérieur doit forcément intervenir. Notre Univers voit donc son entropie totale augmenter vers l’infinie en permanence vue que rien n’est externe à l’Univers par définition.

 Une des conséquences importantes de ce principe est que toutes les transformations que peut subir un système isolé ne peuvent se dérouler que dans un sens précis en suivant « la flèche du temps ». Les transformations sont ainsi qualifiées d’irréversibles dans le temps car génératrices d’entropie. Quelques exemples de transformations irréversibles évidentes dans la vie quotidienne :

  • Lorsque l’on mélange du sirop dans un verre d’eau, jamais le sirop et l’eau ne vont complètement se re-séparer spontanément dans le verre.
  • Lorsque l’on mélange de l’eau chaude et de l’eau froide dans un verre, jamais l’eau chaude et l’eau froide ne vont complètement se re-séparer spontanément dans le verre.
  • Si un verre tombe par terre et se casse, jamais il ne se reconstituera par lui-même.

L’expérience de Maxwell

L’expérience pensée par Maxwell pour contredire le second principe de la thermodynamique est relativement simple à comprendre mais extrêmement difficile à mettre en œuvre, d’où la création de ce « démon ».

 

Imaginons 2 compartiments contigus dans lesquels on a mis d’un coté un gaz froid et de l’autre un gaz chaud. Il existe une porte entre ces 2 compartiments et un démon peut l’ouvrir et la fermer à sa guise. Le démon, malicieux, ouvre la porte de manière à ce que les atomes rapides passent dans le compartiment chaud et que les atomes lents passent dans le compartiment froid. Ainsi, plus le temps s’écoule et plus le gaz chaud se réchauffe et plus le gaz froid se refroidit.

Cette observation est en contradiction avec le second principe de la thermodynamique car les 2 compartiments voient leur entropie décroître : en effet, il y a plus d’ordre qu’au départ comme on a séparé les atomes rapides de ceux plus lents. La thermodynamique nous dit que dans le temps, les températures des 2 compartiments devraient converger vers la même valeur alors qu’ici ce n’est pas le cas.

La levée du paradoxe

Pour la thermodynamique, l’entropie a été redéfinie en 1877 par Boltzmann de la manière suivante :

La formule de Boltzmann sur sa tombe à Vienne

 Ici, « S » représente l’entropie, « k » est une constante (de Boltzmann) et « W » correspond au nombre d’états macroscopiques que peut prendre le système.

Plus de 70 ans plus tard, en 1948, Claude Shannon définit à son tour un genre d’entropie qui correspond à la quantité d’information minimum pour transmettre un message. Cette entropie est définie par :

I= K log P

avec « I » la quantité d’information, « K » une constante et « P » l’ensemble des états possibles du système considéré.

 

Claude Shannon (Alfred Eisenstaedt/Time & Life Pictures/Getty Image)

 A priori ces deux concepts n’ont de commun que leur expression mathématique mais Brillouin démontre qu’il s’agit bien de la même entropie. Je vous conseille de lire cette analyse Bibnum pour plus de détails où l’on peut lire ceci :

 Pour obtenir de l’information sur un système, il faut le mesurer, cette mesure augmente l’entropie de l’univers d’une quantité exactement égale à la quantité d’information obtenue. De cette manière Brillouin établit une échelle absolue de la mesure de l’information et à cette fin créé une nouvelle grandeur : La néguentropie, ou entropie négative.

 Il est évident que dans l’expérience de Maxwell, notre démon a besoin de connaître la vitesse des atomes pour les laisser passer ou pas par la porte. Brillouin montre alors que cette « mesure » faite par le démon va créer de la néguentropie de manière à compenser exactement la baisse d’entropie du système : le deuxième principe reste donc valide car l’entropie du système « enceintes+gaz+porte+démon » reste constante !!

 Applications de l’entropie de Shannon

Le calcul de l’entropie de Shannon permet de coder un message sous forme numérique avec le moins de bits possible sans perdre de l’information comme dans les algorithmes de compression sans perte (voir ce billet sur la compression de données).

 Elle est aussi utilisée dans le domaine de l’imagerie médicale pour comparer des images ainsi qu’en génétique pour identifier les parties des chromosomes contenant plus d’informations.

 

Sadi Carnot


Sadi Carnot est considéré comme le père de la thermodynamique moderne en introduisant plus ou moins le deuxième principe de la thermodynamique.

J’ai déjà consacré 2 billets à la thermodynamique sur ce blog : Thermodynamique : Les bases et Thermodynamique : Principes et Applications.  J’ai donc déjà parlé de Sadi Carnot mais je voulais vous informer que je viens de publier sur le site de la bibliothèque numérique Bibnum une analyse au sujet du fameux texte de Sadi Carnot intitulé « Réflexions sur la
puissance motrice du feu et sur les machines propres à développer cette puissance
 » dans lequel il explique son fameux cycle de Carnot. Je vous invite donc à consulter cette analyse qui permet de mettre en lumière la clairvoyance de Sadi Carnot pour son époque (le texte date de 1824). D’autant que Sadi Carnot est mort relativement jeune, à 36 ans à cause d’une épidémie de choléra, pratiquement dans l’oubli général, alors qu’il a tout simplement révolutioné la thermodynamique et le développement des machines thermiques, des moteurs de voiture aux moteurs des avions à réaction.

On peut s’étonner tout de même que le texte de Sadi Carnot n’est pas fait plus de bruit de l’époque, surtout qu’il était issu d’une très grande famille française. En effet, son père, Lazare Carnot, était membre de la Convention nationale et un physicien de renom (son nom est d’ailleurs inscrit sur la Tour Eiffel), son frère Hyppolyte Carnot fut ministre de l’instruction publique et son neveu qui s’appelait également Sadi Carnot (eh oui il ne faut pas les confondre) fût président du conseil de 1887 à 1894. 

De plus, Sadi Carnot était polytechnicien comme on peut le voir sur sa peinture réalisée par Boilly en 1824 qui était alors un peintre de renom. Sadi Carnot jouissait donc, surtout à cette époque, d’une bonne visibilité scientifique. Sûrement que ses écrits ne furent pas pleinement compris par ses contemporains. Il faudra attendre Clapeyron puis Clausius plus de 25 ans plus tard pour reprendre les travaux  de Carnot  pour formaliser cette deuxième loi de la thermodynamique ainsi que ses implications sur les machines thermiques. De même, c’est ce texte de Canot qui guidera Thomson (Lord Kelvin) vers la création d’une échelle de température absolue (le kelvin)  en 1848  et qui donnera naissance à la notion d’entropie en 1854.

Bref, je voulais juste saluer cet homme qui a beaucoup fait pour la Science et qui est mort dans l’indifférence comme beaucoup d’autres.

Pourquoi la température diminue avec l’altitude ?

Tout le monde l’a déjà constaté : en montagne, il fait plus froid qu’en plaine, mais pourquoi ? Quand j’étais petit, je ne comprenais pas ce phénomène, car logiquement, il devrait faire plus chaud en altitude car on se rapproche du Soleil !! En fait, je me suis rendu compte plus tard que ce facteur était négligeable car nous sommes à 150 millions de kilomètres du Soleil et gagner ne ce serait-ce que 10 kilomètres ne change rien du tout. La réponse vient du fait que l’air se raréfie avec l’altitude et que cette raréfaction fait chuter la température, explication dans ce billet !

2 photos de moi prises au mois d’avril par un jour de beau temps dans les Alpes suisses : une à 800m et une à 3000m.

 Qu’est-ce qui fait varier la température de l’air ?

La température de l’air varie en fonction de plusieurs paramètres tels que la présence de nuages, de pluie ou de neige, le type de végétation, le type de sol, la proximité d’eau, le degré d’humidité dans l’air, etc.

Ici, nous négligerons tous ces paramètres qui influencent la température de l’air de manière locale pour nous intéresser seulement à l’influence de la variation de la pression atmosphérique sur la température, c’est précisément ce que les scientifiques appelles le gradient thermique
adiabatique
, c’est le fameux : « on perd 1°C tous les 100m ». Un gradient thermique est une variation continue de la température en fonction d’une variable (ici l’altitude) et l’adjectif adiabatique signifie qu’on néglige tout autre échange de chaleur avec l’extérieur.

L’atmosphère

Notre atmosphère est maintenue au dessus de nos têtes par gravité, c’est la masse importante de la Terre qui retient en suspension une couche d’air de plusieurs centaines de kilomètres. Il n’y a pas vraiment de démarcation nette entre l’atmosphère et l’espace car notre atmosphère s’évanouit peu à peu
mais on prend souvent comme limite l’altitude de 120 km où les effets de l’atmosphère commencent à être notables.

A titre d’information, notre atmosphère possède une masse de 5 130 millions de milliards de  kilogrammes (5,13.1018 kg), cela représente un millionième de la masse de la Terre. Etant donné que la surface de la Terre est de 510 millions km², un rapide calcul permet d’estimer la masse d’air qui « appui » sur le sol :

5,13.1018 / 510.1012 = 10 000 kg/m²

Eh oui, quand vous êtes allongé (un homme a une surface d’environ 1m² qui regarde vers le ciel), une colonne d’air d’environ 10 tonnes vous appuie dessus ! Ceci constitue la pression atmosphérique. Comme l’accélération gravitationnelle de la Terre, g, est d’environ 10 m/s², l’air de l’atmosphère créé donc une pression de 10 000 * 10 = 100 000 newton/m² = 100 000 pascal = 1 bar, CQFD !

L’atmosphère est découpée en plusieurs couches inégales portant des noms barbares se finissant par « sphère ». Chaque couche est définie en fonction de l’évolution de la température : la température diminue dans la première couche, augmente dans la deuxième couche, puis diminue encore dans la troisième pour raugmenter dans la quatrième. Voici les 4 couches en question :

La troposphère : elle constitue environ les 10 premiers kilomètres de l’atmosphère et c’est ici que nous vivons, que les avions volent et où les plus hautes montagnes demeurent. Cette couche, la plus fine de toute, contient 80% de la masse totale de l’atmosphère et la température diminue avec l’altitude

La stratosphère : entre 10 km et 50 km d’altitude, elle renferme une bonne partie de la fameuse couche d’ozone si importante pour la vie.

–  La mésosphère : située entre 50 et 80 km, elle est au milieu de l’atmosphère (méso signifie milieu en grec). C’est dans cette couche que la plupart des météorites sont brulés par frottement avec l’air.

La thermosphère commence à environ 80 km d’altitude pour s’étendre jusqu’à environ 620 kilomètres. C’est dans cette couche que gravite la station spatiale internationale et où les aurores boréales se produisent.

 

Calcul du gradient thermique adiabatique théorique

Je rappelle que le gradient thermique adiabatique représente l’évolution de la température à cause du changement de pression uniquement.

L’air peut être considéré comme un gaz parfait (tous les atomes sont assez éloignés les uns des autres de manière à négliger les chocs entre eux) et dans ce cas, lorsque la pression atmosphérique diminue, la température diminue également, voir précédent billet sur la Thermodynamique. On peut alors mettre en relation un couple de pression et de température (P,T) par rapport à un
couple (Po,To) connu (par exemple au niveau de la mer où Po=1 013,25 hPa et To=15°C) :


R est la constante des gaz parfait (R=8,13 J/(K.mol))  et Cp est la chaleur spécifique de l’air à pression constante (Cp=710 J/(kg.K)). Cette formule permet de trouver le fameux gradient thermique adiabatique en théorie (pour de l’air sec, sans vapeur d’eau) et on obtient -9,76°C/km, soit une chute d’environ 1°C tous les 100m: la fameuse « formule » qu’on apprend à l’école.

Le standard OACI

La formule théorique ci-dessus n’est pas forcément très juste à cause des hypothèse faites et il existe de nombreux modèles plus ou moins complexes pour rendre compte du gradient thermique adiabatique dans les différentes couches.  Le gradient de température se déduit du gradient de pression donc avant toute chose, il faut un modèle de l’évolution de la pression dans l’atmosphère.


Un des modèles facile à appréhender, car simple, est celui de l’Organisation de l’Aviation Civile Internationale (OACI) qui définit l’« atmosphère type OACI ». Il définit la pression et la température au niveau de la mer à 1 013,25 hPa (hectopascal) et 15 °C et la vapeur d’eau présente dans l’atmosphère n’est pas prise en compte. La pression à une altitude donnée dans la troposphère est alors définie par l’expression suivante :

L’OACI définit ensuite un gradient thermique adiabatique constant dans la troposphère et qui est égal à -6,5°C par kilomètre de manière linéaire.

Ainsi, la pression est de 900 hPa et la température de 8,5°C à 1000 m d’altitude, 553 hPa et -16,3°C à 4810m (altitude du Mont Blanc), 314 hPa et -42,5°C à 8848m (altitude de l’Everest). L’air est donc plus de 3 fois plus rare en haut de l’Everest qu’au niveau de la mer et la différence de température
due à ce changement de pression est de 57°C !

Du Frigo à la Cryo


Un de mes collègues et amis (Alexandre) m’a fait la remarque que je n’avais jamais parlé de la réfrigération et de la cryogénie dans mon blog alors que je travaille sur ce sujet depuis presque 3 ans… Voici chose réparée dans ce billet écrit pour l’occasion à 4 mains avec Alexandre !

Pour refroidir vos aliments dans votre réfrigérateur à 5°C ou pour refroidir un accélérateur de particules de 27 km de circonférence à -271°C, il n’y a qu’un pas ! Les principes de bases restent les mêmes mais les techniques et les fluides sont différents. Je vais donc essayer de vous présenter le principe général de la réfrigération et ses applications.

Un peu de sémantique et d’histoire

Avant toute chose, je rappelle que l’appareil permettant de « faire du froid » s’appelle un réfrigérateur et non un Frigidaire, souvent appelé « frigo », qui est une marque commerciale de réfrigérateurs déposée par le groupe General Motors en 1918 et qui appartient désormais au groupe Electrolux. En cuisine, un réfrigérateur permet de conserver des aliments autour des 5°C alors que le congélateur permet de congeler des aliments à -18°C.

On parle généralement de réfrigération pour refroidir à des températures comprises entre la température ambiante et -150°C. En dessous de cette limite, on parle alors de cryogénie car en dessous de cette température les gaz contenus dans l’air commencent à se liquéfier.

On attribue souvent la paternité du réfrigérateur à l’ingénieur allemand Carl Von Linde qui a inventé un réfrigérateur en 1876. Il est le fondateur de la célèbre compagnie Linde AG qui a fournit certains réfrigérateurs cryogéniques à hélium au CERN pour le refroidissement de l’accélérateur de particule LHC. Ci dessous, photo du transport d’une partie d’un réfrigérateur Linde pour le
LHC :


Principe général du réfrigérateur

La réfrigération consiste à abaisser la température d’un objet que l’on souhaite refroidir. Cet objet peut être une banane ou un yaourt dans un réfrigérateur de cuisine pour conserver un aliment plus longtemps ou bien un aimant supraconducteur dans le cadre d’un accélérateur de particules pour maintenir la
supraconductivité.

Le principe général d’un réfrigérateur est d’extraire de la chaleur à basse température (dans l’enceinte du réfrigérateur) pour la rejeter à haute température (à l’extérieur). Plus simplement, « faire du froid » consiste en fait à « retirer du chaud ». C’est pour cette raison qu’un réfrigérateur n’est rien d’autre qu’une pompe à chaleur, ce qui signifie que pour faire du froid quelque part il faut faire du chaud ailleurs !


Cette chaleur doit donc être transportée de la partie froide vers la partie chaude et pour cela, on utilise généralement un fluide, que l’on appelle fluide caloporteur (il transporte la chaleur) ou encore fluide réfrigérant, voire fluide frigorigène. Dans le cas des très basses températures en cryogénie, ce fluide peut être appelé fluide cryogène.

Pour « produire du froid », il existe différentes possibilités :

  • Mélanger un liquide avec un solide approprié comme de l’eau avec du sel: le mélange des deux créant une réaction chimique abaissant la température de fusion de la glace
  • Diminuer brutalement la pression d’un gaz (détente ou expansion) : par exemple lors du passage dans une vanne (effet Joule-Thomson : fonctionne sous une certaine température dite d’inversion) ou lors du passage dans une turbine à gaz (on extrait de l’énergie au gaz en énergie mécanique de rotation).
  • Echanger de la chaleur entre une source chaude et une source froide : échangeur de chaleur.

Un peu de thermodynamique

Le réfrigérateur va venir faire subir des transformations à ce fluide réfrigérant dans un circuit fermé. Le but étant de faire une boucle de manière à ce que le fluide circule en circuit fermé. Dans ce cas l’état initial du fluide est égal à l’état final du fluide et on fait subir à notre fluide réfrigérant un cycle thermodynamique.

Théoriquement, les réfrigérateurs de cuisine sont basés sur un cycle appelé cycle de Carnot qui est constitué d’un ensemble de 4 transformations idéales, voir billet précédent La Thermodynamique : Principes et Applications où le cycle de Carnot est détaillé.

Le cycle de Carnot est théorique et n’est pas réalisable. En réalité, dans les réfrigérateurs domestiques, une des transformations adiabatiques (sans échange de chaleur) du cycle de Carnot est remplacée par une transformation isenthalpique (l’enthalpie est conservée). Vous pouvez allez voir le billet précédent intitulé La Thermodynamique : les Bases pour mieux comprendre les notions de transformations et d’enthalpie.

Si l’on regarde le diagramme de P-h (la pression en fonction de l’enthalpie) et le schéma du réfrigérateur on peut décomposer chaque transformation:

–  De 1 à 2, le fluide est compressé d’une pression basse à une pression haute, via un compresseur, ce qui provoque une élévation de la température du fluide.

La transformation 2-3 permet d’extraire une partie de l’énergie du fluide (QH), le fluide passe dans un échangeur, c’est celui qui se trouve derrière votre réfrigérateur. Dans beaucoup de système, cette étape vise à recondenser le fluide. Comme le passage d’une phase à une autre se fait à température et pression constante, ce transfert d’énergie du fluide vers la pièce où se trouve le réfrigérateur se matérialise par la liquéfaction du fluide.

Entre les points 3 et 4, le liquide passe à travers un organe de détente, typiquement un capillaire dans les réfrigérateurs domestiques car il est peu coûteux et ne nécessite pas d’entretien particulier ou de maintenance. Le but de ce capillaire est d’avoir un diamètre suffisamment petit afin de créer une forte friction entre le fluide et les parois, et ainsi d’obtenir une pression plus basse à sa sortie. En subissant une chute de pression, le fluide sort alors à une température plus basse que celle de l’intérieur du réfrigérateur. 

Lors de la transformation 4-1 le fluide passe dans un échangeur qui se trouve dans les parois du réfrigérateur. Il extrait alors la chaleur de l’intérieur du réfrigérateur en se vaporisant. L’avantage du processus de vaporisation réside dans le fait que tout au long de l’échangeur, le fluide est à la même température, ce qui permet d’avoir la même température à chaque niveau du réfrigérateur.



Schéma de fonctionnement d’un réfrigérateur et son diagramme P-h associé (cliquez pour agrandir)

Le processus est finalement relativement simple et lorsque l’on souhaite chauffer sa maison avec une pompe à chaleur, le principe est le même, il suffit de remplacer l’intérieur du réfrigérateur par l’extérieur de la maison, et d’évacuer la chaleur du fluide en servant de source chaude au circuit de chauffage : le cycle « tourne » ainsi dans l’autre sens.

Cryogénie

La cryogénie est définie comme la branche de la physique qui traite de la production des très basses températures et de leurs effets sur la matière mais plus communément, la cryogénie est la science et ses applications qui traite des phénomènes physiques inférieurs à -153°C. Cette température représente la limite en dessous de laquelle les principaux gaz atmosphériques se liquéfient. En cryogénie, on ne parle plus en degrés Celsius mais en degré kelvin pour des
raisons de commodités. Le zéro degré kelvin correspond au zéro absolu et est égal à -273,15°C (cf. article sur la température pour plus de précisions). La cryogénie est souvent confondue avec la « cryonie » et donc perçu par le grand public comme une technique de congélation des êtres vivants. Pour l’instant il s’agit plus de science-fiction, même si la préservation de tissus organiques est aujourd’hui possible : c’est que l’on appelle la cryobiologie.

Les principaux fluides cryogéniques sont les suivants (les températures représentés sont les températures d’ébullition à pression atmosphérique ce qui veut dire que sous cette température, ces gaz atmosphériques sont liquides) :

  • Méthane : 111 K (-162,15°C)
  • Oxygène : 90 K (-189,15°C)
  • Argon : 87 K (-186,15°C)
  • Azote : 77,3 K (-195,85°C)
  • Néon : 27,2 K (-245,95°C)
  • Hydrogène : 20,27 K (-252,88°C)
  • Hélium: 4,21 K (-268,94°C)

Tous ces éléments sont principalement utilisés sous forme liquide en médecine, dans l’industrie chimique, en métallurgie, pour l’industrie spatiale ou dans les transports mais aussi en physique des particules. Aujourd’hui l’hydrogène liquide est beaucoup moins utilisé en physique des particules depuis
la diminution du nombre de chambres à bulles, et l’oxygène ne sert plus de réfrigérant à cause des risques d’accidents potentiels. Les accélérateurs ont besoin de la cryogénie appliquée à la supraconductivité et certains instruments utilisent des gaz lourds liquéfiés (comme l’argon ou le krypton) à basse température pour créer un milieu actif propice à la détection de certaines
particules.

Les réfrigérateurs cryogéniques sont généralement constitués de 2 principales parties :

– Une station de compression qui permet de compresser le fluide cryogène.
– Une boîte froide permettant de refroidir le fluide par détentes successives à travers des turbines, des pistons ou des vannes jusqu’à sa liquéfaction.

Afin de liquéfier ces gaz cryogéniques, on utilise la méthode de détente de Joule-Thomson, non pas qu’elle soit plus efficace mais parce qu’elle est peu coûteuse. En comparaison au réfrigérateur domestique, le capillaire est remplacé par une vanne, bien isolée thermiquement, dont l’ouverture est réglable et permet de séparer le gaz à haute pression de celui à basse pression. Cette détente a quand même une particularité. Si la température du fluide avant de passer la vanne est inférieure à la « température d’inversion de Joule Thomson », alors le fluide sort à une température plus basse. Ceci est très pratique pour des gaz qui ont des températures d’inversion supérieure à la température ambiante, ce qui est le cas de l’azote et de l’oxygène. Malheureusement ce n’est pas le cas de l’hélium, qui a besoin d’être refroidi au préalable grâce à des turbines car sa température d’inversion se situe autour de 40 kelvins : l’effet Joule-Thomson est donc effectif sous cette température uniquement. Les turbines fonctionnement sur le même principe que celles qui produisent l’électricité dans les centrales nucléaires. Le gaz arrive à haute pression et transforme son énergie en énergie mécanique en faisant tourner des pâles, mais dans le cas d’une turbine cryogénique, le travail fournit par l’hélium ne fournit pas d’énergie électrique. L’hélium est alors détendu est sa température abaissée.

Pour plus de précisions sur l’hélium liquide et sa découverte faite en 1908 par Heike Kamerlingh Onnes, voir mon analyse sur la bibliothèque numérique Bibnum faite il y a quelques mois : L’hélium Liquide.

La thermodynamique : Principes et Applications

Ceci est la continuité naturelle de mon billet précédent intitulé La thermodynamique : Les Bases. Je vais vous présenter ici les 4 grands principes universels qui sont posés par la thermodynamique et qui ont permis la compréhension, la construction et l’amélioration des machines thermodynamiques comme la machine à vapeur, le moteur à essence, la pompe à chaleur ou le climatiseur.



Principe zéro

On l’appelle principe zéro car c’est ce principe qui permet l’étude de la thermodynamique en utilisant la variable température. Il peut être exprimé ainsi :

« La température est une grandeur physique repérable permettant de caractériser l’état d’un système »

Autrement dit : « On peut fabriquer un thermomètre ». Un corps est dit en équilibre thermique si sa température n’évolue pas dans le temps. Si 2 corps isolés sont en contact alors ils évoluent vers un équilibre thermique où ils auront la même température.

Premier principe

Le premier principe correspond à la conservation de l’énergie peut être formulé ainsi :« Lors d’une transformation dans un système fermé, la variation d’énergie interne du système est égale à la quantité d’énergie échangée avec le milieu extérieur sous forme de chaleur et de travail »

On peut alors écrire mathématiquement que :


dU représente la variation d énergie interne du système, dQ est une petite quantité de chaleur apportée au système et dW est une petite quantité de travail reçue par le système.

On peut résumer ce principe par la fameuse maxime : « Rien ne se perd, rien ne se créé, tout se transforme » attribué à tord à Antoine Lavoisier puisque le philosophe présocratique Anaxagore de Clazomènes a écrit au 5ième siècle avant JC que : «  Rien ne naît ni ne périt, mais des choses déjà existantes se combinent, puis se séparent de nouveau ». On voit que la notion de conservation de l’énergie est très ancienne mais le premier principe de la thermodynamique précise que l’énergie interne d’un système (somme des énergies microscopiques) peut être modifiée par apport ou par retrait de chaleur et de
travail.

On comprend ici l’intérêt de ce principe pour la construction de machines thermiques qui auront pour but de transformer la chaleur en travail (machine à vapeur, moteur, etc.) ou bien de transformer le travail en chaleur (pompe à chaleur, réfrigérateur, climatiseur, etc.).

Deuxième principe

C’est ce principe, formulé en 1865 par le physicien allemand Rudolf Clausius, qui introduit une nouvelle variable dénommée entropie et notée ‘S’. Le deuxième principe est énoncé de la manière suivante :

« Toute transformation thermodynamique génère de l’entropie»

L’entropie est une grandeur extensive et est définit telle que sa variation lors d’une transformation réversible est égale à la quantité de chaleur apportée au système divisée par la température de ce même système, voir équation (1).

Si la transformation est irréversible, alors il y a une création d’entropie positive à cause des phénomènes dissipatifs (friction, diffusion, etc.), voir équation (2). On peut alors en déduire la fameuse inégalité de Clausius qui résume le second principe et qui est représentée dans l’inéquation (3) :

En réalité, une transformation réversible parfaite n’existe pas, toutes les transformations dites réelles sont irréversibles et elle créent de l’entropie. L’entropie totale de l’Univers est donc en perpétuelle augmentation depuis sa naissance. Cet énoncé est capital en thermodynamique et a de nombreuses
retombés au niveau scientifique mais également au niveau philosophique.

Pour la construction de machines thermiques, il faut comprendre avec ce principe que la génération d’entropie est un problème car cette entropie créée va venir diminuer le rendement des machines. Autrement dit, il faut fabriquer des machines qui minimisent la création d’entropie, c’est-à-dire  qui minimise principalement les pertes par frictions. On comprend naturellement qu’un moteur qui tourne  très vite va avoir un meilleur rendement si les frottements sont minimes.

Troisième principe

Ce principe, également appelé principe de Nernst fut énoncé en 1904 :

 « Si la température d’un système tend vers le zéro absolu, alors l’entropie tend vers zéro »


Les fondements et les implications de ce principe, liés à la physique quantique, sont complexes mais n’ont pas d’incidence sur la thermodynamique classique et la construction de machines thermiques. Je ne rentrerai donc pas dans les détails ici.

Les machines thermiques

Une machine thermique peut répondre à 2 fonctions principales :

Transformer la chaleur en travail (faire bouger un objet à partir de chaleur) : Machine à vapeur, moteur thermique (moteur à explosion, essence, diesel, alcool ou gaz dans les voitures, moteurs à réaction dans les avions), etc.

Transformer le travail en chaleur (faire du chaud ou du froid à partir d’un objet qui bouge) : Pompe à chaleur, réfrigérateur, climatiseur, etc.


Les machines thermiques sont basées sur un ensemble de transformations thermodynamiques que l’on vient faire subir à un fluide de manière cyclique. Dans notre étude thermodynamique, ce fluide est alors notre système qui va venir échanger de la chaleur et du travail avec le milieu extérieur .

– Dans la machine à vapeur, le fluide en question est de l’eau que l’on vient en général chauffer à l’aide d’une chaudière à charbon pour évaporer l’eau (apport de chaleur). La vapeur d’eau actionne alors un piston qui va entrainer une roue par l’intermédiaire d’un vilebrequin et provoquer un mouvement de rotation (création de travail). Illustration d’une machine à vapeur (source :
Wikipédia
) :


– Pour un moteur à explosion d’automobile, le fluide utilisé est de l’essence, du diesel, de l’alcool ou du gaz (GPL) selon les moteurs. Dans un moteur à essence 4 temps classique, on vient faire exploser un mélange air/carburant dans une chambre à combustion avec un petite étincelle founie par les bougies
(apport de chaleur). Cette explosion permet le mouvement d’un pison qui va engendrer un mouvement de rotation via un vilebrequin pour faire tourner les roues (création de travail).
Illustration d’un moteur à 4 temps (source : Wikipédia) :


– Dans les réfrigérateurs on utilise un fluide dit « frigogène » comme fluide caloporteur (qui transporte la chaleur). On utilisait du fréon au tout début mais maintenant ce sont des fluides complexes comme le dichlorodifluorométhane, le tétrafluoroéthane ou le méthylpropane qui sont moins nocifs pour l’environnement. Le principe général du réfrigérateur est de compresser un fluide à l’aide d’un compresseur (apport de travail) et d’effectuer ensuite une détente (diminuer la pression du fluide brutalement) pour faire du froid. Les climatiseurs sont basés sur le même principe et les pompes à chaleur sont simplement des climatiseurs qui fonctionnent ‘à l’envers’. Voir billet Du Frigo à la Cryo qui parle des machines frigorifiques.

Par commodité, on représente ces transformations dans des diagrammes qui peuvent être de différentes natures. Un des plus connus est le diagramme de Clapeyron qui représente l’évolution de la pression et du volume du fluide pendant les transformations. Ainsi, chaque ligne entre 2 points du diagramme
correspond à une transformation réalisée par un équipement particulier (échangeur de chaleur, vanne, turbine, piston …) entre 2 états du fluide.

Le Cycle de Carnot

Au début du 19ième siècle, Sadi Carnot, célèbre physicien et ingénieur français, établit le cycle thermodynamique idéal pour obtenir du travail mécanique à partir d’une source chaude et d’une source froide : le cycle de Carnot. Les recherches de Carnot étaient vitales à son époque pour fabriquer des machines à vapeurs optimales en améliorant les rendements et c’est également lui le premier à formuler de manière scientifique le principe du moteur thermique sur lequel tous les moteurs  thermiques sont  aujourd’hui construits dans les voitures et les avions (moteurs à explosion et moteurs à réaction).

 Ce cycle étant réversible, si on le prend dans le sens inverse, il est aussi le cycle idéal pour échanger de la chaleur d’une source chaude à une source froide à partir d’une source de travail donnée. Autrement dit : c’est le cycle de réfrigération idéal !

Le cycle de Carnot est constitué d’un ensemble de 2 transformations adiabatiques réversibles (pas d’échange de chaleur avec l’extérieur à entropie constante) et de 2 transformations isothermes (température constante). Dans le sens des aiguilles d’une montre, c’est un cycle moteur et les transformations sont les suivantes :

  • De A à B : Compression isotherme où une chaleur Q1 est extraite du système vers la source froide qui est à une température T1 (donc Q1<0)
  • De B à C : Compression adiabatique réversible (isentropique)
  • De C à D : Détente isotherme où une chaleur Q2 est apporté au système via une source chaude qui est à la température T2 (donc Q2>0)
  • De D à A : Détente adiabatique réversible (isentropique)

 

Le cycle de Carnot moteur dans le diagramme de Clapeyron (Pression en fonction du Volume)

 Au total, ce cycle produit un travail mécanique W = Q1+Q2 ainsi qu’une quantité de chaleur Q1 pour une quantité de chaleur apportée égale à Q2 et c’est le meilleur cycle possible entre une source chaude et une source froide.

Si on applique le 2ième principe de la thermodynamique sur ce cycle en disant qu’il est idéal (transformation adiabatiques réversibles, donc à entropie constante), on peut faire un bilan entropique du cycle.

– Pendant la transformation de A à B, l’entropie extraite du système est égale à la quantité de chaleur Q1 négative divisé par T1, voir équation (1)

– Pendant la transformation de C à D, l’entropie apportée au système est égale à la quantité de chaleur Q2 positive divisée par la température de la transformation, soit T2, voir équation (2)

– Les 2 autres transformations sont des transformations adiabatiques réversibles donc l’entropie reste constante. On peut alors dire que l’entropie perdue entre A et B est égale à l’entropie gagnée entre C et D, voir l’équation (3) qui symbolise l’équation de Clausius-Carnot et qui définit ainsi les chaleurs nécessaires à échanger entre une source chaude (à la température T2) et source froide (à la température T1).



Exemple avec cycle de Carnot

On considère une sorte de machine à vapeur idéale qui utilise l’eau comme fluide et qui serait basée sur un cycle de Carnot (impossible à réaliser). Dans notre machine fictive, la source froide est à la  température ambiante, soit T1= 20°C = 293 kelvin. La source chaude est à la température de la vapeur d’eau qui est donc T2= 100°C = 373 kelvin. Si on apporte une quantité de chaleur Q2=500 joules , alors la quantité de chaleur extraite du système est selon l’équation de Clausius-Carnot égale à Q1 = – T1 * (Q2/T2) = – 293 * (500/373) = -393 joules. Le travail fournit est donc égale à W=Q1+Q2 = 500 – 393 = 107 joules.

 Ceci signifie qu’entre 20°C et 100°C, si on apporte une quantité de chaleur de 500 joule, on pourra extraire dans le meilleur des cas un travail de 107 joule, le rendement optimal est donc n = W/Q2 = 107/500 = 21%. La physique nous apprend donc qu’il est impossible de fabriquer une machine thermique avec un
rendement supérieur à 21% entre 20°C et 100°C. Plus généralement on peut démontrer que le rendement pour une machine de Carnot ne dépend que des températures chaude et froide et que ce rendement est égal à :


Toutes les machines thermodynamiques tentent de se rapprocher du cycle de Carnot mais il est inatteignable en partie à cause du deuxième principe de la thermodynamique qui dit que toute transformation génère de l’entropie. Les transformations isentropiques (adiabatiques réversibles) sont alors impossibles, de même que les compressions isothermes car lorsqu’on comprime un gaz, on vient générer de la chaleur à cause des frictions, ce qui a pour effet d’augmenter la température du système.

 A titre d’exemple, un moteur thermique essence fonctionne entre 20°C (293 K) et 500°C (773 K) environ, son rendement de Carnot est donc de 1-273/773 = 62%. En réalité, un moteur à essence possède un rendement d’environ 36% en fonctionnement optimal et de 15% en fonctionnement dégradé (en ville par
exemple) à cause de la génération d’entropie dans les différentes transformations et de la génération de chaleur lors de la compression.

La thermodynamique : les bases

Durant ma deuxième année de doctorat, j’ai suivi un école d’été sur la physique des basses températures (cryocourse) et il y avait évidemment un rappel de la thermodynamique de base. De mémoire, voici la phrase d’introduction de notre professeur (qui est plus que vraie) :

« La première fois que l’on étudie la thermodynamique, on ne comprend rien. La deuxième fois, on pense avoir compris. Et la troisième fois, on est sûr et certain de n’avoir finalement rien compris mais ce n’est pas grave car on arrive tout de même à l’utiliser et ça marche !»



 

La thermodynamique est une discipline majeure de la physique et a connue de nombreuses évolutions au cours des siècles. Elle a pour fonction première l’étude de la chaleur et des différentes machines thermiques mais elle a aussi comme mission l’étude des systèmes à l’équilibre. La thermodynamique a été élaborée principalement au 19ième siècle par des scientifiques de renom avec entre autre Carnot, Clapeyron, Lord Kelvin, Clausius, Boltzmann, Van der Waals
etc. (voir portraits ci-dessus, vous remarquerez l’importance de la barbe).

 C’est un sujet vaste et complexe, mon billet de blog qui arbore le titre « La thermodynamique » est bien ambitieux mais je vais essayer autant que possible de vous en donner un aperçu concis et le plus juste possible, ce qui n’est pas une tache évidente… Si vous désirez simplement connaitre les principes et les applications aux machines thermiques, voir le billet Thermodynamique : Principes et Applications.

 La notion de système

La thermodynamique étudie des systèmes. Un système est une portion de l’Univers que l’on isole par la pensée et tout se qui est hors de ce système est appelé milieu extérieur. Il existe trois types de systèmes :

  • Les systèmes ouverts qui échangent de la matière et de l’énergie avec le milieu extérieur. Ex : une bouteille plastique d’eau ouverte : elle peut se remplir ou se vider, elle échange de la chaleur avec l’air ambiant et elle est déformable.
  • Les systèmes fermés qui n’échangent pas de matière avec le milieu extérieur mais qui peuvent échanger de l’énergie sous forme de travail mécanique et de chaleur. Ex : une bouteille plastique d’eau fermée. Elle peut être déformée et elle échange de la chaleur avec l’extérieur mais la quantité de matière à l’intérieur ne change pas.
  • Les systèmes isolés où il n’y a aucun échange avec le milieu extérieur (ni matière, ni énergie). Ex : une bouteille thermos fermée idéale rigide.

 

 Les variables d’état

Différentes grandeurs (ou variables) physiques sont utilisées en thermodynamique. Il est primordial de bien les comprendre et de pouvoir les classer dans différentes catégories pour ensuite les utiliser. Tout d’abord, il faut distinguer les grandeurs extensives et intensives :

  • – Une grandeur extensive est une grandeur physique qui est proportionnelle à la taille du système (on peut les additionner). Ex : masse, volume, quantité de matière, etc.
  • – Une grandeur intensive est une grandeur physique qui ne dépend pas de la quantité de matière considérée (on ne peut pas les additionner). Ex : température, pression, densité, etc.



La thermodynamique cherche à calculer les grandeurs physiques d’un système à un état d’équilibre en fonction d’autres grandeurs. Pour cela, on définit des variables d’état qui sont des grandeurs physiques mesurables permettant de définir l’état d’un système, indépendamment du chemin suivit pour
arriver à cet état.

Explication : Il y a quelques semaines j’ai fait une sortie en ski de randonnée dans les alpes suisses et nous devions atteindre le Mont Tellier situé à 2951 m en partant d’un parking situé à 1925 m. Deux groupes sont partis du parking par deux itinéraires différents :

  • – Le premier groupe a fait une ascension directe régulière totalisant 2951-1925 = 1026 m de dénivelé positif (trajet bleu).
  • – Le deuxième groupe a emprunté un chemin plus long nécessitant des montés et des descentes. Cet itinéraire, totalisait 1500 m de dénivelé positif (trajet rouge).



Dans cet exemple, on peut définir l’état du système par la variable « altitude » car la différence d’altitude entre le parking et le sommet des 2 itinéraires est la même : DA = 2951-1925 = 1026 m : l’altitude est donc une variable d’état.

En revanche, l’effort mécanique fourni par le groupe rouge est nettement supérieur à l’effort mécanique fourni par le groupe bleu : la variable « effort mécanique » n’est donc pas une variable d’état car elle dépend du chemin suivit entre 2 états à l’équilibre.

 En thermodynamique, les grandeurs d’état principales sont les suivantes :

  • La température (T) qui se mesure en degré kelvin, voir billet La Température pour plus de précision.
  • La pression (P) qui est une force par unité d’aire. La pression se mesure en pascal (1 Pa = 1 N/m²) mais on utilise souvent le bar par commodité (1 bar = 100 000 Pa). Un pneumatique de voiture gonflé à 2 bars signifie que l’air applique une force de 200 000 newton par mètre carré sur le pneu.
  • Le volume (V) qui se mesure en mètre cube.
  • L’énergie interne (U) qui représente l’ensemble des énergies microscopiques d’un système et se mesure en J/kg. L’énergie interne correspond à la somme des énergies dues à l’agitation thermique des particules et aux liaisons entre les nucléons, les atomes et les
    molécules.
  • L’enthalpie (H) qui est une fonction pratique en génie thermique car lorsque qu’une transformation a lieu à pression constante, la variation de l’enthalpie exprime la quantité de chaleur échangée. L’enthalpie se mesure en J/kg et est définit par H = U+P*V.
  • L’entropie (S) qui représente en quelque sorte le « désordre microscopique» d’un système et se mesure en J/K-kg. On reviendra un peu plus tard sur la notion d’entropie

Les grandeurs thermodynamiques qui ne SONT PAS des variables d’états (qui dépendent du chemin suivit) sont les suivantes :

  • Le travail (W) qui se mesure en Watt et représente une énergie mécanique par seconde.
  • La chaleur (Q) qui se mesure également en Watt et qui représente une énergie thermique par seconde.

 

Les fonctions d’état

Les différentes variables d’état ne sont pas indépendantes les unes des autres : elles sont liées de manière plus ou moins complexe et la thermodynamique a alors pour objectif de définir des « équations d’état » ou des « fonctions d’état » qui mettent en relations les différentes grandeurs d’état à l’équilibre.

 La fonction d’état thermodynamique la plus simple et la connue est l’équation des gaz parfaits qui s’écrit :

P*V = n*R*T

où les grandeurs d’état sont la pression (P), le volume (V) et la température (T) avec « n » la quantité de matière et « R » la fameuse constante des gaz parfaits. Cette équation est un modèle fiable pour les gaz dit parfaits, c’est-à-dire les gaz constitués de particules suffisamment éloignées les unes des autres pour en négliger les interactions : le diazote et le dioxygène de notre atmosphère en sont un exemple.

 

Les transformations

On appelle transformation le passage d’un état d’équilibre initial à un état d’équilibre final. On identifie souvent les transformations par une variable d’état qui reste constante : une transformation à température constante (isotherme), à pression constante (isobare), à volume constant (isochore), à enthalpie constante (isenthalpique), à entropie constante (isentropique).

 On entend également souvent parler de transformation adiabatique, cela signifie simplement que c’est une transformation au cours de laquelle le système n’échange pas de chaleur avec le milieu extérieur.

 Plus généralement, il existe deux grandes classes de transformations :

– Les transformations réversibles : une fois la transformation effectuée, l’état initial peut être rejoint depuis l’état final en appliquant une action mineure sur le système. Ex : Une bouteille d’eau fermée à température et pression ambiante (20°C, 1 bar) est laissée sous un soleil de plomb. La température monte alors à 30°C et la pression à 2 bar. Si le soleil disparaît sous un nuage, la bouteille retrouve son état initial au bout d’un certain temps.

– Les transformations irréversibles : une fois la transformation réalisée, il est impossible de revenir à l’état initial depuis l’état final de manière rapide et simple. Ex : Une bouteille est remplie de 2 liquides de mêmes densités et de couleurs différentes (un bleu et un jaune) séparés par une paroi étanche. On retire la paroi et les 2 liquides se mélangent. Il est alors impossible de retrouver l’état initial simplement.

 

Une transformation est généralement considérée réversible si les grandeurs intensives sont continues, si la transformation est lente (on dit alors qu’elle est quasi-statique) et s’il n’y a pas de phénomènes dissipatifs (diffusion, frictions,
etc.).

 On peut également retenir qu’une transformation adiabatique (qui n’échange pas de chaleur avec le milieu extérieur) et réversible est une transformation isentropique.

La première liquéfaction de l’hélium par H.K. Onnes


Alexandre Moatti
présentait le mois dernier une nouvelle bibliothèque numérique présentant des textes fondateurs de la science antérieurs à 1940 et analysés par des scientifiques contemporains : BibNum.

Je viens de faire une analyse sur BibNum au sujet de la première liquéfaction de l’hélium réalisée en 1908 par Heike Kamerlingh Onnes au laboratoire de Leyde aux Pays-Bas : voir l’analyse sur Bibnum.

L’analyse s’appuie sur le communiqué fait à l’Académie des Sciences où il décrit son expérience et sa découverte de l’hélium liquide. Il atteint alors la température de 1,65 K (-271,5 °C), la plus basse jamais atteinte par l’homme à cette époque. On peut voir sur la photo ci-contre H.K. Onnes (à droite) et G.J. Flim (à gauche), le chef du laboratoire de cryogénie, devant le liquéfacteur d’hélium à l’université de Leyde en 1908.

 Seulement trois ans plus tard, Onnes découvrira  par hasard la supraconductivité : en dessous d’une certaine température très basse, dite critique, certains matériaux laissent circuler l’électricité sans aucune perte (la résistance devient nulle). Onnes obtiendra le prix Nobel en 1913 pour ses recherches sur les propriétés de la matière aux basses températures, qui conduisirent, entre autres, à la production d’hélium liquide.

Cette découverte pouvant passer inaperçue était une prouesse technologique et scientifique tout en ouvrant la voie à de très nombreuses applications comme la supraconductivité. Les supraconducteurs sont principalement utilisés pour fabriquer des électroaimants peu encombrants et générant de très forts champs
magnétiques. Aujourd’hui, la physique des particules et l’imagerie médicale ont recours tous les jours à la cryogénie à l’hélium liquide pour refroidir des aimants supraconducteurs. Le plus grand succès de l’hélium liquide et de la supraconductivité est l’accélérateur de particules LHC (Large Hadron
Collider
) au CERN qui vient de démarrer cette année, exactement 100 ans après la première liquéfaction de l’hélium par Onnes.
Le LHC est composé de 27 km d’aimants supraconducteurs qui baignent dans de l’hélium superfluide à 1,9 K. Au total, 60 tonnes d’hélium liquide (normal et superfluide) sont utilisés pour refroidir les 36 800 tonnes de la machine.

La température

Salut, ça va ? il fait chaud dehors ? Bah il doit faire 25°C…

 

La température est une notion que l’on utilise tous les jours parce qu’on la ressent mais comment
peut on la mesurer ? Facile, avec  un thermomètre ! Le principe est très simple : la pression (P), la température (T) et le volume (V) d’un fluide (gaz ou liquide) sont 3
grandeurs liées. Si on fixe une de ces  trois grandeurs à une valeur constante, la mesure de la deuxième permet le calcul de la troisième. C’est pas clair ? Si je prends du Mercure, que
je le place dans un tube à une pression fixe, il suffit de mesurer le volume (donc la hauteur du liquide dans le tube) pour en déduire la température. Pourquoi le mercure ? parce que c’est
un liquide qui se dilate très facilement quand la température augmente et ça s’observe à l’œil nu facilement (le seul problème c’est que c’est dangereux et nocif pour la santé (c’est pour cela
que les thermomètres au mercure sont maintenant interdits), mais on peut aussi utiliser de l’alcool). Si vous tentez de faire la même chose avec de l’eau, il faudra un microscope pour voir une
élévation de 1°C.

 

Pour la référence de l’unité, on a fait dans le super facile : sous une pression de une atmosphère (pression atmosphérique) au niveau de la mer, l’eau
bout à 100°C et gèle à 0°C. C’est l’échelle de Celsius inventée en 1742 par Anders Celsius, astronome suédois . De cette manière tout est défini car cette échelle « pratique » est une
unité différentielle : c’est-à-dire que l’on considère une différence (entre 0°C et 100°C). C’est pour cela que les températures peuvent être négatives. C’est l’inverse d’une mesure absolue
qui possède un « zéro » infranchissable, on ne peut pas avoir une longueur de 0 centimètre ou une durée de 0 seconde !

 

Vous allez me dire, chouette, une unité physique facile en fait ! Eh bien ça dépend, car l’unité de la température en physique, c’est de kelvin (K),
attention on ne dit pas « degré kelvin » car c’est une unité absolue et pas de majuscule car c’est une unité SI (Système International d’unité ou plus simplement système métrique) même
si son inventeur, Lord Kelvin, prend une majuscule car c’est un nom propre. En passant « Lord Kelvin » n’est qu’un titre britannique, son véritable nom est William Thomson, qui est à
l’origine du second principe de la thermodynamique. La conversion Celsius-kelvin est plus que simple : il suffit de retrancher 273,15° à la température en Celsius pour obtenir des kelvins.
Donc quand il fait 20°C, il fait 293,15K, l’eau bout à 373,15K et gèle à 272,15K. Evidemment la question naturelle qui vient est : « d’où sort le 273,15 : pas du chapeau de Lord
Kelvin ! ». La réponse tombe sous le sens, le kelvin n’est qu’une translation de l’échelle Celsius de manière à faire coïncider le zéro kelvin au zéro absolu.

 

Le zéro absolu (donc 0K), est la température limite au dessous de laquelle on ne peut pas descendre,
dire que de la matière est à 0K est aussi idiot que de dire qu’un objet mesure 0 cm, ce n’est pas possible ! Au sens microscopique, la température est en fait définie par une agitation
moléculaire : plus les particules bougent dans tous les sens, plus il fait chaud. C’est comme lorsqu’on fait du sport, on se réchauffe car on fournit un effort, de l’énergie, qui se traduit
par un dégagement de chaleur. Si on ne bouge pas dans le froid, on a froid, si on court, on a chaud. Les particules aussi ! Le zéro absolu est défini comme étant la température à laquelle
plus aucune chaleur ne peut être tirée du corps. La température minimale jamais atteinte en laboratoire par les physiciens est de l’ordre du micro kelvin (un millionième de kelvin au dessus du
zéro absolu), ce qui correspond donc à –273,15°C.

 

Il y a aussi nos confrères anglo-saxons qui parlent en degrés Fahrenheit (°F) car ils ne peuvent
jamais faire comme tout le monde… Pour la conversion Celsius Fahrenheit, prenez votre calculette : on prend la température en degré Celsius, on retranche 273,15, on multiplie par 1,8 et on
retranche 459,67 : facile non ?

 

Voilà quelques températures typiques dans notre monde et notre histoire : (peut-être convertir
aussi en degrés ?)

         La température dans
l’espace, loin de toutes étoiles est environ de 2,7K en ce moment

         La température moyenne
à la surface de notre planète est de 15°C

         La température du corps
est en moyenne de 37,6°C

         La température moyenne
à la surface du soleil est de 6000K

         La température au cœur
du soleil est de 15 000 000K

         La température au
moment de la collision des faisceaux de particules dans le futur accélérateur de particule du CERN, le LHC, sera de 10 000 000 000 000K, soit la température un millionième de seconde après le BIG
BANG où la température chute de manière gigantesque pour descendre jusqu’à cette température (10 milles milliards de degrés)

         La température de
l’univers 10-43 seconde après le BIG BANG est de 100000000000000000000000000000000K (1032K)

  • Plus

 

Partager l’article : La température
 
Salut, ça va ? il fait chaud dehors ? Bah il doit faire 25°C… La température est une notion que l’on utilise tous les…