Archives pour la catégorie Thermo/Energie

Du Frigo à la Cryo


Un de mes collègues et amis (Alexandre) m’a fait la remarque que je n’avais jamais parlé de la réfrigération et de la cryogénie dans mon blog alors que je travaille sur ce sujet depuis presque 3 ans… Voici chose réparée dans ce billet écrit pour l’occasion à 4 mains avec Alexandre !

Pour refroidir vos aliments dans votre réfrigérateur à 5°C ou pour refroidir un accélérateur de particules de 27 km de circonférence à -271°C, il n’y a qu’un pas ! Les principes de bases restent les mêmes mais les techniques et les fluides sont différents. Je vais donc essayer de vous présenter le principe général de la réfrigération et ses applications.

Un peu de sémantique et d’histoire

Avant toute chose, je rappelle que l’appareil permettant de « faire du froid » s’appelle un réfrigérateur et non un Frigidaire, souvent appelé « frigo », qui est une marque commerciale de réfrigérateurs déposée par le groupe General Motors en 1918 et qui appartient désormais au groupe Electrolux. En cuisine, un réfrigérateur permet de conserver des aliments autour des 5°C alors que le congélateur permet de congeler des aliments à -18°C.

On parle généralement de réfrigération pour refroidir à des températures comprises entre la température ambiante et -150°C. En dessous de cette limite, on parle alors de cryogénie car en dessous de cette température les gaz contenus dans l’air commencent à se liquéfier.

On attribue souvent la paternité du réfrigérateur à l’ingénieur allemand Carl Von Linde qui a inventé un réfrigérateur en 1876. Il est le fondateur de la célèbre compagnie Linde AG qui a fournit certains réfrigérateurs cryogéniques à hélium au CERN pour le refroidissement de l’accélérateur de particule LHC. Ci dessous, photo du transport d’une partie d’un réfrigérateur Linde pour le
LHC :


Principe général du réfrigérateur

La réfrigération consiste à abaisser la température d’un objet que l’on souhaite refroidir. Cet objet peut être une banane ou un yaourt dans un réfrigérateur de cuisine pour conserver un aliment plus longtemps ou bien un aimant supraconducteur dans le cadre d’un accélérateur de particules pour maintenir la
supraconductivité.

Le principe général d’un réfrigérateur est d’extraire de la chaleur à basse température (dans l’enceinte du réfrigérateur) pour la rejeter à haute température (à l’extérieur). Plus simplement, « faire du froid » consiste en fait à « retirer du chaud ». C’est pour cette raison qu’un réfrigérateur n’est rien d’autre qu’une pompe à chaleur, ce qui signifie que pour faire du froid quelque part il faut faire du chaud ailleurs !


Cette chaleur doit donc être transportée de la partie froide vers la partie chaude et pour cela, on utilise généralement un fluide, que l’on appelle fluide caloporteur (il transporte la chaleur) ou encore fluide réfrigérant, voire fluide frigorigène. Dans le cas des très basses températures en cryogénie, ce fluide peut être appelé fluide cryogène.

Pour « produire du froid », il existe différentes possibilités :

  • Mélanger un liquide avec un solide approprié comme de l’eau avec du sel: le mélange des deux créant une réaction chimique abaissant la température de fusion de la glace
  • Diminuer brutalement la pression d’un gaz (détente ou expansion) : par exemple lors du passage dans une vanne (effet Joule-Thomson : fonctionne sous une certaine température dite d’inversion) ou lors du passage dans une turbine à gaz (on extrait de l’énergie au gaz en énergie mécanique de rotation).
  • Echanger de la chaleur entre une source chaude et une source froide : échangeur de chaleur.

Un peu de thermodynamique

Le réfrigérateur va venir faire subir des transformations à ce fluide réfrigérant dans un circuit fermé. Le but étant de faire une boucle de manière à ce que le fluide circule en circuit fermé. Dans ce cas l’état initial du fluide est égal à l’état final du fluide et on fait subir à notre fluide réfrigérant un cycle thermodynamique.

Théoriquement, les réfrigérateurs de cuisine sont basés sur un cycle appelé cycle de Carnot qui est constitué d’un ensemble de 4 transformations idéales, voir billet précédent La Thermodynamique : Principes et Applications où le cycle de Carnot est détaillé.

Le cycle de Carnot est théorique et n’est pas réalisable. En réalité, dans les réfrigérateurs domestiques, une des transformations adiabatiques (sans échange de chaleur) du cycle de Carnot est remplacée par une transformation isenthalpique (l’enthalpie est conservée). Vous pouvez allez voir le billet précédent intitulé La Thermodynamique : les Bases pour mieux comprendre les notions de transformations et d’enthalpie.

Si l’on regarde le diagramme de P-h (la pression en fonction de l’enthalpie) et le schéma du réfrigérateur on peut décomposer chaque transformation:

–  De 1 à 2, le fluide est compressé d’une pression basse à une pression haute, via un compresseur, ce qui provoque une élévation de la température du fluide.

La transformation 2-3 permet d’extraire une partie de l’énergie du fluide (QH), le fluide passe dans un échangeur, c’est celui qui se trouve derrière votre réfrigérateur. Dans beaucoup de système, cette étape vise à recondenser le fluide. Comme le passage d’une phase à une autre se fait à température et pression constante, ce transfert d’énergie du fluide vers la pièce où se trouve le réfrigérateur se matérialise par la liquéfaction du fluide.

Entre les points 3 et 4, le liquide passe à travers un organe de détente, typiquement un capillaire dans les réfrigérateurs domestiques car il est peu coûteux et ne nécessite pas d’entretien particulier ou de maintenance. Le but de ce capillaire est d’avoir un diamètre suffisamment petit afin de créer une forte friction entre le fluide et les parois, et ainsi d’obtenir une pression plus basse à sa sortie. En subissant une chute de pression, le fluide sort alors à une température plus basse que celle de l’intérieur du réfrigérateur. 

Lors de la transformation 4-1 le fluide passe dans un échangeur qui se trouve dans les parois du réfrigérateur. Il extrait alors la chaleur de l’intérieur du réfrigérateur en se vaporisant. L’avantage du processus de vaporisation réside dans le fait que tout au long de l’échangeur, le fluide est à la même température, ce qui permet d’avoir la même température à chaque niveau du réfrigérateur.



Schéma de fonctionnement d’un réfrigérateur et son diagramme P-h associé (cliquez pour agrandir)

Le processus est finalement relativement simple et lorsque l’on souhaite chauffer sa maison avec une pompe à chaleur, le principe est le même, il suffit de remplacer l’intérieur du réfrigérateur par l’extérieur de la maison, et d’évacuer la chaleur du fluide en servant de source chaude au circuit de chauffage : le cycle « tourne » ainsi dans l’autre sens.

Cryogénie

La cryogénie est définie comme la branche de la physique qui traite de la production des très basses températures et de leurs effets sur la matière mais plus communément, la cryogénie est la science et ses applications qui traite des phénomènes physiques inférieurs à -153°C. Cette température représente la limite en dessous de laquelle les principaux gaz atmosphériques se liquéfient. En cryogénie, on ne parle plus en degrés Celsius mais en degré kelvin pour des
raisons de commodités. Le zéro degré kelvin correspond au zéro absolu et est égal à -273,15°C (cf. article sur la température pour plus de précisions). La cryogénie est souvent confondue avec la « cryonie » et donc perçu par le grand public comme une technique de congélation des êtres vivants. Pour l’instant il s’agit plus de science-fiction, même si la préservation de tissus organiques est aujourd’hui possible : c’est que l’on appelle la cryobiologie.

Les principaux fluides cryogéniques sont les suivants (les températures représentés sont les températures d’ébullition à pression atmosphérique ce qui veut dire que sous cette température, ces gaz atmosphériques sont liquides) :

  • Méthane : 111 K (-162,15°C)
  • Oxygène : 90 K (-189,15°C)
  • Argon : 87 K (-186,15°C)
  • Azote : 77,3 K (-195,85°C)
  • Néon : 27,2 K (-245,95°C)
  • Hydrogène : 20,27 K (-252,88°C)
  • Hélium: 4,21 K (-268,94°C)

Tous ces éléments sont principalement utilisés sous forme liquide en médecine, dans l’industrie chimique, en métallurgie, pour l’industrie spatiale ou dans les transports mais aussi en physique des particules. Aujourd’hui l’hydrogène liquide est beaucoup moins utilisé en physique des particules depuis
la diminution du nombre de chambres à bulles, et l’oxygène ne sert plus de réfrigérant à cause des risques d’accidents potentiels. Les accélérateurs ont besoin de la cryogénie appliquée à la supraconductivité et certains instruments utilisent des gaz lourds liquéfiés (comme l’argon ou le krypton) à basse température pour créer un milieu actif propice à la détection de certaines
particules.

Les réfrigérateurs cryogéniques sont généralement constitués de 2 principales parties :

– Une station de compression qui permet de compresser le fluide cryogène.
– Une boîte froide permettant de refroidir le fluide par détentes successives à travers des turbines, des pistons ou des vannes jusqu’à sa liquéfaction.

Afin de liquéfier ces gaz cryogéniques, on utilise la méthode de détente de Joule-Thomson, non pas qu’elle soit plus efficace mais parce qu’elle est peu coûteuse. En comparaison au réfrigérateur domestique, le capillaire est remplacé par une vanne, bien isolée thermiquement, dont l’ouverture est réglable et permet de séparer le gaz à haute pression de celui à basse pression. Cette détente a quand même une particularité. Si la température du fluide avant de passer la vanne est inférieure à la « température d’inversion de Joule Thomson », alors le fluide sort à une température plus basse. Ceci est très pratique pour des gaz qui ont des températures d’inversion supérieure à la température ambiante, ce qui est le cas de l’azote et de l’oxygène. Malheureusement ce n’est pas le cas de l’hélium, qui a besoin d’être refroidi au préalable grâce à des turbines car sa température d’inversion se situe autour de 40 kelvins : l’effet Joule-Thomson est donc effectif sous cette température uniquement. Les turbines fonctionnement sur le même principe que celles qui produisent l’électricité dans les centrales nucléaires. Le gaz arrive à haute pression et transforme son énergie en énergie mécanique en faisant tourner des pâles, mais dans le cas d’une turbine cryogénique, le travail fournit par l’hélium ne fournit pas d’énergie électrique. L’hélium est alors détendu est sa température abaissée.

Pour plus de précisions sur l’hélium liquide et sa découverte faite en 1908 par Heike Kamerlingh Onnes, voir mon analyse sur la bibliothèque numérique Bibnum faite il y a quelques mois : L’hélium Liquide.

La thermodynamique : Principes et Applications

Ceci est la continuité naturelle de mon billet précédent intitulé La thermodynamique : Les Bases. Je vais vous présenter ici les 4 grands principes universels qui sont posés par la thermodynamique et qui ont permis la compréhension, la construction et l’amélioration des machines thermodynamiques comme la machine à vapeur, le moteur à essence, la pompe à chaleur ou le climatiseur.



Principe zéro

On l’appelle principe zéro car c’est ce principe qui permet l’étude de la thermodynamique en utilisant la variable température. Il peut être exprimé ainsi :

« La température est une grandeur physique repérable permettant de caractériser l’état d’un système »

Autrement dit : « On peut fabriquer un thermomètre ». Un corps est dit en équilibre thermique si sa température n’évolue pas dans le temps. Si 2 corps isolés sont en contact alors ils évoluent vers un équilibre thermique où ils auront la même température.

Premier principe

Le premier principe correspond à la conservation de l’énergie peut être formulé ainsi :« Lors d’une transformation dans un système fermé, la variation d’énergie interne du système est égale à la quantité d’énergie échangée avec le milieu extérieur sous forme de chaleur et de travail »

On peut alors écrire mathématiquement que :


dU représente la variation d énergie interne du système, dQ est une petite quantité de chaleur apportée au système et dW est une petite quantité de travail reçue par le système.

On peut résumer ce principe par la fameuse maxime : « Rien ne se perd, rien ne se créé, tout se transforme » attribué à tord à Antoine Lavoisier puisque le philosophe présocratique Anaxagore de Clazomènes a écrit au 5ième siècle avant JC que : «  Rien ne naît ni ne périt, mais des choses déjà existantes se combinent, puis se séparent de nouveau ». On voit que la notion de conservation de l’énergie est très ancienne mais le premier principe de la thermodynamique précise que l’énergie interne d’un système (somme des énergies microscopiques) peut être modifiée par apport ou par retrait de chaleur et de
travail.

On comprend ici l’intérêt de ce principe pour la construction de machines thermiques qui auront pour but de transformer la chaleur en travail (machine à vapeur, moteur, etc.) ou bien de transformer le travail en chaleur (pompe à chaleur, réfrigérateur, climatiseur, etc.).

Deuxième principe

C’est ce principe, formulé en 1865 par le physicien allemand Rudolf Clausius, qui introduit une nouvelle variable dénommée entropie et notée ‘S’. Le deuxième principe est énoncé de la manière suivante :

« Toute transformation thermodynamique génère de l’entropie»

L’entropie est une grandeur extensive et est définit telle que sa variation lors d’une transformation réversible est égale à la quantité de chaleur apportée au système divisée par la température de ce même système, voir équation (1).

Si la transformation est irréversible, alors il y a une création d’entropie positive à cause des phénomènes dissipatifs (friction, diffusion, etc.), voir équation (2). On peut alors en déduire la fameuse inégalité de Clausius qui résume le second principe et qui est représentée dans l’inéquation (3) :

En réalité, une transformation réversible parfaite n’existe pas, toutes les transformations dites réelles sont irréversibles et elle créent de l’entropie. L’entropie totale de l’Univers est donc en perpétuelle augmentation depuis sa naissance. Cet énoncé est capital en thermodynamique et a de nombreuses
retombés au niveau scientifique mais également au niveau philosophique.

Pour la construction de machines thermiques, il faut comprendre avec ce principe que la génération d’entropie est un problème car cette entropie créée va venir diminuer le rendement des machines. Autrement dit, il faut fabriquer des machines qui minimisent la création d’entropie, c’est-à-dire  qui minimise principalement les pertes par frictions. On comprend naturellement qu’un moteur qui tourne  très vite va avoir un meilleur rendement si les frottements sont minimes.

Troisième principe

Ce principe, également appelé principe de Nernst fut énoncé en 1904 :

 « Si la température d’un système tend vers le zéro absolu, alors l’entropie tend vers zéro »


Les fondements et les implications de ce principe, liés à la physique quantique, sont complexes mais n’ont pas d’incidence sur la thermodynamique classique et la construction de machines thermiques. Je ne rentrerai donc pas dans les détails ici.

Les machines thermiques

Une machine thermique peut répondre à 2 fonctions principales :

Transformer la chaleur en travail (faire bouger un objet à partir de chaleur) : Machine à vapeur, moteur thermique (moteur à explosion, essence, diesel, alcool ou gaz dans les voitures, moteurs à réaction dans les avions), etc.

Transformer le travail en chaleur (faire du chaud ou du froid à partir d’un objet qui bouge) : Pompe à chaleur, réfrigérateur, climatiseur, etc.


Les machines thermiques sont basées sur un ensemble de transformations thermodynamiques que l’on vient faire subir à un fluide de manière cyclique. Dans notre étude thermodynamique, ce fluide est alors notre système qui va venir échanger de la chaleur et du travail avec le milieu extérieur .

– Dans la machine à vapeur, le fluide en question est de l’eau que l’on vient en général chauffer à l’aide d’une chaudière à charbon pour évaporer l’eau (apport de chaleur). La vapeur d’eau actionne alors un piston qui va entrainer une roue par l’intermédiaire d’un vilebrequin et provoquer un mouvement de rotation (création de travail). Illustration d’une machine à vapeur (source :
Wikipédia
) :


– Pour un moteur à explosion d’automobile, le fluide utilisé est de l’essence, du diesel, de l’alcool ou du gaz (GPL) selon les moteurs. Dans un moteur à essence 4 temps classique, on vient faire exploser un mélange air/carburant dans une chambre à combustion avec un petite étincelle founie par les bougies
(apport de chaleur). Cette explosion permet le mouvement d’un pison qui va engendrer un mouvement de rotation via un vilebrequin pour faire tourner les roues (création de travail).
Illustration d’un moteur à 4 temps (source : Wikipédia) :


– Dans les réfrigérateurs on utilise un fluide dit « frigogène » comme fluide caloporteur (qui transporte la chaleur). On utilisait du fréon au tout début mais maintenant ce sont des fluides complexes comme le dichlorodifluorométhane, le tétrafluoroéthane ou le méthylpropane qui sont moins nocifs pour l’environnement. Le principe général du réfrigérateur est de compresser un fluide à l’aide d’un compresseur (apport de travail) et d’effectuer ensuite une détente (diminuer la pression du fluide brutalement) pour faire du froid. Les climatiseurs sont basés sur le même principe et les pompes à chaleur sont simplement des climatiseurs qui fonctionnent ‘à l’envers’. Voir billet Du Frigo à la Cryo qui parle des machines frigorifiques.

Par commodité, on représente ces transformations dans des diagrammes qui peuvent être de différentes natures. Un des plus connus est le diagramme de Clapeyron qui représente l’évolution de la pression et du volume du fluide pendant les transformations. Ainsi, chaque ligne entre 2 points du diagramme
correspond à une transformation réalisée par un équipement particulier (échangeur de chaleur, vanne, turbine, piston …) entre 2 états du fluide.

Le Cycle de Carnot

Au début du 19ième siècle, Sadi Carnot, célèbre physicien et ingénieur français, établit le cycle thermodynamique idéal pour obtenir du travail mécanique à partir d’une source chaude et d’une source froide : le cycle de Carnot. Les recherches de Carnot étaient vitales à son époque pour fabriquer des machines à vapeurs optimales en améliorant les rendements et c’est également lui le premier à formuler de manière scientifique le principe du moteur thermique sur lequel tous les moteurs  thermiques sont  aujourd’hui construits dans les voitures et les avions (moteurs à explosion et moteurs à réaction).

 Ce cycle étant réversible, si on le prend dans le sens inverse, il est aussi le cycle idéal pour échanger de la chaleur d’une source chaude à une source froide à partir d’une source de travail donnée. Autrement dit : c’est le cycle de réfrigération idéal !

Le cycle de Carnot est constitué d’un ensemble de 2 transformations adiabatiques réversibles (pas d’échange de chaleur avec l’extérieur à entropie constante) et de 2 transformations isothermes (température constante). Dans le sens des aiguilles d’une montre, c’est un cycle moteur et les transformations sont les suivantes :

  • De A à B : Compression isotherme où une chaleur Q1 est extraite du système vers la source froide qui est à une température T1 (donc Q1<0)
  • De B à C : Compression adiabatique réversible (isentropique)
  • De C à D : Détente isotherme où une chaleur Q2 est apporté au système via une source chaude qui est à la température T2 (donc Q2>0)
  • De D à A : Détente adiabatique réversible (isentropique)

 

Le cycle de Carnot moteur dans le diagramme de Clapeyron (Pression en fonction du Volume)

 Au total, ce cycle produit un travail mécanique W = Q1+Q2 ainsi qu’une quantité de chaleur Q1 pour une quantité de chaleur apportée égale à Q2 et c’est le meilleur cycle possible entre une source chaude et une source froide.

Si on applique le 2ième principe de la thermodynamique sur ce cycle en disant qu’il est idéal (transformation adiabatiques réversibles, donc à entropie constante), on peut faire un bilan entropique du cycle.

– Pendant la transformation de A à B, l’entropie extraite du système est égale à la quantité de chaleur Q1 négative divisé par T1, voir équation (1)

– Pendant la transformation de C à D, l’entropie apportée au système est égale à la quantité de chaleur Q2 positive divisée par la température de la transformation, soit T2, voir équation (2)

– Les 2 autres transformations sont des transformations adiabatiques réversibles donc l’entropie reste constante. On peut alors dire que l’entropie perdue entre A et B est égale à l’entropie gagnée entre C et D, voir l’équation (3) qui symbolise l’équation de Clausius-Carnot et qui définit ainsi les chaleurs nécessaires à échanger entre une source chaude (à la température T2) et source froide (à la température T1).



Exemple avec cycle de Carnot

On considère une sorte de machine à vapeur idéale qui utilise l’eau comme fluide et qui serait basée sur un cycle de Carnot (impossible à réaliser). Dans notre machine fictive, la source froide est à la  température ambiante, soit T1= 20°C = 293 kelvin. La source chaude est à la température de la vapeur d’eau qui est donc T2= 100°C = 373 kelvin. Si on apporte une quantité de chaleur Q2=500 joules , alors la quantité de chaleur extraite du système est selon l’équation de Clausius-Carnot égale à Q1 = – T1 * (Q2/T2) = – 293 * (500/373) = -393 joules. Le travail fournit est donc égale à W=Q1+Q2 = 500 – 393 = 107 joules.

 Ceci signifie qu’entre 20°C et 100°C, si on apporte une quantité de chaleur de 500 joule, on pourra extraire dans le meilleur des cas un travail de 107 joule, le rendement optimal est donc n = W/Q2 = 107/500 = 21%. La physique nous apprend donc qu’il est impossible de fabriquer une machine thermique avec un
rendement supérieur à 21% entre 20°C et 100°C. Plus généralement on peut démontrer que le rendement pour une machine de Carnot ne dépend que des températures chaude et froide et que ce rendement est égal à :


Toutes les machines thermodynamiques tentent de se rapprocher du cycle de Carnot mais il est inatteignable en partie à cause du deuxième principe de la thermodynamique qui dit que toute transformation génère de l’entropie. Les transformations isentropiques (adiabatiques réversibles) sont alors impossibles, de même que les compressions isothermes car lorsqu’on comprime un gaz, on vient générer de la chaleur à cause des frictions, ce qui a pour effet d’augmenter la température du système.

 A titre d’exemple, un moteur thermique essence fonctionne entre 20°C (293 K) et 500°C (773 K) environ, son rendement de Carnot est donc de 1-273/773 = 62%. En réalité, un moteur à essence possède un rendement d’environ 36% en fonctionnement optimal et de 15% en fonctionnement dégradé (en ville par
exemple) à cause de la génération d’entropie dans les différentes transformations et de la génération de chaleur lors de la compression.

La thermodynamique : les bases

Durant ma deuxième année de doctorat, j’ai suivi un école d’été sur la physique des basses températures (cryocourse) et il y avait évidemment un rappel de la thermodynamique de base. De mémoire, voici la phrase d’introduction de notre professeur (qui est plus que vraie) :

« La première fois que l’on étudie la thermodynamique, on ne comprend rien. La deuxième fois, on pense avoir compris. Et la troisième fois, on est sûr et certain de n’avoir finalement rien compris mais ce n’est pas grave car on arrive tout de même à l’utiliser et ça marche !»



 

La thermodynamique est une discipline majeure de la physique et a connue de nombreuses évolutions au cours des siècles. Elle a pour fonction première l’étude de la chaleur et des différentes machines thermiques mais elle a aussi comme mission l’étude des systèmes à l’équilibre. La thermodynamique a été élaborée principalement au 19ième siècle par des scientifiques de renom avec entre autre Carnot, Clapeyron, Lord Kelvin, Clausius, Boltzmann, Van der Waals
etc. (voir portraits ci-dessus, vous remarquerez l’importance de la barbe).

 C’est un sujet vaste et complexe, mon billet de blog qui arbore le titre « La thermodynamique » est bien ambitieux mais je vais essayer autant que possible de vous en donner un aperçu concis et le plus juste possible, ce qui n’est pas une tache évidente… Si vous désirez simplement connaitre les principes et les applications aux machines thermiques, voir le billet Thermodynamique : Principes et Applications.

 La notion de système

La thermodynamique étudie des systèmes. Un système est une portion de l’Univers que l’on isole par la pensée et tout se qui est hors de ce système est appelé milieu extérieur. Il existe trois types de systèmes :

  • Les systèmes ouverts qui échangent de la matière et de l’énergie avec le milieu extérieur. Ex : une bouteille plastique d’eau ouverte : elle peut se remplir ou se vider, elle échange de la chaleur avec l’air ambiant et elle est déformable.
  • Les systèmes fermés qui n’échangent pas de matière avec le milieu extérieur mais qui peuvent échanger de l’énergie sous forme de travail mécanique et de chaleur. Ex : une bouteille plastique d’eau fermée. Elle peut être déformée et elle échange de la chaleur avec l’extérieur mais la quantité de matière à l’intérieur ne change pas.
  • Les systèmes isolés où il n’y a aucun échange avec le milieu extérieur (ni matière, ni énergie). Ex : une bouteille thermos fermée idéale rigide.

 

 Les variables d’état

Différentes grandeurs (ou variables) physiques sont utilisées en thermodynamique. Il est primordial de bien les comprendre et de pouvoir les classer dans différentes catégories pour ensuite les utiliser. Tout d’abord, il faut distinguer les grandeurs extensives et intensives :

  • – Une grandeur extensive est une grandeur physique qui est proportionnelle à la taille du système (on peut les additionner). Ex : masse, volume, quantité de matière, etc.
  • – Une grandeur intensive est une grandeur physique qui ne dépend pas de la quantité de matière considérée (on ne peut pas les additionner). Ex : température, pression, densité, etc.



La thermodynamique cherche à calculer les grandeurs physiques d’un système à un état d’équilibre en fonction d’autres grandeurs. Pour cela, on définit des variables d’état qui sont des grandeurs physiques mesurables permettant de définir l’état d’un système, indépendamment du chemin suivit pour
arriver à cet état.

Explication : Il y a quelques semaines j’ai fait une sortie en ski de randonnée dans les alpes suisses et nous devions atteindre le Mont Tellier situé à 2951 m en partant d’un parking situé à 1925 m. Deux groupes sont partis du parking par deux itinéraires différents :

  • – Le premier groupe a fait une ascension directe régulière totalisant 2951-1925 = 1026 m de dénivelé positif (trajet bleu).
  • – Le deuxième groupe a emprunté un chemin plus long nécessitant des montés et des descentes. Cet itinéraire, totalisait 1500 m de dénivelé positif (trajet rouge).



Dans cet exemple, on peut définir l’état du système par la variable « altitude » car la différence d’altitude entre le parking et le sommet des 2 itinéraires est la même : DA = 2951-1925 = 1026 m : l’altitude est donc une variable d’état.

En revanche, l’effort mécanique fourni par le groupe rouge est nettement supérieur à l’effort mécanique fourni par le groupe bleu : la variable « effort mécanique » n’est donc pas une variable d’état car elle dépend du chemin suivit entre 2 états à l’équilibre.

 En thermodynamique, les grandeurs d’état principales sont les suivantes :

  • La température (T) qui se mesure en degré kelvin, voir billet La Température pour plus de précision.
  • La pression (P) qui est une force par unité d’aire. La pression se mesure en pascal (1 Pa = 1 N/m²) mais on utilise souvent le bar par commodité (1 bar = 100 000 Pa). Un pneumatique de voiture gonflé à 2 bars signifie que l’air applique une force de 200 000 newton par mètre carré sur le pneu.
  • Le volume (V) qui se mesure en mètre cube.
  • L’énergie interne (U) qui représente l’ensemble des énergies microscopiques d’un système et se mesure en J/kg. L’énergie interne correspond à la somme des énergies dues à l’agitation thermique des particules et aux liaisons entre les nucléons, les atomes et les
    molécules.
  • L’enthalpie (H) qui est une fonction pratique en génie thermique car lorsque qu’une transformation a lieu à pression constante, la variation de l’enthalpie exprime la quantité de chaleur échangée. L’enthalpie se mesure en J/kg et est définit par H = U+P*V.
  • L’entropie (S) qui représente en quelque sorte le « désordre microscopique» d’un système et se mesure en J/K-kg. On reviendra un peu plus tard sur la notion d’entropie

Les grandeurs thermodynamiques qui ne SONT PAS des variables d’états (qui dépendent du chemin suivit) sont les suivantes :

  • Le travail (W) qui se mesure en Watt et représente une énergie mécanique par seconde.
  • La chaleur (Q) qui se mesure également en Watt et qui représente une énergie thermique par seconde.

 

Les fonctions d’état

Les différentes variables d’état ne sont pas indépendantes les unes des autres : elles sont liées de manière plus ou moins complexe et la thermodynamique a alors pour objectif de définir des « équations d’état » ou des « fonctions d’état » qui mettent en relations les différentes grandeurs d’état à l’équilibre.

 La fonction d’état thermodynamique la plus simple et la connue est l’équation des gaz parfaits qui s’écrit :

P*V = n*R*T

où les grandeurs d’état sont la pression (P), le volume (V) et la température (T) avec « n » la quantité de matière et « R » la fameuse constante des gaz parfaits. Cette équation est un modèle fiable pour les gaz dit parfaits, c’est-à-dire les gaz constitués de particules suffisamment éloignées les unes des autres pour en négliger les interactions : le diazote et le dioxygène de notre atmosphère en sont un exemple.

 

Les transformations

On appelle transformation le passage d’un état d’équilibre initial à un état d’équilibre final. On identifie souvent les transformations par une variable d’état qui reste constante : une transformation à température constante (isotherme), à pression constante (isobare), à volume constant (isochore), à enthalpie constante (isenthalpique), à entropie constante (isentropique).

 On entend également souvent parler de transformation adiabatique, cela signifie simplement que c’est une transformation au cours de laquelle le système n’échange pas de chaleur avec le milieu extérieur.

 Plus généralement, il existe deux grandes classes de transformations :

– Les transformations réversibles : une fois la transformation effectuée, l’état initial peut être rejoint depuis l’état final en appliquant une action mineure sur le système. Ex : Une bouteille d’eau fermée à température et pression ambiante (20°C, 1 bar) est laissée sous un soleil de plomb. La température monte alors à 30°C et la pression à 2 bar. Si le soleil disparaît sous un nuage, la bouteille retrouve son état initial au bout d’un certain temps.

– Les transformations irréversibles : une fois la transformation réalisée, il est impossible de revenir à l’état initial depuis l’état final de manière rapide et simple. Ex : Une bouteille est remplie de 2 liquides de mêmes densités et de couleurs différentes (un bleu et un jaune) séparés par une paroi étanche. On retire la paroi et les 2 liquides se mélangent. Il est alors impossible de retrouver l’état initial simplement.

 

Une transformation est généralement considérée réversible si les grandeurs intensives sont continues, si la transformation est lente (on dit alors qu’elle est quasi-statique) et s’il n’y a pas de phénomènes dissipatifs (diffusion, frictions,
etc.).

 On peut également retenir qu’une transformation adiabatique (qui n’échange pas de chaleur avec le milieu extérieur) et réversible est une transformation isentropique.

La première liquéfaction de l’hélium par H.K. Onnes


Alexandre Moatti
présentait le mois dernier une nouvelle bibliothèque numérique présentant des textes fondateurs de la science antérieurs à 1940 et analysés par des scientifiques contemporains : BibNum.

Je viens de faire une analyse sur BibNum au sujet de la première liquéfaction de l’hélium réalisée en 1908 par Heike Kamerlingh Onnes au laboratoire de Leyde aux Pays-Bas : voir l’analyse sur Bibnum.

L’analyse s’appuie sur le communiqué fait à l’Académie des Sciences où il décrit son expérience et sa découverte de l’hélium liquide. Il atteint alors la température de 1,65 K (-271,5 °C), la plus basse jamais atteinte par l’homme à cette époque. On peut voir sur la photo ci-contre H.K. Onnes (à droite) et G.J. Flim (à gauche), le chef du laboratoire de cryogénie, devant le liquéfacteur d’hélium à l’université de Leyde en 1908.

 Seulement trois ans plus tard, Onnes découvrira  par hasard la supraconductivité : en dessous d’une certaine température très basse, dite critique, certains matériaux laissent circuler l’électricité sans aucune perte (la résistance devient nulle). Onnes obtiendra le prix Nobel en 1913 pour ses recherches sur les propriétés de la matière aux basses températures, qui conduisirent, entre autres, à la production d’hélium liquide.

Cette découverte pouvant passer inaperçue était une prouesse technologique et scientifique tout en ouvrant la voie à de très nombreuses applications comme la supraconductivité. Les supraconducteurs sont principalement utilisés pour fabriquer des électroaimants peu encombrants et générant de très forts champs
magnétiques. Aujourd’hui, la physique des particules et l’imagerie médicale ont recours tous les jours à la cryogénie à l’hélium liquide pour refroidir des aimants supraconducteurs. Le plus grand succès de l’hélium liquide et de la supraconductivité est l’accélérateur de particules LHC (Large Hadron
Collider
) au CERN qui vient de démarrer cette année, exactement 100 ans après la première liquéfaction de l’hélium par Onnes.
Le LHC est composé de 27 km d’aimants supraconducteurs qui baignent dans de l’hélium superfluide à 1,9 K. Au total, 60 tonnes d’hélium liquide (normal et superfluide) sont utilisés pour refroidir les 36 800 tonnes de la machine.

Les éoliennes, c’est sérieux ?

On m’a demandé récemment :
« 
pourquoi ne remplace t-on pas toutes nos centrales nucléaires par plein d’éoliennes partout en France ». On va donc se projeter dans une France où on décide de remplacer le parc nucléaire par des éoliennes…

Les plus grosses éoliennes commerciales (et les plus rentables) ont une puissance d’environ 2.5MW. Typiquement, les éoliennes N90/2500 fabriquées par un des leaders mondiaux : Nordex. Ce modèle mesure autour des 120m de haut pour un rotor ayant un diamètre de 90m (les pales font 45m). Le bruit dégagé est de 105 dB(A). On peut lire dans la documentation que les 2.5MW sont disponibles pour un vent supérieur à 14m/s (50km/h). Si le vent tombe à 8m/s, la puissance fournie est de 1MW et pour 6,5m/s on a 500kW. En pratique, une augmentation de 10% de la vitesse du vent donne 15 à 20% d’énergie en plus.

En étant raisonnable, on peut considérer qu’on peut installer 8MW par km² avec ce type d’éolienne, c’est-à-dire 3,2 éoliennes par km² en vue de la taille des pales
et de l’espacement minimum entre 2 éoliennes. Concernant l’éolien offshore (dans la mer sur le littoral) la puissance installée au km² est la même. Voici la carte des vents en France (pour une altitude de 50m) :

 Sur le territoire français, la vitesse du vent se situe aux alentours de 5m/s à 50m au-dessus du sol, notre éolienne de 2,5MW ne fournit plus que 200kW. Mais l’éolienne que j’ai sélectionnée est plus haute (120m), le vent est donc plus important et on privilégie évidemment les zones venteuses en littoral. En étant optimiste, on peut dire que notre « éolienne moyenne » en France fournit une puissance de 500kW. Dans ce cas ce n’est plus 8MW/km² que l’on installe mais 1,6MW/km². Après un rapide calcul on déduit que pour atteindre les 63 000MW du parc nucléaire français, il faut donc occuper 40 000km². Cette superficie correspond à peu près à l’ensemble de la surface occupée par la culture du blé en France (je rappelle que la France est le 4ième producteur mondial de blé avec 37 millions de tonnes). On pourrait donc remplacer toutes nos centrales nucléaires par des éoliennes si on mettait des éoliennes dans tous les champs de blé. Peut être que je ne suis pas le premier à avoir cette idée, puisque à côté d’Orléans des éoliennes Nordex poussent comme des champignons en pleine Beauce dans les champs de blé (voir photo en début d’article). Mais est-ce bien sérieux? 40 000km² d’éoliennes en France, je vous laisse apprécier par vous-même cette possibilité…(c’est bien sûr irréalisable).

Oui, les éoliennes c’est bien, ça montre que notre pays s’engage dans les énergies renouvelables, c’est une noble cause mais est-ce réellement une solution à notre
gigantesque consommation électrique ? Ne devrait-on pas plutôt chercher à réduire notre consommation plutôt que dépenser de l’argent dans des éoliennes qui représenteront dans le meilleur des cas quelques pourcents de la consommation électrique française ? J’avoue que pour l’ingénieur que je suis, c’est bien les éoliennes, c’est pile dans ma branche et ça fait de l’emploi, on ne peut pas négliger cet aspect mais on pourrait aussi créer plus d’emplois pour le développement de futurs réacteurs nucléaires « propres » qui ne dégageraient presque plus de déchets radioactifs ! Mais pour ce qui est des choix à faire, c’est une question 100% politique où les scientifiques sont laissés de côté…

ITER : Un avenir énergétique sûr, périn et propre ?

Avant de lire les détails de ITER, il va de soit qu’il faut en premier lieu lire l’article énergie nucléaire. Pour ceux qui ne connaissent pas encore le projet ITER, voici une description succincte en premier lieu.



 ITER (International Thermonuclear Experimental Reactor) est comme son nom l’indique un projet international ayant pour objectif de construire un réacteur à fusion thermonucléaire. Ce projet regroupe l’Union Européenne, le Japon, la Chine, la Corée du Sud, la Russie, les Etats-Unis et l’Inde. La Suisse et le Brésil ont également demandé une candidature. ITER doit créer un réacteur expérimental, c’est-à-dire que c’est une expérience à vocation de Recherche et non une application industrielle. Néanmoins, le but de cette expérience est d’étudier la faisabilité technique et industrielle d’une supposée future centrale à fusion thermonucléaire qui viendrait détrôner toutes les actuelles centrales nucléaires (utilisant la fission). Ce nouveau procédé permettrait de limiter les déchets radioactifs (ici pas de Plutonium, Uranium ou truc dans le genre) et de produire une quantité beaucoup plus importante d’énergie. Pour ce projet, le site de Cadarache en France à côté de Aix en Provence vient d’être sélectionné cette année. Le coût de construction de ce réacteur est estimé à 5 milliards d’euros sur 10 ans si tout se passe bien.

 La presse de vulgarisation scientifique a beaucoup utilisé l’expression : « ITER : Le soleil sur Terre ». Pourquoi ? Tout simplement parce que ce futur réacteur va exploiter le principe de la fusion nucléaire et non la fission nucléaire qui est à l’origine de nos centrales nucléaires actuelles. Toutes les étoiles, et donc notre Soleil, sont en fait d’énormes réacteurs nucléaires à fusion transformant l’Hydrogène en Hélium. ITER produira une fusion entre du Tritium et du Deutérium pour former de l’Hélium (voir article l’énergie nucléaire).


ITER est un tokamak comme ses prédécesseurs (une sorte de gros donut) mais il est beaucoup plus grand avec un rayon externe de 6,2m, soit deux fois plus grand que le plus grand tokamak existant. En fusion, l’équation est assez simple, plus le diamètre du tokamak est important, plus l’énergie dégagée est importante. C’est un réacteur qui devrait dégager une puissance de 500MW pendant 400s pour une puissance apportée en chauffage de 50MW (on a alors une amplification d’un facteur 10). Ce projet utilisera toutes les dernières avancées technologiques en supraconductivité. En effet, ITER utilise la fusion par confinement magnétique, il faut donc créer des champs magnétiques très importants (5,3 Tesla au centre du plasma) et par souci d’efficacité, ITER utilisera des aimants constitués de bobines supraconductrices maintenues à quelques kelvins grâce à un système cryogénique (voir article supraconductivité). Ce projet a de nombreux points communs avec le futur accélérateur de particules du CERN, le LHC, car tous les deux utilisent les mêmes technologies. Je suis d’ailleurs allé l’année dernière quand je travaillais au CERN à un lot de conférences fait par ITER concernant la supraconductivité.

 Les Avantages

Les 2 avantages principaux sont la pollution et la quantité d’énergie. Le seul élément radioactif qui entre en jeu est le Tritium (il est néanmoins très faiblement radioactif avec une demi période de 12,3 ans) qui sera directement produit dans le réacteur à partir de Lithium. Les 2 matières premières sont donc le Lithium et le Deutérium qui sont des composants non dangereux que l’on trouve dans la nature. De plus, les réserves sont suffisantes pour plusieurs millions d’années. Le produit de la réaction, l’Hélium, est un gaz rare complètement inoffensif également.

 Les Difficultés

 Le problème majeur de la fusion est que pour rapprocher suffisamment des noyaux (pour entraîner une fusion) il faut atteindre des températures incroyables. Pour cela 2 méthodes de chauffage peuvent être utilisées :

  • Le chauffage par injection de particules neutres de hautes énergies.
  • Chauffage  par ondes électromagnétique

 Ensuite, les noyaux d’Hélium créés sont très énergétiques et participent à plus de 60% du chauffage une fois la fusion entamée. Aucun matériau ne peut supporter de telles températures, c’est pour cette raison que l’on utilise d’importants champs magnétiques pour faire de la fusion par confinement magnétique. Le chauffage et la création des champs magnétiques consomment bien sûr de l’électricité. Le coût du kilowattheure pour la « Fusion » se situe entre 1,5 à 2 fois de prix du kilowattheure nucléaire classique « fission ». L’électricité serait donc plus cher mais il n’y aurait pas le problème de stockage des déchets hautement radioactifs.

 L’autre problème, celui-ci très préoccupant, et qui à mon avis, peut être un obstacle pour un futur réacteur à finalité industrielle est le bombardement neutronique. On parle assez peu de cet aspect mais c’est un point capital qui pourrait tout faire échouer. On a vu que lors des réactions de fusion, des neutrons sont éjectés à très grande vitesse (il possèdent une importante énergie). Le champs magnétique créé dans le tokamak ne peut évidemment pas bloquer ces neutrons car ils sont électriquement neutres (un champs magnétique capture uniquement les particules chargées) donc ces neutrons énergétiques vont venir bombarder les matériaux alentours. Ce bombardement est réellement violent et au bout d’un certain temps, les matériaux de l’enceinte du réacteur vont être saturés en neutrons et ne pourront plus les stopper entraînant un changement obligatoire et ce n’est pas viable économiquement et changer les matériaux d’enceinte tous les quatre matins. Des recherches sont actuellement faites sur le développement de matériaux absorbant efficacement les neutrons.

 En Bref

ITER doit valider la faisabilité d’un nouveau type de réacteur générant de l’électricité. L’avantage est que ce type de réacteur permettrait de remplacer intégralement toutes les centrales en place en ayant pour matières premières des éléments qu’on trouve abondamment dans la nature pour un bilan écologique très bon. Pas de gaz à effet de serre, juste de la vapeur d’eau comme les centrales nucléaires actuelles, mais ici on a uniquement des déchets très peu radioactifs et très faciles à gérer contrairement à l’Uranium ou Plutonium qui sont des contraintes écologiques gigantesques avec l’énergie nucléaire actuelles.

L’Energie nucléaire

Quand on pense à énergie nucléaire on pense souvent à des grosses tours en béton avec des gros nuages de fumée blanche. On pense aussi à l’Uranium, au Plutonium et à la radioactivité, mais quand est-il réellement ?


Je n’aborderai pas le fonctionnement d’une centrale mais simplement les phénomènes de Fission et Fusion nucléaire qui sont au cœur du problème. J’introduis ces notions car le prochain article portera sur le futur réacteur expérimental à fusion thermonucléaire de Cadarache : ITER.

 Ces 2 phénomènes nucléaires peuvent être résumés simplement de la manière suivante : L’énergie nucléaire se libère de deux façons : ou le noyau d’un atome fusionne avec un autre noyau (fusion) ou il se casse en deux (fission). En général soit on vient fusionner 2 atomes légers (ex : Hydrogène) pour en former un plus lourd (ex : Hélium) soit on vient casser un atome très lourd (ex : Plutonium, Uranium…). On parle d’énergie nucléaire car on utilise une réaction du noyau qui est composé de nucléons (protons et neutrons).

 La Fission

C’est la réaction qui est utilisée dans nos centrales nucléaires et dans les bombes Atomiques. Ce phénomène a été découvert en 1938 par des physiciens allemands suite à des expériences effectuées en bombardant des noyaux d’Uranium avec des neutrons. Attention, tous les atomes ne sont pas
« fissibles » (c’est à dire cassable), ce phénomène est possible avec des atomes ayant un numéro atomique supérieur à 89 (le numéro atomique correspond au nombre de protons dans le noyau d’un atome). Les atomes les plus utilisés sont l’Uranium 235 (c est à dire avec 235 nucléons dans le noyau) et le Plutonium 239 que l’on vient bombarder avec des neutrons. Cette « cassure » de l’atome en 2 autres atomes plus petits vient libérer une énergie formidable sous forme d’énergie cinétique car les 2 atomes ainsi créés se propage à environ 8000 km/s et viennent alors réchauffer la matière ambiante (l’énergie cinétique est proportionnelle à la masse et au carré de la vitesse de l’objet considéré ). Une centrale nucléaire va venir exploiter cette chaleur pour générer de la vapeur d’eau (qu’on voit sortir par la cheminé) et la transformer en électricité.

L’originalité de la fission est la réaction en chaîne. Chaque fission vient dégager 2 ou 3 neutrons libres à très grande vitesse (20 000 km/s) qui peuvent alors provoquer à nouveau une nouvelle fission. On a une réaction en chaîne puisqu’en induisant une seule fission dans la masse d’uranium, on peut obtenir si on ne contrôle pas les neutrons au moins 2 fissions, qui vont en provoquer 4, puis 8, puis 16, puis 32…

Dans les réacteurs, la réaction en chaîne est stabilisée à un niveau donné, c’est-à-dire qu’une grande partie des neutrons est capturée afin qu’ils ne provoquent pas d’autres fissions. Il suffit seulement qu’un neutron, à chaque fission, provoque une nouvelle fission pour libérer régulièrement de l’énergie. Au contraire, pour la bombe, la réaction en chaîne doit être la plus divergente possible dans le temps le plus court : on favorise sa croissance exponentielle et l’on confine l’énergie le plus longtemps possible pour faire BOUM.

La Fusion thermonucléaire

Deuxième phénomène nucléaire, que l’homme maîtrise encore mal mais qui est omniprésent dans l’univers. Effectivement une étoile n’est ni plus ni moins qu’un gros réacteur à fusion nucléaire. Les étoiles (comme notre Soleil) viennent dans leur cœur faire fusionner des atomes d’Hydrogène entre eux pour former un élément plus lourd : l’Hélium. Lorsque notre cher soleil n’aura plus de carburant (d’Hydrogène) alors il s’éteindra… Cette fusion nucléaire se produit spontanément si la température est suffisante pour que les 2 noyaux soient suffisamment proche car ils ont tendance a se repousser par force électrostatique.

Cette réaction fournie une énergie beaucoup plus importante que la fission. C’est cette fusion thermonucléaire qui est utilisé dans les bombes H de manière non contrôlée et qui sera utilisée dans le futur réacteur ITER. Le gros problème c’est que pour provoquer la fusion de 2 noyaux, il faut atteindre des températures titanesques (plusieurs centaines de millions de degrés). Pour faire cette fusion sur Terre, le plus simple est d’utiliser 2 isotopes de l’Hydrogène (deux isotopes sont des atomes ayant le même nombre de protons mais un nombre différent de neutrons) qui sont le deutérium et le tritium. Le deutérium (un proton et un neutron), qui compose l’« eau lourde »,  peut être extrait à partir d’eau de mer assez facilement. On trouve en moyenne 33g de deutérium dans 1m3 d’eau de mer. Le tritium (1 protons et 2 neutrons) est un élément radioactif mais tout de même 87 500 000 fois moins que l’Uranium utilisé dans la fission. Le tritium a une période de radioactivité de 12 ans, l’Uranium 235 a une période de 700  000 000 ans (la période de radioactivité est le temps nécessaire pour que la moitié des atomes d’un isotope radioactif se désintègre naturellement).

Ici, pas de réaction en chaîne, il faut en permanence alimenter cette fusion, on ne peut donc pas avoir de phénomène d’ « emballement » comme avec la fission. Pour le moment, sur Terre, les expériences de fusion sont extrêmement rares, difficiles et coûtent chères. Ces essais ont été réalisés dans des Tokamaks (une sorte de gros Donut, voir photo) pourvu d’un énorme champs électromagnétique permettant de faire flotter le plasma au centre du donut, on parle alors de fusion par confinement magnétique. On citera juste les expériences JET chez les européens, JT-6OU pour les japonais, Tore Supra en France et T-15 en Russie. Les résultats sont encore peu convaincants mais les scientifiques du monde entier mettent leurs billes sur le projet international ITER.

Aujourd hui on roule au pétrole, et demain ?

Comme en ce moment je bosse dans le pétrole, je me suis dit qu’un petit article s’imposait…

Je viens de visiter la raffinerie de pétrole de Bilbao Pétronor liée à Repsol. C’est la plus grande d’Espagne sur 200Ha et 11 000 000 de tonnes traitées chaque année (voir photo). Tout le monde se dit, la fin du pétrole est pour bientôt, c’est donc la fin de l’essence pour les voitures… Mais il n’y a pas que ça, dans une raffinerie comme celle-ci, l’essence pour voiture ne représente que 40% de la production car dans le pétrole brut, il y a beaucoup de choses à extraire : Du GPL, du Butane, du propane, du propylène, du souffre, de la Nafta, des dissolvants, du kérosène pour les avions et les fusées, du fuel oil, du gasoil pour les engins agricoles et les bateaux, de l’asphalte pour construire les routes. Tout cela se vend et possède un important marché. Donc la fin du pétrole (au mieux dans 40ans) sera la fin de beaucoup de choses.

Le gros problème de notre économie super mondiale, c’est qu’elle est lente à réagir, mais surtout lente à réfléchir ! Voyons, nous avons les technologies adéquates pour fabriquer des voitures sans essence (électrique, hydrogène, eau, huile, alcool…) il suffit de passer a une assez grande échelle pour faire chuter les prix de production et donc de vente. Ce genre de véhicules serait compétitif avec nos voitures classiques, tant au niveau performance que prix. Pourquoi est-ce qu’on attend qu’il n’y ait plus de pétrole pour passer au stade industriel et non rester au stade recherche en laboratoire ??? Il est certain qu’avec une bonne participation des constructeurs automobiles on arriverait rapidement à une belle voiture. Evidemment la recherche est très développée dans le secteur automobile mais ce n’est pas pour sortir la nouvelle Mégane à Hydrogène alors que ce serait possible. Il serait logique de changer le parc automobile petit à petit avec ce genre de nouvelles technologies ! Eh bien la raison de cette attente de dernier moment s’appelle « lobby ».

Vous n’imaginez même pas ce que le changement de technologie entraîne au niveau restructuration de toute la chaîne de fabrication. Les entreprises comme Renault et PSA ne font plus que de l’assemblage de légo (suffit de regarder ma Twingo pour comprendre), toutes les pièces viennent d’une multitude d’équipementiers, les principaux étant Valéo et Faurecia. Un exemple : plus de voitures avec un moteur a explosion ça entraîne la disparition d’une centaine d’entreprises qui ne pourront pas forcement se recycler. Par exemple, l’embrayage va disparaître à coup sûr, donc toutes les entreprises fabriquant les pièces nécessaire à l’embrayage vont disparaître (de celle qui fabrique la fourchette d’embrayage comme la FAVI à celle qui fabrique tout simplement le levier de vitesse sans parler de ceux qui font les pièces mécaniques). L’économie va être chamboulée, et ceux qui sont content, ce sont les chercheurs et ingénieurs qui bossent dans les services R&D en génie électrique ou chimique, ils se frottent les mains par avance (ça tombe bien je suis ingénieur électrique dans un mois J) .



Mais le gros problème, c’est qu’il faut CHOISIR. Quel est le meilleur compromis performance/pollution/prix pour choisir la technologie du futur ? On trouvera d’un peu tout au début, et surtout, ça changera selon les pays je pense. L’Australie peut développer un véhicule solaire performant alors que les Anglais n’ont aucune chance. Les Brésiliens vont rouler à l’éthanol (grâce à leur production de canne à sucre) et les Américains avec la graisse usée des Mc Do et au Colza (on dira plutôt les biocarburants pour rester sérieux)… Pour les Européens (France, Allemagne, GB, Espagne, Rep Tchèque qui fabriquent des voitures) ainsi que les Japonais, je penche vers l’électrique. L’hydrogène parait également prometteur. Voilà mon pronostic, mais ça risque d’évoluer, et qui sait, peut être que demain on va faire une super découverte résolvant ce problème et mettant tout le monde d’accord (ça fait du bien de rêver).

Energie et Puissance

Ces notions ont besoin, pour être bien définies, d’une 10aine de pages, alors je vais essayer de faire court pour les moins courageux?

Voir article énergie (supplément) pour une meilleure explication.

Une énergie permet de quantifier l’intensité d’un phénomène et se mesure en Joule (J). C’est une unité physique inventée par l’homme permettant de rendre compte du transfert « d’ énergie »  entre différents phénomènes. Avant d’écrire cet article j’avais l’impression de bien savoir ce qu’était l’ « énergie » car j’utilise cette notion tous les jours mais je me rends compte que c’est un concept très difficile à expliquer. J’ai utilisé le mot « énergie » pour définir l´ « énergie », pas terrible…

L’énergie peut prendre de nombreuses formes et peut passer d’une forme à une autre du moment qu’elle est conservée :

  • Energie mécanique : énergie cinétique provenant de la vitesse d’un objet, énergie potentielle (qui provient d’une différence d’énergie entre 2 positions)
  • Energie thermique, la chaleur est une énergie, ne surtout pas confondre avec la température
  • Energie électrique
  • Energie magnétique
  • Energie chimique
  • Energie nucléaire, Eolienne, Solaire

Un Joule correspond à l’énergie qu’il faut fournir à un objet de 102 grammes (genre une pomme) pour le soulever de un mètre.

Dans la vie de tous les jours, on a l’habitude de mesurer la valeur énergétique des aliments en calories (cal) : 1 cal = 4,18 J. Cela correspond à l’énergie sous forme de chaleur qu’il faut apporter à 1 gramme d’eau pour élever la température de l’eau de 14,5°C à 15,5°C. En fait, on utilise toujours par commodité des kilocalories ou grande Calorie (Cal, avec une majuscule), égale à 1000 calories, soit 4186 joules.

En physique des particules on ne parle pas en Joule mais en Electron-Volt (eV), soit l’énergie que possède un électron : 1eV = 0,0000000000000000001660217653 Joule. C’est à dire, à titre de comparaison que dans un tic-tac à seulement 2 Calories, il y a autant d’énergie que dans environ 50 427 milliards de milliards d’électrons. Donc quand on sait qu’au CERN l’énergie des collisions de particules seront à 14TeV, soit l’énergie la plus puissante jamais atteinte dans un accélérateur faisant tout de même 27km de long employant 5000 personnes, ça représente moins d’un millième de milliardième de tic-tac ! Bref, j’arrête mes calculs stupides, revenons à nos moutons…

Une puissance, c’est en fait une énergie par unité de temps, on dit que la puissance dérive de l’énergie. Une lampe de 80W signifie que la lampe fournit 80 Joules chaque seconde (en fait elle transforme l’énergie électrique sous forme d’énergie lumineuse et de chaleur).

Pour les voitures, on utilise encore une vielle unité : le cheval vapeur (cv) : 1cv=736W. Cette puissance correspond à la puissance d’un cheval soulevant une charge de 75kg en marchant au pas (environ 1m/s). Une 2cv possède donc une puissance de moins de 1,5kW alors qu’une Ferrari classique possède une puissance de 280 kW. Et oui, la puissance de la 2cv et de la Ferrari sont très différente mais pour aller de Paris à Marseille elles transformeront la même énergie (si elles prennent la même route).

Si on reprend l’exemple avec un panier de 10 pommes, il faut apporter 10J pour le soulever de un mètre. Si on le soulève de 1 mètre en 2 secondes, on a fournit une puissance moyenne de P=10/2 = 5W. En revanche si on refait l’expérience en 10 secondes, on aura du fournir une puissance moyenne de P=10/10 = 1W. On fournit donc la même puissance pour soulever une pomme de un mètre en une seconde que 10 pommes de un mètre en 10 secondes sauf que dans ce dernier cas on aura fournit 10 fois plus d’énergie, assez intuitif avec le langage courant!

Ce qu’il faut retenir de tout ça ? L’énergie est une chose qui se transmet aux différents objets pour les animer, les réchauffer, les aimanter… C’est toute une chaîne de transformation. Le meilleur exemple est la production d’électricité avec une dynamo sur un vélo : Le cycliste mange plein de tic-tac pour avoir un peu d’énergie, il transforme l’énergie du tic-tac en chaleur pour maintenir sa température corporelle et en énergie mécanique en pédalant. La roue du vélo possède alors cette énergie cinétique qu’elle va donner à la dynamo. Cette dernière transforme l’énergie mécanique en énergie électromagnétique qui va ensuite se transformer en énergie électrique. Pour finir l’ampoule effectue la transformation en énergie électromagnétique (en lumière). Evidemment j’ai fait simple, d’autres énergies représentant des pertes rentrent en considération normalement : les 2 Calories du tic-tac ne vont pas donner 2 Calories à l’ampoule. Enfin si vous savez comment, prenez contact avec moi et on dépose un brevet pour faire une voiture tic-tac : Au lieu d’aller faire le plein d’essence à la pompe on mettra des tic-tac dans le réservoir !

La température

Salut, ça va ? il fait chaud dehors ? Bah il doit faire 25°C…

 

La température est une notion que l’on utilise tous les jours parce qu’on la ressent mais comment
peut on la mesurer ? Facile, avec  un thermomètre ! Le principe est très simple : la pression (P), la température (T) et le volume (V) d’un fluide (gaz ou liquide) sont 3
grandeurs liées. Si on fixe une de ces  trois grandeurs à une valeur constante, la mesure de la deuxième permet le calcul de la troisième. C’est pas clair ? Si je prends du Mercure, que
je le place dans un tube à une pression fixe, il suffit de mesurer le volume (donc la hauteur du liquide dans le tube) pour en déduire la température. Pourquoi le mercure ? parce que c’est
un liquide qui se dilate très facilement quand la température augmente et ça s’observe à l’œil nu facilement (le seul problème c’est que c’est dangereux et nocif pour la santé (c’est pour cela
que les thermomètres au mercure sont maintenant interdits), mais on peut aussi utiliser de l’alcool). Si vous tentez de faire la même chose avec de l’eau, il faudra un microscope pour voir une
élévation de 1°C.

 

Pour la référence de l’unité, on a fait dans le super facile : sous une pression de une atmosphère (pression atmosphérique) au niveau de la mer, l’eau
bout à 100°C et gèle à 0°C. C’est l’échelle de Celsius inventée en 1742 par Anders Celsius, astronome suédois . De cette manière tout est défini car cette échelle « pratique » est une
unité différentielle : c’est-à-dire que l’on considère une différence (entre 0°C et 100°C). C’est pour cela que les températures peuvent être négatives. C’est l’inverse d’une mesure absolue
qui possède un « zéro » infranchissable, on ne peut pas avoir une longueur de 0 centimètre ou une durée de 0 seconde !

 

Vous allez me dire, chouette, une unité physique facile en fait ! Eh bien ça dépend, car l’unité de la température en physique, c’est de kelvin (K),
attention on ne dit pas « degré kelvin » car c’est une unité absolue et pas de majuscule car c’est une unité SI (Système International d’unité ou plus simplement système métrique) même
si son inventeur, Lord Kelvin, prend une majuscule car c’est un nom propre. En passant « Lord Kelvin » n’est qu’un titre britannique, son véritable nom est William Thomson, qui est à
l’origine du second principe de la thermodynamique. La conversion Celsius-kelvin est plus que simple : il suffit de retrancher 273,15° à la température en Celsius pour obtenir des kelvins.
Donc quand il fait 20°C, il fait 293,15K, l’eau bout à 373,15K et gèle à 272,15K. Evidemment la question naturelle qui vient est : « d’où sort le 273,15 : pas du chapeau de Lord
Kelvin ! ». La réponse tombe sous le sens, le kelvin n’est qu’une translation de l’échelle Celsius de manière à faire coïncider le zéro kelvin au zéro absolu.

 

Le zéro absolu (donc 0K), est la température limite au dessous de laquelle on ne peut pas descendre,
dire que de la matière est à 0K est aussi idiot que de dire qu’un objet mesure 0 cm, ce n’est pas possible ! Au sens microscopique, la température est en fait définie par une agitation
moléculaire : plus les particules bougent dans tous les sens, plus il fait chaud. C’est comme lorsqu’on fait du sport, on se réchauffe car on fournit un effort, de l’énergie, qui se traduit
par un dégagement de chaleur. Si on ne bouge pas dans le froid, on a froid, si on court, on a chaud. Les particules aussi ! Le zéro absolu est défini comme étant la température à laquelle
plus aucune chaleur ne peut être tirée du corps. La température minimale jamais atteinte en laboratoire par les physiciens est de l’ordre du micro kelvin (un millionième de kelvin au dessus du
zéro absolu), ce qui correspond donc à –273,15°C.

 

Il y a aussi nos confrères anglo-saxons qui parlent en degrés Fahrenheit (°F) car ils ne peuvent
jamais faire comme tout le monde… Pour la conversion Celsius Fahrenheit, prenez votre calculette : on prend la température en degré Celsius, on retranche 273,15, on multiplie par 1,8 et on
retranche 459,67 : facile non ?

 

Voilà quelques températures typiques dans notre monde et notre histoire : (peut-être convertir
aussi en degrés ?)

         La température dans
l’espace, loin de toutes étoiles est environ de 2,7K en ce moment

         La température moyenne
à la surface de notre planète est de 15°C

         La température du corps
est en moyenne de 37,6°C

         La température moyenne
à la surface du soleil est de 6000K

         La température au cœur
du soleil est de 15 000 000K

         La température au
moment de la collision des faisceaux de particules dans le futur accélérateur de particule du CERN, le LHC, sera de 10 000 000 000 000K, soit la température un millionième de seconde après le BIG
BANG où la température chute de manière gigantesque pour descendre jusqu’à cette température (10 milles milliards de degrés)

         La température de
l’univers 10-43 seconde après le BIG BANG est de 100000000000000000000000000000000K (1032K)

  • Plus

 

Partager l’article : La température
 
Salut, ça va ? il fait chaud dehors ? Bah il doit faire 25°C… La température est une notion que l’on utilise tous les…