Archives pour la catégorie Histoire des Sciences

L’hélium superfluide

Etant ingénieur pour l’opération du système cryogénique du LHC au CERN (Organisation Européenne pour la Recherche Nucléaire) à Genève, j’ai la chance de travailler avec le plus grand stock d’hélium superfluide du monde : le LHC en contient environ 100 tonnes pour fonctionner…

Mais c’est le dernier livre de Sébastien Balibar, « Savant cherche refuge », qui m’a donné envie d’écrire cet article. En effet, la superfluidité, phénomène pour le moins extraordinaire à notre échelle, a été découvert et expliqué dans un climat international inédit avec de nombreux chercheurs cherchant à se réfugier des désastres de la guerre pour mener à bien leurs recherches.

Aujourd’hui, on trouve de l’hélium superfluide dans les laboratoires du monde entier (et surtout au CERN !) mais son obtention et sa compréhension a été pour le moins « complexe » et a fait couler beaucoup d’encre avant d’arriver à un résultat faisant consensus auprès des physiciens. Cette découverte est une grande découverte scientifique et son histoire, comme toute grande découverte scientifique, est passionnante…

Pourquoi superfluide ?

Tout d’abord quelques éclaircissements sur ce qu’est un superfluide. Dans la nature, il existe plusieurs états de la matière comme l’état solide, gazeux ou liquide (en fait l’état le plus abondant dans l’univers est l’état de plasma dont sont composés les étoiles). Mais il en existe au moins un autre, moins connu: l’état superfluide. Cet état a été observé dans l’hélium à très basse température, en dessous de 2,17 Kelvin, soit environ -217 degrés Celsius. Alors, qu’est ce qui caractérise les superfluides ? Eh bien, quand on fait des expériences avec, on observe des comportements tout à fait impossibles avec tous les autres fluides. Voici quelques exemples:

  • Prenez un tube de quelque millième de millimètre et essayer de faire circuler un liquide dedans : c’est impossible, sauf pour un superfluide qui s’engouffre dedans sans problème et s’écoule librement.
  • Verser un liquide dans un verre : le liquide est censé rester au fond, eh bien pas le superfluide qui va remonter le long des parois et sortir tout seul du verre.
  • Prenez une paille et faite la tourner dans un verre rempli de liquide, tout le liquide va rapidement se mettre à tourner avec la paille, eh bien pas le superfluide qui va rester immobile!
  • Chauffez une piscine olympique avec une résistance chauffante plongée à l’intérieur : peu à peu, toute la piscine va se réchauffer et ça va prendre pas mal de temps avant d’avoir la même température partout.  Eh bien, si vous remplissiez votre piscine de superfluide, toute la piscine aura la même température à tout moment, comme si la chaleur se propageait instantanément.

Vous l’aurez compris, un superfluide, c’est bizarre ! C’est un liquide qui ne possède pas de viscosité avec une capacité de transporter la chaleur de manière parfaite.

La chose qui a mis en déroute les physiciens est le fait que l’hélium en dessous de 2,17 K est en fait un mélange de 2 fluides : une composante normale (nommée « He I ») et une composante superfluide (nommée « He II ») qui peuvent se déplacer indépendamment l’un de l’autre, et plus on refroidit le mélange, plus la composante superfluide est importante. C’est cette particularité qui a engendré des phénomènes parfois contradictoires selon les expériences mise en œuvre. Mais maintenant, intéressons-nous à l’histoire passionnante de cette découverte.

Les personnages

Les protagonistes principaux sont les suivants (par date de naissance):

  • Willem Hendrik Keesom (1876), néerlandais ayant travaillé à Leyde avec H.K. Onnes, le premier à avoir liquéfier de l’hélium en 1908. Keesom est l’un des premiers à avoir noter une transition importante à 2,17 K dans l’hélium dès 1927.
  • Piotr Kapitsa (1894), russe, découvreur de la superfluidité en 1937. Nobel 1978.
  • Fritz London (1900), allemand, c’est le premier à proposer « l’idée folle » que la superfluidité est un phénomène quantique macroscopique.
  • Laszlo Tisza (1907), hongrois, le fil conducteur du livre de S. Balibar, c’est lui qui proposera le premier modèle théorique « sérieux » le la superfluidité : le fameux modèle à 2 fluides.
  • Lev Landau (1908), russe, il est à l’origine de la compréhension profonde de la superfluidité et aboutira à un modèle théorique complet du phénomène au début des années 40. Nobel 1962.
  • Jack Allen (1908), canadien, découvreur de la superfluidité en 1937 avec Don Misener à Cambridge, indépendamment de Kapitsa et en même temps.

Haut : Kapitsa, Landau, Allen.
Bas: London, Tisza, Keesom

Les lieux

Les personnages étant posés, voici les lieux où se déroulent cette aventure (par ordre alphabétique) :

  • Cambridge, Angleterre : laboratoire de Allen et Misener où la superfluidité sera étudiée pour la première fois (enfin en même temps que Kapitsa à Moscou).
  • Etats-Unis : Refuge de très nombreux scientifiques européens pendant cette période de trouble. London et Tisza y trouveront refuge pendant la guerre.
  • Kharkov, Ukraine : Landau a commencé ses recherches à l’université de Kharkov et Tisza y fera un séjour en 1937, l’année où la superfluidité sera découverte.
  • Leyde, Pays-Bas : Berceau de la physique des basses températures à l’hélium ayant hébergé Onnes et Keesom. Laboratoire ayant produit les premières gouttes d’hélium liquide (et de superfluide sans le savoir) dès 1908.
  • Moscou, Russie : Landau et Kapitsa passeront une bonne partie de leur temps de recherche à l’institut des problèmes physiques de Moscou.
  • Oxford,Angleterre: l’hélium superfluide coula aussi très tôt à Oxford et hébergera de nombreux scientifiques liés à la superfluidité comme London.
  • Paris, France : De nombreux efforts ont été fait à Paris pour héberger les scientifiques menacés par les nazis. London et Tisza y trouveront refuge plusieurs années, aidés par de nombreuses personnes dont Louis Rapkine qui a joué un rôle clé.

Pendant l’entre-deux guerre puis pendant la deuxième guerre mondiale, les scientifiques prometteurs comme les acteurs de la superfluidité seront aidés par des bourses leur permettant de subvenir à leurs besoins et de voyager dans les différents laboratoires dans le monde « relativement » facilement pour cette époque. La plus connue est sans doute la bourse Rockefeller qui a sauvée de nombreux chercheurs prestigieux en ces périodes de troubles. J’ai essayé de retracer quelques parcours des protagonistes de la superfluidité (ce n’est pas exhaustif mais j’ai essayé de faire de mon mieux) :

  • Kapitsa : Saint Petersbourg => Cavendish (1923) => Moscou (1934)
  • Tisza : Budapest (1907) => Paris (1937) => Toulouse (1939) => Lisbonne (1940) => Etats-Unis (1941).
  • London : Breslau (1900) => Berlin ( ???) => Rome (1931) => Berlin (1932) => Oxford (1933) => Paris (1936) => Etats-Unis (1939).
  • Landau : Bakou (1908) => Petrograd (1922) => Voyage à travers l’Europe (1929): Gottingen, Leipzig, Copenhague, Cambridge, Zurich   => Leningrad (1931) => Kharkov (1932) =>   Moscou (1937) => Boutyrskaïa, prison proche de Moscou (1938) => Moscou (1939).

Qui a découvert la superfluidité ?

Visiblement, tout porte à croire que Kapitsa et Allen ont « découvert » la superfluidité à peu près en même temps et de manière indépendante en 1937. Mais disons-le clairement, cette « découverte » était dans l’air du temps et plusieurs équipes avaient déjà dans les années précédentes mis en avant l’existence de deux héliums liquides bien distincts (l’hélium I et II) séparés par le « point lambda » autour de 2,17 K. Ce nom « lambda » a d’ailleurs été donné par Keesom en 1927 à Leyde en référence à la forme de la chaleur spécifique (i.e. la quantité d’énergie à apporter au liquide pour élever sa température de 1 degré) de l’hélium en fonction de sa température autour de 2,17 K qui ressemble à la lettre grecque lambda (λ). Je rappelle que Leyde (situé aux Pays-Bas) est le berceau de l’hélium liquide qui fut découvert peu avant par H.K Onnes en 1908 (détails ici).


Mesure de la chaleur spécifique de l’hélium autour de 2,17 K par Keesom en 1927 à Leyde ayant la forme du lambda grecque.

En revanche, c’est bien Kapitsa qui a inventé le mot « superfluide ». Allen et Kapitsa ont pu observer et publier des résultats montrant que l’hélium en-dessous de 2,17 K semble présenter une viscosité extrêmement faible. Ils publièrent d’ailleurs tous les deux leur article dans le même numéro de Nature en Janvier 1938 dans deux pages consécutives.  L’article de Kapitsa avait pour titre “Viscosity of liquid helium below the λ-point” alors qu’Allen titrait “Flow of liquid helium II”. C’est dans cet article que Kapitsa énonça sa phrase célèbre qui est étonnemment clairevoyante en y repensant avec le recul d’aujourd’hui : « by analogy with superconductors, that the helium below the λ-point enters a special state which might be called superfluid« . En effet, leurs expériences montrèrent que l’hélium liquide en dessous de cette température entre dans un état spécial, car quantique, tout comme la supraconductivité mais ils ne le savaient pas encore à cette époque ! Le superfluide peut s’écouler dans des capillaires (de tout petits tuyaux) ou dans des fentes de taille microscopique sans aucun problème, ce qu’aucun autre fluide ne peut faire à cause du phénomène de viscosité qui tend à « freiner » les écoulements.

Pour faire court, on apprend à l’école que la vitesse d’un fluide dans un tuyau dépend de la taille du tuyau (plus il est gros et plus le fluide va vite) et de la différence de pression entre l’entrée et la sortie (plus la différence de pression est grande, plus le fluide va vite). Et quand Kapitsa et Allen (qui sont allés à l’école comme vous et moi) ont voulu vérifier cela avec L’hélium superfluide, ce n’est pas du tout ce qu’ils ont pu mesurer : si on fait varier la taille de ces capillaires, même d’un facteur 1000, la vitesse d’écoulement n’est quasiment pas modifiée. De même en faisant varier la différence de pression entre l’entrée et la sortie, la vitesse du superfluide demeurait constante, ce qui contredisait catégoriquement la mécanique des fluides ! Et on ne peut pas renier ce genre de chose comme ça ! Ce genre de contradiction s’appelle tout simplement une « grande découverte scientifique ».

Qui a compris la superfluidité en premier ?

Voici mon sentiment après la lecture du dernier livre de S. Balibar: c’est bien London le premier à avoir senti ce qu’était la superfluidité, à savoir un phénomène quantique à l’échelle macroscopique correspondant à un genre de condensat de Bose-Einstein dans un liquide. London écrira d’ailleurs en 1938 à son frère Heinz « j’ai trouvé une chose folle » en parlant de cette découverte. Il publiera ensuite une note dans la revue Nature à ce sujet le 5 mars 1938 : « the lambda-phenomenon of liquid helium and the Bose-Einstein degeneracy ».

C’est ensuite Tisza qui a immédiatement posé les bases d’un premier modèle original, le fameux modèle à deux fluides, intuition de génie pour expliquer les phénomènes observés, extrêmement étranges et parfois contradictoires. London rejettera ce modèle à tort mais Tisza persévéra et publia peu après une note en Mai 1938 dans Nature portant le titre « Transport Phenomena in Helium II » où il introduit ce modèle qui deviendra un modèle puissant, intuitif et simple à utiliser pour calculer les propriétés de l’hélium superfluide.

Enfin, Lev Landau, petit génie de la physique, reformule de manière plus rigoureuse le modèle à deux fluides pour aboutir à un modèle cohérent et complet qu’il publie en 1941 dans Physical Review. Pour expliquer la superfluidité, Landau se base entre autre sur la propagation et l’oscillation de quasi-particules: les phonons et les rotons (inventés par l’occasion par Landau). Landau recevra seul le Nobel sur ce sujet, ce qui peut paraitre un peu injuste vis-à-vis de London et Tisza…

Pour aller plus loin

Voilà ce que j’avais à dire sur ce sujet mais si vous voulez en savoir plus, c’est sans contestation Sébastien Balibar la référence française en la matière, alors voici quelques conseils de lecture :

Une histoire de tout, ou presque…

Le titre de ce livre de Bill Bryson peut faire sourire mais quand on le lit, c’est la franche rigolade ! Ce livre a reçu le prix Aventis pour le meilleur livre de vulgarisation scientifique en 2004 et le prix Descartes de la communication scientifique en 2005 et c’est tout à fait justifié.

J’ai la chance d’avoir lu pas mal de livres de vulgarisation scientifique dans ma vie dont beaucoup d’excellents mais celui-là me laissera un souvenir unique et impérissable. Comment un personnage comme Bill Bryson (qui est écrivain-voyageur) peut prétendre raconter « l’histoire de tout » en 600 pages ? Eh bien si, c’est possible, il l’a fait, et de manière absolument incroyable. J’ai rarement appris autant de choses dans un livre, surtout avec un humour aussi décapant et incisif, impossible d’échapper à un ou deux rires tout haut dans mon lit le soir pendant mes lectures ! Ce livre est destiné au grand public mais même sur des sujets scientifiques pourtant familiers, il réussit à nous faire redécouvrir l’histoire des sciences avec son angle de vue bien à lui.

Le livre commence avec le début de l’Univers et fini à aujourd’hui, c’est aussi simple que cela et c’est tout à fait logique au vu du titre. Entre temps, on passe (dans le désordre) par les dinosaures, la géologie, la relativité, la physique des particules, la vie, le climat, la chimie, la génétique, l’océanographie, l’évolution, les bactéries, nous-mêmes, etc. En fait, ce que je préfère dans cet ouvrage, c’est que Bill Bryson nous raconte sa version de l’histoire des sciences comme si on était deux vieux copains accoudés au comptoir d’un bistrot autour d’une petite bière (pratique qu’il aime bien d’ailleurs après avoir lu deux autres de ses livres depuis).

Le nombre d’anecdotes est phénoménal et je pense que sa vraie force réside dans le fait de nous transmettre la joie de découvrir comment la science s’est construite au jour le jour, d’années en années et de siècles en siècles avec des hommes et des femmes étonnants, rarement reconnus dans la « grande histoire des sciences » pour leurs contributions. Il explique très bien comment de nombreux faits nouveaux ont été pré-découverts par des inconnus avant de l’être par leurs « découvreurs officiels » retenus par l’histoire. C’est avec ce livre qu’on comprend vraiment que la science ne serait pas ce qu’elle est aujourd’hui si on avait seulement eu Galilée, Newton, Darwin, Planck et Einstein. Il en faut des milliers d’autres pour que ça marche, même si certains ont des démarches plus ou moins douteuses comme Haldane qui organisait des expériences sur les limites du corps humain plus que dangereuses sur lui-même et son entourage. Extrait :

« Alors qu’il s’empoisonnait scrupuleusement à l’oxygène, Haldane eut un jour une crise d’épilepsie si violente qu’il s’écrasa plusieurs vertèbres. Le collapsus de poumons était un accident de pure routine ; la perforation des tympans était plus courante encore, mais, comme le soulignait Haldane dans une note rassurante, le tympan en général se soigne ; et s’il y reste un trou, bien que l’on en reste un peu sourd, on peut souffler de la fumée de cigarette par l’oreille concernée, ce qui est un véritable talent de société. »

Etant thermodynamicien, j’ai apprécié la place qu’il donne à J.W. Gibbs qui est tout autant à honorer que les traditionnels Planck, Boltzmann ou Maxwell à cette époque alors que Gibbs est souvent oublié et inconnu du grand public. Bill Bryson nous rappelle à juste titre le génie de cet individu, qui a inventé le terme « mécanique statistique » et qui est un des précurseurs de la physique statistique, une des plus grandes théories de la fin du 19ième siècle. Gibbs a d’ailleurs rédigé une œuvre que les spécialistes qualifient de « principia de la thermodynamique », entendez par là qu’il possède un génie égal à Newton… Malheureusement Gibbs a publié son œuvre dans une revue obscure du Connecticut dont personne n’a jamais entendu parler (même dans le Connecticut !) et ne cherchait ni la célébrité, ni vraiment à partager ses idées avec le monde…

Mais l’histoire que je préfère est sans doute celle de ce pasteur australien inconnu dénommé Robert Evans qui a découvert avec son télescope amateur dans son jardin plus que de 40 supernovæ depuis les années 50, avec une moyenne de deux supernovæ par an entre 1981 et 1996, soit plus que les grands télescopes internationaux pendant cette même période. Certes, il a depuis été dépassé par la technologie mais il reste redoutable, même face à l’armée des télescopes géants qui sillonnent le monde assistés d’une puissance informatique computationnelle hors du commun. Bill Bryson nous explique que si vous lanciez des grains de sel un jour au hasard sur 1500 tables devant cet astronome amateur, il détecterait facilement un grain de sel déplacé le lendemain. En revanche, sa femme nous explique depuis sa cuisine qu’il ne se souvient jamais de l’endroit où il pose les choses dans la maison, voici une histoire typique à la Bill Bryson !

Bref, vous l’aurez compris, si vous êtes curieux, vous devez lire ce livre !

Le démon de Maxwell

 Mes deux domaines scientifiques préférés sont sans doute la thermodynamique et la théorie de l’information. L’histoire a su allier ces 2 grands domaines avec élégance pour comprendre le paradoxe du démon de Maxwell.

En 1871, James Clerk Maxwell (celui de la théorie électromagnétique) tente de contredire le second principe de la thermodynamique en inventant une expérience de pensée dans laquelle il invoque un « démon » mais ce n’est véritablement qu’en 1949 que Léon Brillouin, en utilisant la théorie de l’information, va permettre de lever le voile sur le paradoxe de cette expérience de pensée et redonner au second principe de la thermodynamique son caractère universel.

Le second principe de la thermodynamique

C’est un des principes de la physique les plus intéressants dans le sens où il cache de nombreuses implications. Il est au premier abord difficile à comprendre à cause de la notion d’entropie qui n’est pas facile à appréhender mais on l’entend souvent de la manière vulgarisée suivante :

« Le désordre d’un système isolé ne peut qu’augmenter dans le temps »

 L’entropie d’un système est en quelque sorte son désordre. Si tous les atomes d’un gaz bougent lentement, il y a peu de chocs entre eux et l’entropie sera alors faible (et le gaz sera froid). Au contraire, si tous les atomes d’un gaz bougent rapidement, les chocs entre eux sont nombreux et l’entropie est grande (et le gaz sera chaud). On considère ici des systèmes isolés, c’est-à-dire qui n’échangent ni matière ni énergie avec l’extérieur (donc pas de chaleur non plus).

 Le second principe stipule donc que toutes les transformations que peut subir un système isolé génèrent de l’entropie (du désordre) et que cette grandeur ne peut donc qu’augmenter dans le temps. Ceci veut dire que pour créer de l’ordre (faire baisser l’entropie), un agent extérieur doit forcément intervenir. Notre Univers voit donc son entropie totale augmenter vers l’infinie en permanence vue que rien n’est externe à l’Univers par définition.

 Une des conséquences importantes de ce principe est que toutes les transformations que peut subir un système isolé ne peuvent se dérouler que dans un sens précis en suivant « la flèche du temps ». Les transformations sont ainsi qualifiées d’irréversibles dans le temps car génératrices d’entropie. Quelques exemples de transformations irréversibles évidentes dans la vie quotidienne :

  • Lorsque l’on mélange du sirop dans un verre d’eau, jamais le sirop et l’eau ne vont complètement se re-séparer spontanément dans le verre.
  • Lorsque l’on mélange de l’eau chaude et de l’eau froide dans un verre, jamais l’eau chaude et l’eau froide ne vont complètement se re-séparer spontanément dans le verre.
  • Si un verre tombe par terre et se casse, jamais il ne se reconstituera par lui-même.

L’expérience de Maxwell

L’expérience pensée par Maxwell pour contredire le second principe de la thermodynamique est relativement simple à comprendre mais extrêmement difficile à mettre en œuvre, d’où la création de ce « démon ».

 

Imaginons 2 compartiments contigus dans lesquels on a mis d’un coté un gaz froid et de l’autre un gaz chaud. Il existe une porte entre ces 2 compartiments et un démon peut l’ouvrir et la fermer à sa guise. Le démon, malicieux, ouvre la porte de manière à ce que les atomes rapides passent dans le compartiment chaud et que les atomes lents passent dans le compartiment froid. Ainsi, plus le temps s’écoule et plus le gaz chaud se réchauffe et plus le gaz froid se refroidit.

Cette observation est en contradiction avec le second principe de la thermodynamique car les 2 compartiments voient leur entropie décroître : en effet, il y a plus d’ordre qu’au départ comme on a séparé les atomes rapides de ceux plus lents. La thermodynamique nous dit que dans le temps, les températures des 2 compartiments devraient converger vers la même valeur alors qu’ici ce n’est pas le cas.

La levée du paradoxe

Pour la thermodynamique, l’entropie a été redéfinie en 1877 par Boltzmann de la manière suivante :

La formule de Boltzmann sur sa tombe à Vienne

 Ici, « S » représente l’entropie, « k » est une constante (de Boltzmann) et « W » correspond au nombre d’états macroscopiques que peut prendre le système.

Plus de 70 ans plus tard, en 1948, Claude Shannon définit à son tour un genre d’entropie qui correspond à la quantité d’information minimum pour transmettre un message. Cette entropie est définie par :

I= K log P

avec « I » la quantité d’information, « K » une constante et « P » l’ensemble des états possibles du système considéré.

 

Claude Shannon (Alfred Eisenstaedt/Time & Life Pictures/Getty Image)

 A priori ces deux concepts n’ont de commun que leur expression mathématique mais Brillouin démontre qu’il s’agit bien de la même entropie. Je vous conseille de lire cette analyse Bibnum pour plus de détails où l’on peut lire ceci :

 Pour obtenir de l’information sur un système, il faut le mesurer, cette mesure augmente l’entropie de l’univers d’une quantité exactement égale à la quantité d’information obtenue. De cette manière Brillouin établit une échelle absolue de la mesure de l’information et à cette fin créé une nouvelle grandeur : La néguentropie, ou entropie négative.

 Il est évident que dans l’expérience de Maxwell, notre démon a besoin de connaître la vitesse des atomes pour les laisser passer ou pas par la porte. Brillouin montre alors que cette « mesure » faite par le démon va créer de la néguentropie de manière à compenser exactement la baisse d’entropie du système : le deuxième principe reste donc valide car l’entropie du système « enceintes+gaz+porte+démon » reste constante !!

 Applications de l’entropie de Shannon

Le calcul de l’entropie de Shannon permet de coder un message sous forme numérique avec le moins de bits possible sans perdre de l’information comme dans les algorithmes de compression sans perte (voir ce billet sur la compression de données).

 Elle est aussi utilisée dans le domaine de l’imagerie médicale pour comparer des images ainsi qu’en génétique pour identifier les parties des chromosomes contenant plus d’informations.

 

Histoire des grands scientifiques français

 

Si vous êtes amateur d’histoire des sciences, alors vous devez lire l’Histoire des grands scientifiques français de Eric Sartori. Le principe de ce livre est de retracer des biographies d’une trentaine de pages sur les scientifiques qui ont fait briller la science française depuis le 16ème siècle. Certes, le livre peut paraître chauvin au premier abord mais l’auteur se justifie relativement bien dans son introduction au sujet de ce choix. On assiste à quelques hauts et forts « cocoricos » et à l’encensement de Bonaparte mais il faut bien avouer que Napoléon a donné à la France un rayonnement scientifique exceptionnel en son temps, avec entre autre la création de l’école polytechnique sous l’impulsion de Gaspard Monge et d’autres en 1794.

On peut trouver dans ce recueil des mathématiciens (Cauchy, Poincaré…), des médecins (Paré, Bernard…), des physiciens (Pascal, Ampère,…), des chimistes (Lavoisier, Curie…), des naturalistes (Buffon…), des biologistes (Pasteur…) mais nombre d’entres eux sont bien évidemment un mélange de tout cela comme Pierre et Marie Curie pour ne citer qu’eux.

De nombreuses biographies se coupent et se recoupent, surtout autour de Laplace dans la grande époque napoléonienne et cela permet au lecteur de se faire une vision particulièrement large de cette époque stimulante pour la science française. Il est à noter que Laplace est particulièrement encensé par l’auteur mais cela provient du fait que Laplace est peu connu du « français moyen » alors qu’il a été un des plus grands scientifiques français au même titre qu’un Pascal ou qu’un Lavoisier. L’auteur commence d’ailleurs la biographie de Laplace ainsi : « Entre 1750 et 1850, la France connut une floraison de talents et de travaux scientifiques, comme aucune autre nation n’en a connu ou n’en connaitra jusqu’à nos jours. Laplace fut le grand patron scientifique de cette période».

Au congrès de Solvay de 1911, on trouve un quart de français (6 scientifiques sur 24) avec de gauche à droite : Marcel Brillouin, Maurice De Broglie, Jean Perrin, Marie Curie, Henri Poincaré, et Paul Langevin.

 Cet ensemble de biographies relativement courtes donne au lecteur une bonne idée de ce que pouvait être la science et la vie des scientifiques dans la société aux différentes époques avec ses avantages et ses inconvénients. Les aspects scientifiques comme les aspects politiques et sociaux sont abordés de manière agréable et cohérente. On découvre aussi des scientifiques français peu connus et qui sont pourtant à la source de révolutions scientifiques majeures comme Alexis Carrel qui est tout bonnement l’inventeur de la chirurgie vasculaire (le premier à avoir recousu une artère) et l’homme qui a rendu les greffes possibles (il a tout de même eu le prix Nobel mais peu de français le connaissent aujourd’hui).

 

Newton : calcul différentiel, gravité et optique

Voici un livre que je préconise à tout amateur d’Histoire des sciences : Isaac Newton, un destin fabuleux, de James Gleick aux éditions Quai des Sciences.

Cette biographie de l’illustre Newton nous replonge dans l’Angleterre du milieu du 17ème siècle encore moyenâgeuse où un homme d’origine modeste et destiné à être fermier dans la campagne environnante de Cambridge a révolutionné la Science. De mon point de vue, Newton a révolutionné les sciences dans le sens où c’est lui qui a séparé science et philosophie en deux approches bien distinctes, l’une basée sur la démonstration mathématique et l’autre basée sur la pensée et la réflexion. Newton fut certainement le dernier à cumuler les rôles de magicien, alchimiste, philosophe, métaphysicien, théologien, mathématicien et physicien. Après Newton, ce fut le siècle des lumières avec ses philosophes d’un coté  (Diderot, Rousseau, Voltaire, etc.) et ses scientifiques de l’autre (Euler, Bernoulli, Laplace, Lavoisier, etc.).

Dans ce billet, je veux simplement aborder brièvement les 3 principales avancées dues à Newton dans les sciences, à savoir le calcul différentiel, la mécanique et l’optique mais il faut souligner que Newton a passé une très grande partie de sa vie (et sûrement la plus grande partie de sa vie) à étudier l’alchimie ainsi que les différentes versions de la bible pour en retrouver les origines fondamentales.

Les Principia MathEmatica

La rédaction de son œuvre majeure et publiée pour la première fois en 1687 à Londres sont les Principes mathématiques de la philosophie naturelle (plus communément appelées Principia Mathematica). Ces Principia Mathematica abordent un grand nombre de sujets dont la célèbre théorie mécanique de Newton, en incorporant la théorie de la gravité universelle. Ces volumes furent réellement le point de départ de la physique moderne en se basant sur l’explication des phénomènes naturels par leurs mises en équations mathématiques, sans en expliquer leur origine métaphysique ou leur cause, c‘est ce que nous appelons aujourd’hui la Physique.

Première édition des Principia Mathematica avec les annotations manuscrites de Newton conservée à la bibliothèque Wren de Cambridge (1687)

Les Principia Mathematica ont été au début très peu diffusés en dehors de l’Angleterre (une centaine d’éditions seulement avaient été éditées) et il a fallu attendre le milieu du 18ème siècle pour avoir accès à ces 3 volumes fondateurs dans le reste de l’Europe comme par exemple avec la traduction française fameuse de Emilie du Châtelet en 1756 (Miss « Pompon Newton » selon Voltaire). J’ai moi-même eu la chance de tenir entre mes mains et de consulter une édition des Principia Mathematica de 1740 conservée à l’université de Valladolid en Espagne à la bibliothèque historique de Santa Cruz. Avec cette publication, Newton devint un des pères fondateurs de la physique, provoquant une rupture avec la Grèce antique d’Aristote et le cartésianisme de Descartes qui prévalaient alors comme références incontestables jusqu’à Newton.

Le calcul infinitésimal

Au milieu du 17ème siècle, les mathématiciens ne savaient guère appréhender les infinis, grands ou petits. Newton s’attaque à ce problème lors de la grande peste de Londres qui fait rage en Angleterre en 1665-1666 et aboutit à une méthode du calcul infinitésimal vers 1669. Malheureusement, il préfère ne pas publier ses résultats. Ce nouveau mode de calcul permet à Newton de calculer la pente (la tangente) de n’importe quelle courbe ainsi que son aire. C’est ce qu’on appelle aujourd’hui le calcul différentiel et intégral. Ces mêmes opérateurs permettront à Newton d’établir les relations nécessaires entre position, vitesse et accélération en mécanique (à moins que ce ne soit la mécanique qui l’ait amené à trouver le calcul différentiel). Il introduit alors la notation de la dérivée à l’aide d’un point au dessus des lettres (notation encore parfois utilisée).

Au même moment, en Allemagne, Leibniz invente également en 1674 et de manière indépendante le calcul différentiel à la différence qu’il mettra en place un système de notation extrêmement ingénieux et qui est toujours utilisé aujourd’hui : il notera la dérivée avec un « d » droit ou un Delta grec pour représenter une différence infiniment petite et le « S » allongée pour l’intégrale. Une bataille entre Newton et Leibniz fera alors rage pour revendiquer cet outil mathématique extrêmement puissant et constituant la base de l’analyse (la discipline mathématiques étudiant les fonctions).

Mécanique

La mécanique newtonienne est aujourd’hui la théorie mécanique la plus utilisée pour les problèmes courants des ingénieurs permettant de calculer les trajectoires, les vitesses et les accélérations lorsque les vitesses mises en jeu sont faibles devant la vitesse de la lumière (après c’est la relativité d’Einstein qui prend le relais).

Le centre de la mécanique développée par Newton est bien entendu la théorie de la gravitation universelle. Elle est qualifiée d’universelle car elle s’applique à tous les objets ayant une masse, du grain de sable au Soleil en passant par les pommes et la Lune: elle explique la trajectoire des boulets de canons, la rotation des planètes autour du Soleil et le mouvement des marées sur Terre à cause de la Lune.

Newton par Noémie

Newton comprend pour la première fois que plus la masse est grande, plus l’attraction est forte et qu’il est bien question d’attraction et non de pulsion comme il était alors question à l’époque. Newton révoque irrémédiablement la théorie de l’éther et des tourbillons de Descartes et clame que cette force d’attraction se propage dans le vide, ce qui déplaît fortement à l’époque. De plus, Newton ne donne pas d’explication de cette force mystérieuse qui s’exerce à distance (en passant, la transmission de la gravité est toujours un mystère et demeure la force la moins bien comprise). Newton identifie également que cette force est inversement proportionnelle au carré de la distance qui sépare les objets et retrouve les conjectures de Kepler par le calcul comme quoi les planètes décrivent une trajectoire elliptiques autour du Soleil. Il effectue même des corrections aux trajectoires de Kepler et permet à Edmond Halley en 1682 d’annoncer le prochain passage d’une comète en 1738 (soit 76 ans plus tard) qui deviendra la comète de Halley, la théorie de Newton sera alors à son paroxysme et fera l’unanimité sur le continent.

Optique

Newton était attaché à une théorie atomique de la lumière, à l’inverse de Huygens qui défendait une théorie ondulatoire (ils avaient en fait tous les deux raison selon la théorie quantique). La théorie défendue par Newton lui vaudra de nombreux débats et controverses à l’Académie Royale de Londres mais Newton fut le premier à comprendre que la lumière blanche était en fait une composition de toutes les couleurs de l’arc-en-ciel puisqu’en passant dans un prisme, la lumière blanche se décomposait en des pinceaux de lumière de différentes couleurs et qu’il était alors impossible d’en extraire de la lumière blanche à nouveau (on pensait alors que c’est le prisme qui fabriquait les autres couleurs).

Fort de cette théorie, Newton pensait que les télescopes de l’époque utilisant des lentilles (lunettes de Galilée) étaient limités du fait que les couleurs n’étaient pas déviées de la même façon dans les lentilles incurvées. Il inventa alors un nouveau télescope, qualifié de Newton aujourd’hui, utilisant un miroir courbe et permettant un grossissement identique avec un télescope beaucoup plus compact qu’avec les lunettes de Galilée.

 

Un télescope Newton monté sur une monture équatoriale

Pour conclure

Je citerai simplement cette épitaphe et Alexander Pope (1730) pour conclure ce billet :

La Nature et ses lois
Restaient cachées dans la nuit
Et Dieu dit « Que Newton soit ! »
Et alors tout s’éclaircit.

Max Planck: Autobiographie scientifique

Cet éminent scientifique allemand est à mon avis trop méconnu en France, je voulais donc lui consacrer un billet ici suite à la lecture de son autobiographie scientifique, rédigée à la fin de sa vie en 1945 (il avait alors 87 ans). 

LoidePlanck.jpg

Max Planck : ce nom n’évoque peut être pas grand-chose pour la majorité des français mais il est pourtant l’un des plus grands physiciens du 20ème siècle. Prix Nobel de physique en 1918, c’est lui qui posa la première brique de la physique quantique : le quantum élémentaire d’action.

Max Planck nous raconte dans son autobiographie ses études à Munich puis à Berlin et comment il en est arrivé à choisir la physique théorique comme domaine de prédilection (il hésita longtemps entre la musique et la science). La physique théorique était une discipline peu développée à cette époque où l’expérimentation était presque la seule manière de faire de la science. Il s’orienta rapidement lors de son doctorat à Berlin sur la thermodynamique qui le passionnait depuis ses lectures de Rudolf Clausius au sujet du second principe de la thermodynamique et d’une grandeur thermodynamique appelée Entropie. L’entropie est une grandeur physique ne pouvant qu’augmenter dans le temps et représentant le désordre microscopique (voir mon billet précédent sur la thermodynamique). Cet Entropie était en quelque sorte le cheval de bataille de Planck ; il écrit à ce sujet :

« Cependant, j’étais si profondément convaincu de l’importance de la tâche que je m’étais moi-même imposée, que de telles expériences ne pouvaient me détourner de poursuivre mes études sur l’entropie, notion que je regardais à coté de l’énergie comme la propriété la plus importance des systèmes physiques. »

 A Berlin, il côtoyait les plus grands physiciens allemands de la fin du 19ème siècle comme Helmholtz et Kirchhoff mais ces derniers n’apportaient que peu de crédit à ce que le jeune Max Planck considérait  comme primordial. On sent bien à travers ses écrits que
l’incompréhension de ses pairs était douloureuse pour lui : 

« C’est une des plus pénibles expériences de ma vie scientifique tout entière, que j’aie bien rarement –  et en fait, je pourrais dire que je n’aie jamais – réussi à obtenir l’assentiment universel  pour un résultat nouveau, dont je pouvais démontrer la vérité par une décisive, encore que simplement théorique, démonstration. [ …] Tous mes excellents arguments tombaient dans des oreilles sourdes.»

Après quelques années, la théorie de la chaleur au sens de Clausius que Planck défendait (c’est-à-dire différente de la théorie purement mécanique) fut enfin reconnue grâce à Boltzmann. Planck nous confie que :

« Une vérité nouvelle en science n’arrive jamais à triompher en convaincant les adversaires et en les amenant à voir la lumière, mais plutôt parce que finalement ces adversaires meurent et qu’une nouvelle génération grandit, à qui cette vérité est familière. »

C’est une réflexion un peu sévère pour la science que Planck mène ici mais l’histoire des sciences ne peut que lui donner raison.

max-planck-1901

En cette fin de 19ème siècle, Planck était en quelque sorte le « théoricien » de Berlin qu’on utilisait pour résoudre différents problèmes physiques. Il travailla notamment en acoustique sur l’étude des gammes musicales en essayant de comprendre pourquoi la gamme tempérée est plus plaisante à l’oreille que la gamme naturelle. Il apporta également sa contribution en électricité mais c’est en 1900, alors qu’il essayait depuis plusieurs années de résoudre un problème qui le tenait à cœur sur le spectre thermique des éléments appelé le rayonnement du corps noir, que Planck apporta une importante nouveauté à la Science…  Je ne vais pas vous détailler ici le problème du corps noir (voir ce billet qui explique tout ça) mais simplement vous expliquer la démarche de Planck.

 Planck umbolt

Statue de Max Planck à l’Université Humboldt de Berlin (photo personnelle)

 Planck était toujours intimement convaincu que la piste à suivre pour expliquer le rayonnement du corps noir était une explication à travers l’entropie (toujours elle) contrairement à tous les scientifiques de l’époque qui se concentraient sur la température. Après maints efforts et échecs, Planck trouve une formulation mathématique semblant expliquer le rayonnement du corps noir dans toutes les gammes d’énergies et de fréquences (jusqu’à présent, tous les modèles fonctionnaient dans des cas précis mais jamais partout). Pour cela, il introduisit dans son équation une nouvelle constante universelle qu’il appela h et qui représentait une quantité d’action élémentaire indivisible.

« D’autre part, s’agissant de la grandeur W, je trouvais que pour l’interpréter comme une probabilité ainsi qu’il convenait, il était nécessaire d’introduire une constante universelle, que j’appelai h. Comme elle avait les dimensions d’une action (une énergie multiplier par un temps), je lui donnai le nom de quantum élémentaire d’action. »

Au début, Planck qui était plutôt conservateur, tenta de faire disparaitre ce quantum élémentaire d’action qui n’avait alors pas de signification physique dans le cadre de la physique classique et qui se révélait plus encombrant qu’autre chose. Mais en vain. Cette constante était nécessaire pour que les équations restent en accord avec les observations et Max Planck dû se rendre à l’évidence :

« L’échec de toutes mes tentatives pour sauter l’obstacle me rendit bientôt évident le rôle fondamental joué par le quantum élémentaire d’action dans la Physique atomique, et que son apparition ouvrait une ère nouvelle dans les sciences de la nature. »

Max-Planck-und-Albert-Einstein.jpg

Max Planck et Albert Einstein en 1929 à Berlin

Cette constante deviendra par la suite la fameuse constante de Planck qui donnera naissance quelques années plus tard à la théorie des quanta (la future physique quantique) avec les contributions de Niels Bohr, Erwin Schrödinger et Louis de Broglie. Cinq ans plus tard, un certain Albert Einstein réutilise la théorie des quanta pour expliquer l’effet photoélectrique : la fameuse constante de Planck h multipliée par la
fréquence d’une onde électromagnétique représentera alors un « grain de lumière » qui prendra le nom de photon. Planck fut d’ailleurs un des premiers défenseurs de la Relativité d’Einstein et n’hésitera pas à comparer les deux théories :

« La vitesse de la lumière est à la théorie de la Relativité ce que le quantum élémentaire d’action est à la théorie des quanta : c’est son centre absolu. »

Voilà, j’espère que Max Planck vous est désormais un peu plus familier et je vous recommande vivement la lecture de son autobiographie scientifique. Au passage, Max Planck a laissé son nom non seulement à une constante universelle et à une loi physique mais également à un institut de recherche fondamentale allemand. Aujourd’hui, l’Institut Max Planck est un des plus prestigieux laboratoires de recherche du monde et emploie environ 13000 personnes. De plus, 17 prix Nobel ont été décernés à des chercheurs de cet institut depuis sa création en 1948, juste après la mort de Max Planck (a titre de comparaison, la France a récoltée 7 Nobel en physique depuis 1948).

Sadi Carnot


Sadi Carnot est considéré comme le père de la thermodynamique moderne en introduisant plus ou moins le deuxième principe de la thermodynamique.

J’ai déjà consacré 2 billets à la thermodynamique sur ce blog : Thermodynamique : Les bases et Thermodynamique : Principes et Applications.  J’ai donc déjà parlé de Sadi Carnot mais je voulais vous informer que je viens de publier sur le site de la bibliothèque numérique Bibnum une analyse au sujet du fameux texte de Sadi Carnot intitulé « Réflexions sur la
puissance motrice du feu et sur les machines propres à développer cette puissance
 » dans lequel il explique son fameux cycle de Carnot. Je vous invite donc à consulter cette analyse qui permet de mettre en lumière la clairvoyance de Sadi Carnot pour son époque (le texte date de 1824). D’autant que Sadi Carnot est mort relativement jeune, à 36 ans à cause d’une épidémie de choléra, pratiquement dans l’oubli général, alors qu’il a tout simplement révolutioné la thermodynamique et le développement des machines thermiques, des moteurs de voiture aux moteurs des avions à réaction.

On peut s’étonner tout de même que le texte de Sadi Carnot n’est pas fait plus de bruit de l’époque, surtout qu’il était issu d’une très grande famille française. En effet, son père, Lazare Carnot, était membre de la Convention nationale et un physicien de renom (son nom est d’ailleurs inscrit sur la Tour Eiffel), son frère Hyppolyte Carnot fut ministre de l’instruction publique et son neveu qui s’appelait également Sadi Carnot (eh oui il ne faut pas les confondre) fût président du conseil de 1887 à 1894. 

De plus, Sadi Carnot était polytechnicien comme on peut le voir sur sa peinture réalisée par Boilly en 1824 qui était alors un peintre de renom. Sadi Carnot jouissait donc, surtout à cette époque, d’une bonne visibilité scientifique. Sûrement que ses écrits ne furent pas pleinement compris par ses contemporains. Il faudra attendre Clapeyron puis Clausius plus de 25 ans plus tard pour reprendre les travaux  de Carnot  pour formaliser cette deuxième loi de la thermodynamique ainsi que ses implications sur les machines thermiques. De même, c’est ce texte de Canot qui guidera Thomson (Lord Kelvin) vers la création d’une échelle de température absolue (le kelvin)  en 1848  et qui donnera naissance à la notion d’entropie en 1854.

Bref, je voulais juste saluer cet homme qui a beaucoup fait pour la Science et qui est mort dans l’indifférence comme beaucoup d’autres.

La première liquéfaction de l’hélium par H.K. Onnes


Alexandre Moatti
présentait le mois dernier une nouvelle bibliothèque numérique présentant des textes fondateurs de la science antérieurs à 1940 et analysés par des scientifiques contemporains : BibNum.

Je viens de faire une analyse sur BibNum au sujet de la première liquéfaction de l’hélium réalisée en 1908 par Heike Kamerlingh Onnes au laboratoire de Leyde aux Pays-Bas : voir l’analyse sur Bibnum.

L’analyse s’appuie sur le communiqué fait à l’Académie des Sciences où il décrit son expérience et sa découverte de l’hélium liquide. Il atteint alors la température de 1,65 K (-271,5 °C), la plus basse jamais atteinte par l’homme à cette époque. On peut voir sur la photo ci-contre H.K. Onnes (à droite) et G.J. Flim (à gauche), le chef du laboratoire de cryogénie, devant le liquéfacteur d’hélium à l’université de Leyde en 1908.

 Seulement trois ans plus tard, Onnes découvrira  par hasard la supraconductivité : en dessous d’une certaine température très basse, dite critique, certains matériaux laissent circuler l’électricité sans aucune perte (la résistance devient nulle). Onnes obtiendra le prix Nobel en 1913 pour ses recherches sur les propriétés de la matière aux basses températures, qui conduisirent, entre autres, à la production d’hélium liquide.

Cette découverte pouvant passer inaperçue était une prouesse technologique et scientifique tout en ouvrant la voie à de très nombreuses applications comme la supraconductivité. Les supraconducteurs sont principalement utilisés pour fabriquer des électroaimants peu encombrants et générant de très forts champs
magnétiques. Aujourd’hui, la physique des particules et l’imagerie médicale ont recours tous les jours à la cryogénie à l’hélium liquide pour refroidir des aimants supraconducteurs. Le plus grand succès de l’hélium liquide et de la supraconductivité est l’accélérateur de particules LHC (Large Hadron
Collider
) au CERN qui vient de démarrer cette année, exactement 100 ans après la première liquéfaction de l’hélium par Onnes.
Le LHC est composé de 27 km d’aimants supraconducteurs qui baignent dans de l’hélium superfluide à 1,9 K. Au total, 60 tonnes d’hélium liquide (normal et superfluide) sont utilisés pour refroidir les 36 800 tonnes de la machine.

Einstein, un siècle contre lui !

Einstein, un siècle contre lui est le titre du dernier livre de Alexandre Moatti, sorti en Octobre 2007 aux éditions Odile Jacob (je vous conseille en passant le blog d’ A .M. : http://www.maths-et-physique.net/ ).

undefined

Ce livre n’a pas pour ambition d’expliquer les diverses théories développées par Albert Einstein, ni de raconter sa vie mais bien de décrire l’opposition, voire la haine dont il a été la cible pendant tout ce 20ième siècle. Alexandre Moatti argumente ses écrits le plus objectivement possible (certes avec notre recul depuis le 21ième siècle) tout en se basant sur un large éventail de références (pas moins de 72 références bibliographiques sont citées).

J’ai découvert, avec stupeur, à quel point certains scientifiques peuvent avoir peur du changement et de la remise en question de la nature qui nous entoure et qui nous semble familière (notre espace et notre temps). Cette crainte allant jusqu’à la haine profonde pour bon nombre d’entre eux !

A.M. nous narre les persécutions (le mot est adéquat) dont ont été victimes Einstein et les einsteiniens. On parle ici des einsteiniens pour représenter les défenseurs d’Einstein, lequel n’a pas réellement eu de disciples. En France, il n’y a eu vraiment qu’un seul einsteinien: Langevin (celui du fameux paradoxe des jumeaux). On trouve en revanche parmi les opposants de la relativité beaucoup plus de scientifiques (ou pseudo-scientifiques) : des français, des allemands, des soviétiques, des mathématiciens, des physiciens expérimentateurs ou théoriciens (plus rare), des astronomes, des médecins, des philosophes, des politiciens, des communistes, des journalistes, des prix Nobel, pléthore de polytechniciens, des nazis, des aryens, des antisémites, des anti-allemands, des jeunes, des vieux, des matérialistes, des anti-matérialistes, des jaloux, des bornés et des gens comme vous et moi qui ne sont pas forcément spécialistes de physique théorique mais qui donnent leur avis tout de même ! Tous ces adversaires ont peur de cette révolution, attribuant la relativité à une métaphysique, préférant regarder ce qu’elle entraîne sur la vision de notre monde plutôt que la théorie elle-même (qui est belle et bien une théorie physique à part entière) alors qu’Einstein a réalisé tout son cheminement intellectuel, non pas sur la métaphysique mais bien sur les mathématiques et la physique !!

Bref je vous conseille vivement cet ouvrage si vous vous intéressez à l’histoire des sciences du 20ième siècle et plus particulièrement à l’histoire de la relativité.

Carl Friedrich Gauss

J’ai lu récemment Les Arpenteurs du Monde, de Daniel Kehlmann , un écrivain allemand qui retrace de manière romancée la vie de Carl Friedrich Gauss (1777-1855), un des plus grands mathématiciens de tous les temps et de Alexander von Humboldt (1769-1859), un grand explorateur ayant fait de nombreuses découvertes en Amérique du sud.

.Gauss.jpg

 Ce livre est un roman et non une biographie mais il s’inspire largement de nombreux faits réels sur la vie de ces deux génies allemands. J’ai entièrement redécouvert Gauss dont je ne connaissais que le nom et les théorèmes.

Ce génie n’a pas volé son surnom de « prince des mathématiques ». Issu d’une famille très modeste il a révélé très tôt des capacités intellectuelles extraordinaires. Il apprend à lire et à compter tout seul à l’age de trois ans et résout des problèmes par récurrence de manière spontanée a l’école primaire. Il redécouvre ensuite, seul, un grand nombre de théorèmes puis découvre de nouveaux théorèmes géométriques importants sur les polygones. Il formule également la méthode des moindres carrés, une méthode qui est très couramment utilisée de nos jours en science de l’ingénieur pour adapter des mesures pratiques à un modèle mathématique en minimisant le carré des erreurs entre pratique et théorie. Il formule également une conjoncture sur la répartition des nombres premiers qui sera démontrée plus d’un siècle après. Tous ces travaux furent effectués avant ses 18 ans !

 A 24 ans (c’est à dire à mon age), il publie une « bible de l’arithmétique », les Disquisitiones arithmeticae, qui constituent dès lors une référence mondiale sur la théorie des nombres. Il s’orienta ensuite dans l’astronomie où il fit de nombreuses découvertes, particulièrement sur le mouvement des corps célestes.

Il aurait également découvert de nombreuses choses sur les géométries non-euclidiennes mais ne publia jamais ses travaux de peur de passé pour un fou à cette époque. On entend par géométrie non-euclidienne les géométries qui ne se basent pas sur un espace plan à 2 dimensions mais sur un espace courbé. Dans de telles géométries, la somme des angles d’un triangle ne font pas 180° et 2 droites parallèles peuvent se couper. Ce sont ces géométries, extrêmement étudiées par Poincaré, qui permirent le développement de la théorie de la relativité au début du 20ième siècle où l’espace est considéré non plus plan mais courbe.

Il eut de nombreux élèves mais tous médiocres selon ses dires, il y en avait un qui était un peu moins mauvais que les autres, il s’appelait Wilhem Weber et découvrirent ensemble de nouvelles lois sur le magnétisme. Il y a également la découverte du théorème de Gauss en magnétostatique. D’ailleurs, aujourd’hui un flux magnétique se mesure en Weber (Wb) et un champ magnétique se mesure en Gauss (G). Il est important de souligner que toute la théorie de l’électromagnétisme est basée sur ce que l’on appelle les 4 équations de Maxwell, et que 2 de ces 4 équations sont de Gauss !

 Il eut également comme élève Bernhard Riemann, qui révolutionna l’analyse moderne et la géométrie différentielle, les élèves de classes préparatoires le connaissent bien !

loi-gauss.jpg

La chose pour laquelle il est peut être les plus connu c’est la fameuse « courbe de Gauss » en forme de cloche qui permet de représenter une loi Normale en statistique.

arpenteurs.jpg

Bref c’est un homme qui n’en est pas un tellement il a modifié la vision du monde et des mathématiques de son époque. Sa vie sentimentale fût un désastre et  c’était un personnage apparemment ignoble qui méprisait tout son entourage et ne voulait jamais sortir de chez lui. Si vous en avez l’occasion, lisez Les Arpenteurs du Monde, c’est un libre magnifique.