Homéopatik…

Un billet rédigé par Noémie, en dessins.

homéo-nono1

homéo-nono2

Gödel: Le génie fou de la logique

Je viens de finir une biographie-fiction de Kurt Gödel, « La déesse des petites victoires » de Yannic Grannec, et je me suis dit que ce génie des mathématiques devenu fou ferait un bon sujet de billet.

godel

Kurt Gödel est un logicien autrichien (il étudie la logique mathématique) qui a révolutionné la vision des mathématiques du 20ième siècle mais le grand public le connait assez peu, principalement à cause de son caractère taiseux et du fait qu’il publiait rarement tout en essayant d’être le plus loin possible des projecteurs.

L’incomplétude des mathématiques

En 1931, à seulement 25 ans, il surprend les mathématiciens de son époque en démontrant que n’importe quelle arithmétique (la science des nombres) est nécessairement incomplète (ce qu’on appelle couramment le théorème d’incomplétude de Gödel). L’incomplétude d’une théorie signifie que certains énoncés de cette théorie ne peuvent en aucun cas être démontrés en restant au sein de ladite théorie. A cette époque, les plus grands mathématiciens étaient persuadés du contraire (et plus particulièrement David Hilbert), d’où l’étonnement général et la remise en question des mathématiques.

En gros, Gödel a prouvé de manière formelle qu’il est absolument impossible de fournir une théorie unique de l’ensemble des mathématiques !

Princeton

Suite à l’arrivée d’Hitler au Pouvoir et à l’Anschluss, il part aux U.S.A en 1933 au célébrissime Institut d’Etude Avancée de Princeton (IAS).  Dans ce temple de l’excellence scientifique, Gödel se lie d’amitié avec Albert Einstein, également pensionnaire de l’IAS. Einstein dira d’ailleurs à la fin de sa vie « Je ne vais à mon bureau que pour avoir le privilège de rentrer à pied avec Kurt Gödel ». Le célèbre couple Einstein-Gödel défiait la chronique entre le physicien extraverti toujours débraillé avec ses cheveux en bataille et le mathématicien introverti toujours tiré à quatre épingles surmonté de ses fameuses lunettes rondes. A la fin des années 40, Gödel étudiera d’ailleurs la relativité de manière « logique » et trouvera une solution paradoxale permettant les voyages dans le temps (les univers de Gödel).

einstein-et-godelLes deux contraires : Einstein et Gödel

Gödel et Dieu

Gödel  passera de nombreuses années à la fin de sa vie à tenter de développer une  logique formelle de la philosophie. Il ira jusqu’à développer une preuve ontologique de l’existence de Dieu inspiré d’Anselme de Cantorbéry et de Leibniz. De peur d’être critiqué, il ne publia jamais cette preuve qui émergea des archives 9 ans après sa mort.

Dieu_Preuve

Preuve ontologique de l’existence de Dieu selon Gödel

La folie de Gödel

Gödel était hypochondriaque et avait des tendances paranoïaques. Sa femme Adèle l’a soutenue et aider toute sa vie durant pour le maintenir à flot. A la fin de sa vie, il était considéré comme « fou » par la plupart des gens car sa psychose paranoïaque augmentait et il ne se nourrissait plus de peur d’être empoisonné.  Il est mort à l’âge de 72 ans et ne pesait plus que 30 kilo comme il refusait de se nourrir.

Il existe depuis 1992 un « prix Gödel » qui récompense des travaux en informatique théorique.

Le démon de Maxwell

 Mes deux domaines scientifiques préférés sont sans doute la thermodynamique et la théorie de l’information. L’histoire a su allier ces 2 grands domaines avec élégance pour comprendre le paradoxe du démon de Maxwell.

En 1871, James Clerk Maxwell (celui de la théorie électromagnétique) tente de contredire le second principe de la thermodynamique en inventant une expérience de pensée dans laquelle il invoque un « démon » mais ce n’est véritablement qu’en 1949 que Léon Brillouin, en utilisant la théorie de l’information, va permettre de lever le voile sur le paradoxe de cette expérience de pensée et redonner au second principe de la thermodynamique son caractère universel.

Le second principe de la thermodynamique

C’est un des principes de la physique les plus intéressants dans le sens où il cache de nombreuses implications. Il est au premier abord difficile à comprendre à cause de la notion d’entropie qui n’est pas facile à appréhender mais on l’entend souvent de la manière vulgarisée suivante :

« Le désordre d’un système isolé ne peut qu’augmenter dans le temps »

 L’entropie d’un système est en quelque sorte son désordre. Si tous les atomes d’un gaz bougent lentement, il y a peu de chocs entre eux et l’entropie sera alors faible (et le gaz sera froid). Au contraire, si tous les atomes d’un gaz bougent rapidement, les chocs entre eux sont nombreux et l’entropie est grande (et le gaz sera chaud). On considère ici des systèmes isolés, c’est-à-dire qui n’échangent ni matière ni énergie avec l’extérieur (donc pas de chaleur non plus).

 Le second principe stipule donc que toutes les transformations que peut subir un système isolé génèrent de l’entropie (du désordre) et que cette grandeur ne peut donc qu’augmenter dans le temps. Ceci veut dire que pour créer de l’ordre (faire baisser l’entropie), un agent extérieur doit forcément intervenir. Notre Univers voit donc son entropie totale augmenter vers l’infinie en permanence vue que rien n’est externe à l’Univers par définition.

 Une des conséquences importantes de ce principe est que toutes les transformations que peut subir un système isolé ne peuvent se dérouler que dans un sens précis en suivant « la flèche du temps ». Les transformations sont ainsi qualifiées d’irréversibles dans le temps car génératrices d’entropie. Quelques exemples de transformations irréversibles évidentes dans la vie quotidienne :

  • Lorsque l’on mélange du sirop dans un verre d’eau, jamais le sirop et l’eau ne vont complètement se re-séparer spontanément dans le verre.
  • Lorsque l’on mélange de l’eau chaude et de l’eau froide dans un verre, jamais l’eau chaude et l’eau froide ne vont complètement se re-séparer spontanément dans le verre.
  • Si un verre tombe par terre et se casse, jamais il ne se reconstituera par lui-même.

L’expérience de Maxwell

L’expérience pensée par Maxwell pour contredire le second principe de la thermodynamique est relativement simple à comprendre mais extrêmement difficile à mettre en œuvre, d’où la création de ce « démon ».

 

Imaginons 2 compartiments contigus dans lesquels on a mis d’un coté un gaz froid et de l’autre un gaz chaud. Il existe une porte entre ces 2 compartiments et un démon peut l’ouvrir et la fermer à sa guise. Le démon, malicieux, ouvre la porte de manière à ce que les atomes rapides passent dans le compartiment chaud et que les atomes lents passent dans le compartiment froid. Ainsi, plus le temps s’écoule et plus le gaz chaud se réchauffe et plus le gaz froid se refroidit.

Cette observation est en contradiction avec le second principe de la thermodynamique car les 2 compartiments voient leur entropie décroître : en effet, il y a plus d’ordre qu’au départ comme on a séparé les atomes rapides de ceux plus lents. La thermodynamique nous dit que dans le temps, les températures des 2 compartiments devraient converger vers la même valeur alors qu’ici ce n’est pas le cas.

La levée du paradoxe

Pour la thermodynamique, l’entropie a été redéfinie en 1877 par Boltzmann de la manière suivante :

La formule de Boltzmann sur sa tombe à Vienne

 Ici, « S » représente l’entropie, « k » est une constante (de Boltzmann) et « W » correspond au nombre d’états macroscopiques que peut prendre le système.

Plus de 70 ans plus tard, en 1948, Claude Shannon définit à son tour un genre d’entropie qui correspond à la quantité d’information minimum pour transmettre un message. Cette entropie est définie par :

I= K log P

avec « I » la quantité d’information, « K » une constante et « P » l’ensemble des états possibles du système considéré.

 

Claude Shannon (Alfred Eisenstaedt/Time & Life Pictures/Getty Image)

 A priori ces deux concepts n’ont de commun que leur expression mathématique mais Brillouin démontre qu’il s’agit bien de la même entropie. Je vous conseille de lire cette analyse Bibnum pour plus de détails où l’on peut lire ceci :

 Pour obtenir de l’information sur un système, il faut le mesurer, cette mesure augmente l’entropie de l’univers d’une quantité exactement égale à la quantité d’information obtenue. De cette manière Brillouin établit une échelle absolue de la mesure de l’information et à cette fin créé une nouvelle grandeur : La néguentropie, ou entropie négative.

 Il est évident que dans l’expérience de Maxwell, notre démon a besoin de connaître la vitesse des atomes pour les laisser passer ou pas par la porte. Brillouin montre alors que cette « mesure » faite par le démon va créer de la néguentropie de manière à compenser exactement la baisse d’entropie du système : le deuxième principe reste donc valide car l’entropie du système « enceintes+gaz+porte+démon » reste constante !!

 Applications de l’entropie de Shannon

Le calcul de l’entropie de Shannon permet de coder un message sous forme numérique avec le moins de bits possible sans perdre de l’information comme dans les algorithmes de compression sans perte (voir ce billet sur la compression de données).

 Elle est aussi utilisée dans le domaine de l’imagerie médicale pour comparer des images ainsi qu’en génétique pour identifier les parties des chromosomes contenant plus d’informations.

 

Histoire des grands scientifiques français

 

Si vous êtes amateur d’histoire des sciences, alors vous devez lire l’Histoire des grands scientifiques français de Eric Sartori. Le principe de ce livre est de retracer des biographies d’une trentaine de pages sur les scientifiques qui ont fait briller la science française depuis le 16ème siècle. Certes, le livre peut paraître chauvin au premier abord mais l’auteur se justifie relativement bien dans son introduction au sujet de ce choix. On assiste à quelques hauts et forts « cocoricos » et à l’encensement de Bonaparte mais il faut bien avouer que Napoléon a donné à la France un rayonnement scientifique exceptionnel en son temps, avec entre autre la création de l’école polytechnique sous l’impulsion de Gaspard Monge et d’autres en 1794.

On peut trouver dans ce recueil des mathématiciens (Cauchy, Poincaré…), des médecins (Paré, Bernard…), des physiciens (Pascal, Ampère,…), des chimistes (Lavoisier, Curie…), des naturalistes (Buffon…), des biologistes (Pasteur…) mais nombre d’entres eux sont bien évidemment un mélange de tout cela comme Pierre et Marie Curie pour ne citer qu’eux.

De nombreuses biographies se coupent et se recoupent, surtout autour de Laplace dans la grande époque napoléonienne et cela permet au lecteur de se faire une vision particulièrement large de cette époque stimulante pour la science française. Il est à noter que Laplace est particulièrement encensé par l’auteur mais cela provient du fait que Laplace est peu connu du « français moyen » alors qu’il a été un des plus grands scientifiques français au même titre qu’un Pascal ou qu’un Lavoisier. L’auteur commence d’ailleurs la biographie de Laplace ainsi : « Entre 1750 et 1850, la France connut une floraison de talents et de travaux scientifiques, comme aucune autre nation n’en a connu ou n’en connaitra jusqu’à nos jours. Laplace fut le grand patron scientifique de cette période».

Au congrès de Solvay de 1911, on trouve un quart de français (6 scientifiques sur 24) avec de gauche à droite : Marcel Brillouin, Maurice De Broglie, Jean Perrin, Marie Curie, Henri Poincaré, et Paul Langevin.

 Cet ensemble de biographies relativement courtes donne au lecteur une bonne idée de ce que pouvait être la science et la vie des scientifiques dans la société aux différentes époques avec ses avantages et ses inconvénients. Les aspects scientifiques comme les aspects politiques et sociaux sont abordés de manière agréable et cohérente. On découvre aussi des scientifiques français peu connus et qui sont pourtant à la source de révolutions scientifiques majeures comme Alexis Carrel qui est tout bonnement l’inventeur de la chirurgie vasculaire (le premier à avoir recousu une artère) et l’homme qui a rendu les greffes possibles (il a tout de même eu le prix Nobel mais peu de français le connaissent aujourd’hui).

 

Semaine speciale boson de Higgs sur Strip Science

Je vous invite a decouvrir cette semaine une Semaine Speciale Boson de Higgs sur Strip Science qui va republier des billets du C@fé des Sciences assortis d’illustrations originales de la part de Strip Science.

Le Boson de Higgs découvert au CERN

Toute la communauté de physique des particules est en effervescence car on ne comprend toujours pas précisément le monde qui nous entoure et la Science vient de faire un petit pas cette année !

L’année dernière, le CERN annonçait qu’il ne pouvait se prononcer quant à la détection ou non du boson de Higgs, une particule prédite par la théorie mais toujours pas détectée, car les données n’étaient pas encore suffisantes (voir mon billet de l’année dernière). Ce 4 Juillet 2012, des milliards de milliards de collisions plus tard , le CERN vient d’annoncer qu’une nouvelle particule de 125 GeV/c² a été détectée avec un intervalle de confiance de plus de 99.99% (un écart type de 5 sigmas pour les mathématiciens) et il semblerait que ce soit le boson de Higgs, mais reste à prouver que c’est bien lui…

 Un boson c’est quoi au fait ?

Les physiciens aiment bien faire des catégories et ranger leurs particules dans des boites plus ou moins grandes. Les particules peuvent par exemple être séparées en 2 grands ensembles selon leur comportement:

  • Les Fermions : obéissent à la statistique de Fermi-Dirac
  • Les Bosons : obéissent à la statistique de Bose-Einstein

Ces 2 catégories de particules se distinguent par ce que les physiciens appellent leur spin. Le spin est un peu comme la capacité de la particule à tourner sur elle-même. A chaque particule, on attribue un nombre de spin qui permet de caractériser cette rotation. Les bosons ont un spin entier comme le photon par exemple (spin=1). Au contraire, les fermions sont des particules ayant un spin demi-entier (1/2, 3/2, 5/2…) comme l’électron (spin=1/2).

Les Fermions

Les fermions constituent l’essentiel de la matière qui nous entoure (les quarks et les électrons) car ces derniers ne peuvent pas se trouver dans le même état d’énergie ensemble (c’est ce qu’on appelle le principe d’exclusion de Pauli). Ceci a pour conséquence qu’un assemblage de fermions forme une structure de matière rigide comme dans les atomes et les molécules qui constituent notre environnement quotidien.

Les Bosons

Au contraire, les bosons peuvent tous être dans le même état d’énergie et on ne peut pas forcément distinguer les différentes particules les unes des autres. Les bosons sont les vecteurs des forces entre les fermions (la force électromagnétique, la force forte et faible). Pareil pour notre désormais célèbre boson de Higgs qui donne une masse aux autres particules (aux autres fermions et aussi aux autres bosons).

Ce comportement bosonique (toutes les particules dans le même état) est directement observable à notre échelle comme dans un laser où tous les photons sont dans le même état et induisent une lumière cohérente (couleur unique en ligne bien droite). C’est également parce que l’hélium-4 est un boson que l’on peut observer la superfluidité de l’hélium à basse température. La supraconductivité aussi provient du fait que les paires d’électrons se comportent comme un seul boson (spin=1/2+1/2=1) à basse température et peuvent ainsi se déplacer sans perte dans un conducteur. Voir ce billet pour ces comportements atypiques de la matière.

Et si ce n’était pas notre bon vieux Higgs ?

Le dernier accélérateur de particules du CERN, le LHC, doit observer un certain taux de production de ce fameux boson de Higgs selon plusieurs modes de désintégrations possibles. Premièrement, le Higgs peut être créé lors d’une collision proton-proton selon différents processus, voir les petits dessins plus bas, appelés diagrammes de Feynman, où notre Higgs est représenté par la lettre « H » :

 

Ensuite, le Higgs peut se désintégrer selon plusieurs modes et c’est ce que les détecteurs de particules regardent. En particulier, les détecteurs regardent les « canaux » suivants :

  • Un Higgs se désintègre en 2 photons
  • Un Higgs se désintègre en 2 bosons Z
  • Un Higgs se désintègre en 2 bosons W
  • Un Higgs se désintègre en 2 tau
  • Un Higgs se désintègre en 2 quarks/antiquark b

Ensuite ces particules secondaires se désintègrent à leur tour selon différents modes possibles également et au total, c’est environ 85 modes de désintégrations qui sont analysés dans les détecteurs.

 

Deux gluons fusionnent pour donner un Higgs qui se désintègre en 2 bosons W

Ces différents processus de désintégrations sont expliqués par le modèle standard, la théorie actuelle qui marche pour ce que l’on a observé jusqu’à présent mais si le LHC observe plus ou moins de Higgs que prévu selon ces différents scénarios, c’est le modèle sur lequel se base toute la physique depuis les années 60 qui serait remis en question ! A partir d’ici, tout est permis et les physiciens ne sont pas en manque d’imagination pour expliquer telle ou telle anomalie du modèle standard qui ouvrirait alors une nouvelle physique. Ces anomalies pourraient par exemple provenir d’une autre particule chargée non prévue par le modèle standard.

Bref, les physiciens ont du pain sur la planche et le LHC relance la recherche internationale pour la compréhension de notre monde et c’est parti pour durer un certain nombre d’années de recherche et d’affinement des mesures du Higgs pour le regarder sous toutes les coutures et voir s’il se tient à carreaux ou si il fait des choses plus « exotiques ».

Certes, pour le commun des mortels, le fait que le boson de Higgs soit différent de ce que prédit le modèle ne va pas changer grand chose. Mais il ne faut pas oublier notre histoire et que chaque remise en question de la physique d’une époque a débouché sur de grandes avancées scientifiques et technologiques. Et puis n’oublions pas que pour trouver ce boson de Higgs, l’homme a dû construire des machines et de détecteurs complexes qui ont de nombreuses applications dans les technologies de l’information et dans l’imagerie médicale.

Et après ?

Le LHC doit poursuivre sa campagne de collisions jusqu’à mars 2013, ce qui permettra encore d’affiner les résultats et de s’assurer que le Higgs colle dans certains modèles ou pas. Ensuite, le CERN va passer un an et demi à consolider cet accélérateur de particules car le LHC fonctionne aujourd’hui à un peu plus de la moitié de sa puissance seulement (mais c’est déjà beaucoup). Il devrait alors repartir à quasiment sa puissance maximale en 2015 pour fournir de nouveaux résultats à des énergies que nous n’avons jamais explorées.

Le problème est que le LHC est une machine de découverte qui fait beaucoup de collisions entre protons et qui balaye une grande portion d’énergie mais ce n’est pas la meilleure machine pour étudier le Higgs en détail. La communauté de physique planche désormais plus sérieusement sur l’après-LHC qui permettra d’étudier en détail le Higgs maintenant que nous savons où il se cachait. Ce sera sans doute un accélérateur linéaire d’électrons et de positrons qui ferait plus de 30 kilomètres de long. Actuellement, les deux projets les plus sérieux et avancés sont l’ILC (International Linear Collider) et le CLIC (Compact Linear Collider). L’ILC permettrait des collisions à 1 TeV et serait sans doute aux USA ou au Japon et le CLIC permettrait des collisions à 3 TeV et serait sans doute au CERN à Genève. Ce choix sera sans doute à faire par la communauté internationale dans les 5 prochaines années selon les résultats du LHC. Affaire à suivre…

 

Prototype test pour le CLIC au CERN (CTF3)

 Quelques liens utiles :

Les Terres Rares

Voici un terme que l’on retrouve de plus en plus dans les journaux et les magazines à juste titre car c’est la Chine qui fournit aujourd’hui 96% des terres rares à l industrie mondiale. J’ai donc voulu éclaircir dans ce billet ce que sont les terres rares et pourquoi elles constituent un enjeu stratégique économique majeur pour la planète étant donné qu’elles sont un pivot des technologies vertes.

Terres Rares

Si vous vous souvenez du tableau de Mendeleïev, on apprend que chaque colonne constitue un ensemble d’éléments chimiques ayant des propriétés voisines. Les terres rares sont représentées par la troisième colonne de ce tableau et sont constituées de 17 métaux qui se finissent pour la plupart en « ium » ou « dyme ». En voici la liste: Sc(Scandium), Y(Yttrium), La(Lanthane), Ce(Cérium), Pr(Praséodyme), Nd(Néodyme), Pm(Prométhium), Sm(Samarium), Eu(Europium), Gd(Gadolinium), Tb(Terbium), Dy(Dysprosium), Ho(Holmium), Er(Erbium), Tm(Thulium), Yb(Ytterbium), Sc (Scandium), Y(Yttrium), La (Lanthane), Ce(Cérium), Pr(Praséodyme), Nd(Néodyme), Pm(Prométhium), Sm(Samarium), Eu(Europium), Gd(Gadolinium), Tb(Terbium), Dy(Dysprosium), Ho(Holmium), Er(Erbium), Tm(Thulium), Yb(Ytterbium), Lu(Lutécium).

Je parie que vous n’en connaissez pratiquement aucun alors que sans eux, notre quotidien serait bien différent puisque ces métaux sont indispensables à nos petits appareils mobiles qui nous sont si chers tels nos téléphones portables et autres tablettes numériques!

Selon une enquête du magazine L’Expansion en 2011, les cours des terres rares affichaient des hausses comprises entre 500 et 2000 % sur un an. Par exemple, le néodyme utilisé pour les aimants permanents des génératrices d’éoliennes a vu son prix multiplié par 20 entre 2003 et 2010 !! Cet ensemble de matériaux est devenu dans les dernières années un marché clef pour les technologies high-tech et les technologies vertes.

Répartition de la production des terres rares entre la Chine et le reste du Monde depuis 1950

 Les applications

Les applications des terres rares sont innombrables dans des domaines très variés. En général elles sont utilisées en proportions « infimes » mais leur application pour des produits de masse fait que la demande mondiale augmente rapidement. On les retrouve par exemple dans la plupart des applications mobiles comme les téléphones portables et les tablettes numériques comme l’iPad. Les militaires sont de gros consommateurs également avec la fabrication d’aimants permanents pour des missiles et des systèmes guidage (Samarium, Néodyme) ou bien pour le fuselage des avions de chasse (Yttrium). Les technologies vertes sont évident le secteur qui augmentent le plus rapidement avec la fabrication indispensables d’aimants permanents pour les génératrices d’éolienne (Néodyme), les ampoules basses consommation ou les batteries pour voitures électriques. On les retrouve aussi dans les nouvelles générations de panneaux solaires CIGS utilisant de l’indium qui est lui aussi utilisé dans tous les écrans plats et les ordinateurs portables (environ 2g d’Indium par ordinateur portable). Les pots catalytiques des voitures sont également réalisés avec des terres rares.

Le problème écologique

Tous ces métaux ne sont pas si rares que ça en fait, on en trouve partout dans la croute terrestre et les chinois ne possèdent « que » 37% des réserves mondiales exploitables. Cependant, les terres rares sont relativement difficiles à extraire car très polluants. Les procédés d’extraction sont donc chers dans les pays développés où les normes écologiques et sanitaires sont assez strictes. La Chine étant plus « souple » que nous en matière écologique (comprenez que c’est le dernier de leur souci), ils sont tout à fait disposer à contaminer des populations entières pour extraire ces métaux et les vendre à des occidentaux pour fabriquer leurs petits appareils électroniques et développer des technologies « vertes ». En effet, l’extraction et le raffinage des terres rares produisent des poussières métalliques entrainant des maladies pulmonaires et il est nécessaire d’utiliser de très nombreux produits chimiques dangereux. De plus, on peut également observer la libération d’éléments radioactifs dans certains cas comme pour le Thorium. Aloys Ligault, chargé de campagne sur la Responsabilité sociale et environnementale aux Amis de la Terre nous dit la chose suivante : « Autour des usines chinoises, les déchets radioactifs de roches s’accumulent, les vapeurs de soufre, de fluor imprègnent l’air et les rejets de métaux lourds polluent les rivières« .

 

Les mines à ciel ouvert de Baotou en sont le plus sinistre symbole où des territoires entiers sont sinistrés à cause de cette activité minière qui en fait un des lieux les plus pollués de la planète selon le magazine Terre Sauvage. Il faut tout de même signaler que 75% des terres rares dans le monde sont produites à Baotou sans se préoccuper de l’environnement ni des populations locales (2.5 millions d’habitants à Baotou tout de même).

Pour conclure

Les technologies vertes et les appareils high-tech nécessitent des terres rares qui sont produites quasi exclusivement en Chine dans des conditions écologiques et sociales scandaleuses (d’où le paradoxe avec les technologies vertes !!). L’industrie continue néanmoins à augmenter sa demande ce qui a pour conséquence de faire exploser les prix et la Chine commence à limiter ses exportations, bien consciente de sa force de pression sur l’occident. Les USA, le Japon et l’Union Européenne ont ainsi déposé plainte à l’OMC à cause de ses limitations d’exportation au mois de mars 2012. Barack Obama a dit à cette occasion que « Si la Chine laissait simplement le marché fonctionner de lui-même, nous n’aurions pas d’objection […] mais ses politiques actuelles empêchent que cela se produise. Et elles vont à l’encontre des règles que la Chine a accepté de suivre ».

Newton : calcul différentiel, gravité et optique

Voici un livre que je préconise à tout amateur d’Histoire des sciences : Isaac Newton, un destin fabuleux, de James Gleick aux éditions Quai des Sciences.

Cette biographie de l’illustre Newton nous replonge dans l’Angleterre du milieu du 17ème siècle encore moyenâgeuse où un homme d’origine modeste et destiné à être fermier dans la campagne environnante de Cambridge a révolutionné la Science. De mon point de vue, Newton a révolutionné les sciences dans le sens où c’est lui qui a séparé science et philosophie en deux approches bien distinctes, l’une basée sur la démonstration mathématique et l’autre basée sur la pensée et la réflexion. Newton fut certainement le dernier à cumuler les rôles de magicien, alchimiste, philosophe, métaphysicien, théologien, mathématicien et physicien. Après Newton, ce fut le siècle des lumières avec ses philosophes d’un coté  (Diderot, Rousseau, Voltaire, etc.) et ses scientifiques de l’autre (Euler, Bernoulli, Laplace, Lavoisier, etc.).

Dans ce billet, je veux simplement aborder brièvement les 3 principales avancées dues à Newton dans les sciences, à savoir le calcul différentiel, la mécanique et l’optique mais il faut souligner que Newton a passé une très grande partie de sa vie (et sûrement la plus grande partie de sa vie) à étudier l’alchimie ainsi que les différentes versions de la bible pour en retrouver les origines fondamentales.

Les Principia MathEmatica

La rédaction de son œuvre majeure et publiée pour la première fois en 1687 à Londres sont les Principes mathématiques de la philosophie naturelle (plus communément appelées Principia Mathematica). Ces Principia Mathematica abordent un grand nombre de sujets dont la célèbre théorie mécanique de Newton, en incorporant la théorie de la gravité universelle. Ces volumes furent réellement le point de départ de la physique moderne en se basant sur l’explication des phénomènes naturels par leurs mises en équations mathématiques, sans en expliquer leur origine métaphysique ou leur cause, c‘est ce que nous appelons aujourd’hui la Physique.

Première édition des Principia Mathematica avec les annotations manuscrites de Newton conservée à la bibliothèque Wren de Cambridge (1687)

Les Principia Mathematica ont été au début très peu diffusés en dehors de l’Angleterre (une centaine d’éditions seulement avaient été éditées) et il a fallu attendre le milieu du 18ème siècle pour avoir accès à ces 3 volumes fondateurs dans le reste de l’Europe comme par exemple avec la traduction française fameuse de Emilie du Châtelet en 1756 (Miss « Pompon Newton » selon Voltaire). J’ai moi-même eu la chance de tenir entre mes mains et de consulter une édition des Principia Mathematica de 1740 conservée à l’université de Valladolid en Espagne à la bibliothèque historique de Santa Cruz. Avec cette publication, Newton devint un des pères fondateurs de la physique, provoquant une rupture avec la Grèce antique d’Aristote et le cartésianisme de Descartes qui prévalaient alors comme références incontestables jusqu’à Newton.

Le calcul infinitésimal

Au milieu du 17ème siècle, les mathématiciens ne savaient guère appréhender les infinis, grands ou petits. Newton s’attaque à ce problème lors de la grande peste de Londres qui fait rage en Angleterre en 1665-1666 et aboutit à une méthode du calcul infinitésimal vers 1669. Malheureusement, il préfère ne pas publier ses résultats. Ce nouveau mode de calcul permet à Newton de calculer la pente (la tangente) de n’importe quelle courbe ainsi que son aire. C’est ce qu’on appelle aujourd’hui le calcul différentiel et intégral. Ces mêmes opérateurs permettront à Newton d’établir les relations nécessaires entre position, vitesse et accélération en mécanique (à moins que ce ne soit la mécanique qui l’ait amené à trouver le calcul différentiel). Il introduit alors la notation de la dérivée à l’aide d’un point au dessus des lettres (notation encore parfois utilisée).

Au même moment, en Allemagne, Leibniz invente également en 1674 et de manière indépendante le calcul différentiel à la différence qu’il mettra en place un système de notation extrêmement ingénieux et qui est toujours utilisé aujourd’hui : il notera la dérivée avec un « d » droit ou un Delta grec pour représenter une différence infiniment petite et le « S » allongée pour l’intégrale. Une bataille entre Newton et Leibniz fera alors rage pour revendiquer cet outil mathématique extrêmement puissant et constituant la base de l’analyse (la discipline mathématiques étudiant les fonctions).

Mécanique

La mécanique newtonienne est aujourd’hui la théorie mécanique la plus utilisée pour les problèmes courants des ingénieurs permettant de calculer les trajectoires, les vitesses et les accélérations lorsque les vitesses mises en jeu sont faibles devant la vitesse de la lumière (après c’est la relativité d’Einstein qui prend le relais).

Le centre de la mécanique développée par Newton est bien entendu la théorie de la gravitation universelle. Elle est qualifiée d’universelle car elle s’applique à tous les objets ayant une masse, du grain de sable au Soleil en passant par les pommes et la Lune: elle explique la trajectoire des boulets de canons, la rotation des planètes autour du Soleil et le mouvement des marées sur Terre à cause de la Lune.

Newton par Noémie

Newton comprend pour la première fois que plus la masse est grande, plus l’attraction est forte et qu’il est bien question d’attraction et non de pulsion comme il était alors question à l’époque. Newton révoque irrémédiablement la théorie de l’éther et des tourbillons de Descartes et clame que cette force d’attraction se propage dans le vide, ce qui déplaît fortement à l’époque. De plus, Newton ne donne pas d’explication de cette force mystérieuse qui s’exerce à distance (en passant, la transmission de la gravité est toujours un mystère et demeure la force la moins bien comprise). Newton identifie également que cette force est inversement proportionnelle au carré de la distance qui sépare les objets et retrouve les conjectures de Kepler par le calcul comme quoi les planètes décrivent une trajectoire elliptiques autour du Soleil. Il effectue même des corrections aux trajectoires de Kepler et permet à Edmond Halley en 1682 d’annoncer le prochain passage d’une comète en 1738 (soit 76 ans plus tard) qui deviendra la comète de Halley, la théorie de Newton sera alors à son paroxysme et fera l’unanimité sur le continent.

Optique

Newton était attaché à une théorie atomique de la lumière, à l’inverse de Huygens qui défendait une théorie ondulatoire (ils avaient en fait tous les deux raison selon la théorie quantique). La théorie défendue par Newton lui vaudra de nombreux débats et controverses à l’Académie Royale de Londres mais Newton fut le premier à comprendre que la lumière blanche était en fait une composition de toutes les couleurs de l’arc-en-ciel puisqu’en passant dans un prisme, la lumière blanche se décomposait en des pinceaux de lumière de différentes couleurs et qu’il était alors impossible d’en extraire de la lumière blanche à nouveau (on pensait alors que c’est le prisme qui fabriquait les autres couleurs).

Fort de cette théorie, Newton pensait que les télescopes de l’époque utilisant des lentilles (lunettes de Galilée) étaient limités du fait que les couleurs n’étaient pas déviées de la même façon dans les lentilles incurvées. Il inventa alors un nouveau télescope, qualifié de Newton aujourd’hui, utilisant un miroir courbe et permettant un grossissement identique avec un télescope beaucoup plus compact qu’avec les lunettes de Galilée.

 

Un télescope Newton monté sur une monture équatoriale

Pour conclure

Je citerai simplement cette épitaphe et Alexander Pope (1730) pour conclure ce billet :

La Nature et ses lois
Restaient cachées dans la nuit
Et Dieu dit « Que Newton soit ! »
Et alors tout s’éclaircit.

L’Hadronthérapie contre le cancer

C’est en lisant un des derniers billets des Quantum Diaries intitulé La face cachée du CERN que je me suis dit qu’un billet sur l’hadronthérapie serait un sujet très intéressant car prometteur et relativement peu connu du grand public.

La radiothérapie

La radiothérapie consiste à tuer les cellules cancéreuses d’un patient au moyen de radiations. L’idée de la radiothérapie consiste à exploiter le fait que les radiations peuvent détruire les cellules, quelles qu’elles soient. La difficulté est alors de détruire uniquement les cellules cancéreuses pour empêcher leur reproduction sans toucher aux cellules saines de manière à enrayer la maladie sans dommages collatéraux.

Il est à noter qu’aujourd’hui plus de la moitié des cancers sont traités à l’aide de la radiothérapie et que cette seule méthode peut entraîner une guérison complète avec des effets secondaires moindre qu’avec une chimiothérapie.

Les radiations peuvent être produites de 2 manières pour tuer les cellules cancéreuses :

  • La curiethérapie : Un élément naturellement radioactif est introduit dans le patient ou est placé à proximité de la zone à traiter.  Cette technique est utilisée principalement pour traiter les cancers du sein, de la prostate, de l’utérus et de la peau.
  • La radiothérapie externe : Un accélérateur de particules produit un faisceau de particules dirigé vers le patient de manière à irradier les cellules tumorales. C’est cette dernière méthode qui nous intéresse ici.

La difficulté est la suivante : les tumeurs peuvent être situées à la périphérie du corps ou bien enfouies profondément à l’intérieur comme dans le cerveau. Dans ce dernier cas, il faut alors trouver un moyen d’irradier fortement les cellules tumorales à l’intérieur en abîmant le moins possible les tissus alentours. Pour évaluer l’efficacité des faisceaux de particules à tuer des cellules, on calcule l’énergie qu’ils déposent dans les tissus, c’est ce qu’on appelle aussi la dose, qui est proportionnelle aux radiations induites sur les tissus pour les détruire. Il existe alors plusieurs types de radiothérapies externes qui exploitent différents types de rayonnement:

  • Faisceaux d’électrons : pénètrent faiblement dans les tissus et déposent toute leur dose quelques centimètres après le point d’entrée du faisceau dans le corps.
  • Rayons X (photons) : peuvent pénétrer en profondeur dans les tissus mais l’énergie déposée est maximale quelques centimètres seulement après le point d’entrée et diminue ensuite faiblement. Ainsi la majorité des tissus (sains et cancéreux) situés dans l’axe du faisceau sont irradiés fortement ce qui implique de déposer une dose relativement faible sur les cellules cancéreuses pour ne pas trop irradier les tissus sains.
  • Faisceaux de hadrons (protons ou ions carbones) : peuvent pénétrer en profondeur et une grande partie de l’énergie du faisceau est déposée une dizaine de centimètres après le point d’entrée du faisceau dans les tissus. De cette manière, la zone d’entrée du faisceau est peu irradiée, la zone où se situe la tumeur peut être fortement irradiée et la zone située derrière n’est pratiquement pas irradiée.

 Dépôts d’énergie de différents faisceaux (électrons, rayons X, protons) en fonction de la profondeur dans les tissus.

L’hadronthérapie

L’hadronthérapie permet ainsi de tuer des cellules cancéreuses enfouies à l’intérieur du corps comme dans le cerveau sans chirurgie tout en préservant au maximum les cellules saines autour de la tumeur. Mais au fait, c’est quoi un hadron ?

Les hadrons sont une classe de particules sensibles à l’interaction forte, c’est-à-dire à la force qui permet la cohésion des noyaux atomiques. Toutes les particules constituées de quarks comme les protons, neutrons ou n’importe quel noyau atomique sont des hadrons (contrairement aux leptons et aux bosons comme les électrons et les photons, voir mon billet sur le bestiaire des particules pour plus de détails).

Les hadrons ont cette caractéristique de déposer toute leur énergie d’un coup après avoir traversé une certaine épaisseur de matière, c’est ce que les physiciens appellent le pic de Bragg (voir la courbe rouge dans le dessin plus haut). Grâce aux bonnes connaissances que l’homme a acquises sur le fonctionnement de ces particules il est capable de fabriquer des accélérateurs de particules ultra-précis permettant de déposer l’énergie de ces hadrons exactement sur une tumeur de quelques centimètres enfouie au milieu de notre corps. Tout ça pour dire que la recherche fondamentale en physique des particules est indispensable pour développer de telles thérapies et que de très nombreux laboratoires en physique des particules comme le CERN ou GSI collaborent étroitement avec les instituts médicaux pour développer de telles thérapies. Aujourd’hui 2 types d’hadronthérapie existent et une vingtaine de centres en sont équipés dans le monde:

  • La protonthérapie qui utilise des protons. Plus de 30 centres sont opérationnels (à Orsay et à Nice pour la France), voir la liste ici.
  • L’hadronthérapie qui utilise des ions carbones. 5 centres sont opérationnels en  en Allemagne, en Chine et au Japon,  et plusieurs autres centres sont en construction (à Caen et à Lyon pour la France). Les ions carbones sont encore plus précis que les protons et permettent de déposer des doses plus importantes sur les cellules tumorales permettant ainsi de vaincre les tumeurs les plus radiorésistantes.

Salle de contrôle du synchrocyclotron au Centre de Protonthérapie d’Orsay.

Ces centres ont permis de traiter environ 7000 personnes dans le monde ces dernières années contre plusieurs millions par radiothérapie conventionnelle. En effet, cette méthode est relativement récente et est également plus chère que les autres méthodes mais elle est surtout plus difficile à mettre en œuvre à cause des équipements très sophistiqués à mettre en place. Cependant, elle est beaucoup plus précise et permet de soigner des tumeurs qui sont inopérables et non curables par radiothérapies conventionnelles lorsque ces dernières sont localisées près d’organes sensibles. De plus, les hadrons sont beaucoup plus efficaces pour tuer les cellules cancéreuses que les photons, de 2 à 10 fois plus efficaces selon les cas.

L’hadronthérapie est principalement utilisée pour soigner les tumeurs du cerveau non atteignables par neurochirurgie, certains cancers de l’œil qui nécessitaient une énucléation auparavant (extraction de l’œil) et certains cancers chez les enfants qui sont plus sensibles aux radiations et donc plus fragiles face aux techniques de radiothérapies conventionnelles utilisant des rayons X.

Je vous conseille ce petit reportage de 4 minutes sur le centre de radiothérapie de Heidelberg qui est en étroite collaboration avec GSI à Darmstadt: http://www.allodocteurs.fr/actualite-sante-hadrontherapie-une-radiotherapie-specifique-2631.asp?1=1

Radiothérapie avec de l’antimatière ?

Des recherches sont actuellement en cours au CERN à Genève sur la possibilité d’utiliser de l’antimatière, des antiprotons plus exactement, pour traiter les cancers. Cette expérience dénommée ACE pour Antiproton Cell Experiment, étudie comment l’antimatière peut détruire les cellules cancéreuses par annihilation matière/antimatière. Actuellement, l’expérience bombarde des cellules vivantes de hamsters avec des protons puis avec des antiprotons (pour voir la différence), et il apparaît qu’une énergie 4 fois inférieure avec des antiprotons permet de détruire autant de cellules cancéreuses tout en diminuant significativement la dose déposée dans les tissus sains.

L’expérience ACE au CERN étudiant l’effet des antiprotons sur des cellules de hamsters. © CERN.

Si cette expérience est concluante, peut-être que de futurs partenariats permettraient de développer dans quelques décennies une « antiproton thérapie » permettant de soigner des cancers difficiles d’accès en irradiant encore moins les cellules saines autours des tumeurs.

 

Le LHC et le Boson de Higgs

Non ce n’est pas une fable de la Fontaine mais une épopée de la physique moderne : la traque d’une particule invisible par un accélérateur de particules de 27 km de circonférence…

Aujourd’hui à 14h, une conférence donnée au CERN par les 2 porte-paroles des expériences phares du LHC (ATLAS et CMS) faisait un résumé des résultats obtenus grâce à l’accélérateur de particules LHC lors de la campagne de collisions 2011. Je vais donc essayer de vous faire un résumé compréhensible de cette conférence à laquelle j’ai assisté cette après-midi.

Les résultats des 2 expériences indépendantes sont très similaires et indiquent deux grandes tendances:

  • Le modèle standard de la physique des particules fonctionne comme prévu à 7 TeV (l’énergie maximale des collisions du LHC en 2011).
  • Le boson de Higgs n’a plus beaucoup d’endroits où se cacher et il commencerait à montrer le bout de son nez vers une énergie de 125 GeV mais pas encore de quoi annoncer sa découverte.

 Le modèle standard

Le modèle standard de la physique des particules est la théorie physique utilisée aujourd’hui pour décrire la matière et ses interactions. L’objectif des accélérateurs de particules est de tester cette théorie autant que possible pour voir si la nature est bien celle que les physiciens imaginent, voir ce billet que j’ai écrit il y a quelques mois à ce sujet.

Le LHC ouvre à présent une nouvelle gamme d’énergie encore jamais explorée par les accélérateurs et c’est pour cela que les physiciens sont un peu fébriles. Après plusieurs milliards de milliards de collisions effectuées et analysées durant cette année 2011, les particules se sont comportées comme la théorie le prévoit et le modèle standard se trouve ainsi conforté.

 Le Boson de Higgs

Le boson de Higgs est une particule un peu à part dans ce modèle standard car elle permet d’expliquer la masse de toutes les autres particules, constituant ainsi la pierre angulaire de cette théorie. Le problème est que ce boson de Higgs a une section efficace extrêmement faible, ce qui signifie qu’il faut faire des milliards de milliards de collisions pour voir 1 seul boson de Higgs, ce qui explique entre autre pourquoi aucun accélérateur n’a encore été capable de le voir. Voir ce billet qui explique tout ça par rapport à la campagne de collisions du LHC en 2010.

De plus, les physiciens ne savent pas exactement quelle est la masse du Higgs, ou son énergie, rappelez-vous que masse et énergie sont équivalentes selon la relativité restreinte d’Einstein (E= mc²). Plusieurs théories existent et peuvent expliquer le boson de Higgs à différentes énergies mais pour trancher, il faut le « voir » et donc faire des expériences, ceci étant le but du LHC. Les accélérateurs vont donc balayer petit à petit des bandes d’énergies pour voir si le boson de Higgs se cache à l’intérieur.

Deux grands principes sont à garder à l’esprit:

  • Plus l’énergie de la particule recherchée est importante, plus l’accélérateur doit être puissant.
  • Plus la section efficace est petite, plus le nombre de collisions doit être important pour voir statistiquement la particule recherchée.

Le LHC essaye donc de faire le plus de collisions possible à des énergies les plus hautes possibles pour « voir » ce boson de Higgs.

Comment « voir » le Higgs ?

Le boson de Higgs n’est pas directement détectable car sa durée de vie est trop faible. On cherche donc des particules qui pourraient être issues de sa désintégration en d’autres particules. Selon la masse du Higgs (toujours inconnue), les schémas de désintégration sont différents les uns des autres. Dans le cas du LHC, on cherche un boson de Higgs ayant une masse comprise entre 115 GeV et 600 GeV car les accélérateurs précédents ont écarté un Higgs en dessous de 115 GeV, et au dessus de 600 GeV le modèle standard ne marche plus.

Au total, les expériences ATLAS et CMS balayent ainsi une dizaine de schémas de désintégration possibles pour le Higgs. Par exemple dans l’hypothèse d’un Higgs léger entre 110 et 150 GeV, il peut se désintégrer en 2 photons gamma émis dans 2 directions opposées.

C’est cette dernière désintégration qui semble aujourd’hui sortir un peu du lot suite aux observations faites par ATLAS et CMS. Mais encore une fois, pour être certain que les mesures sont fiables, il faut valider statistiquement les mesures accumulées ce qui nécessite une quantité de données absolument gigantesque tant l’évènement de voir un Higgs est rare.

Les 2 expériences ont vu se dessiner un pic dans les collisions analysées qui indiquerait que le boson de Higgs aurait une masse proche de 125 GeV, voir les graphiques ci-dessous. Pour lire ces graphiques,  tant que la courbe noire (mesure) reste dans les bandes jaunes ou vertes, on ne peut rien dire car ces 2 courbes symbolisent l’incertitude des mesures. En revanche, dès que des données commencent à « sortir » de ces bandes, c’est que le Higgs pourrait se cacher à cet endroit.

Résultats préliminaires de ATLAS et CMS dans la recherche du Boson de Higgs dans l’hypothèse d’un boson de Higgs autour de 125 GeV issu d’une désintégration en 2 photons gamma.

Conclusion

Une tendance commence donc à apparaître pour un Higgs vers 125 GeV mais ce n’est pas encore assez pour certifier que le Higgs existe à cette énergie. Pour l’instant ATLAS estime la masse possible entre 116 GeV et 130 GeV et CMS entre 115 GeV et 127 GeV (les zones autour ont été exclues).

Pour valider ce résultat, il faudra accumuler encore plus de données pour voir si ce pic va être lissé ou bien s’accentuer, auquel cas l’existence du Higgs ne fera plus de doute. Si les attentes du CERN pour 2012 sont remplies, il y aura 4 fois plus de données à analyser dans un an et cette accumulation de collisions permettra de trancher la question du boson de Higgs avec 99% de certitude.

Fable à suivre…