Archives pour la catégorie astrophysique

Les étoiles à neutrons

Le 17 août 2017, les interféromètres LIGO et Virgo ont détecté les ondes gravitationnelles émises vraisemblablement par la collision de deux étoiles à neutrons. Cet évènement a fait beaucoup moins de bruit médiatique que les premières ondes gravitationnelles détectées par LIGO en 2015 lors de la fusion de 2 trous noirs (voir ce billet).

Eh oui, tout le monde connait les trous noirs, ça fait un peu rêver, à la frontière entre réel et science-fiction mais les étoiles à neutrons sont tout aussi intrigantes de par leurs caractéristiques proches de celles des trous noirs, à la différence près que nous pouvons « voir » ces étoiles particulières…

Les étoiles à neutrons sont des cadavres

En tout premier lieu, soyons clairs, les étoiles à neutrons ne sont pas vraiment des étoiles mais des cadavres d’étoiles. En effet, une étoile est définie en astronomie comme un ensemble de gaz aggloméré par gravitation au point de déclencher une réaction de fusion thermonucléaire : les étoiles transforment ainsi l’hydrogène dont elles sont majoritairement composées en hélium.

Quand les étoiles n’ont plus assez de combustible, c’est la mort de l’étoile. Si cette dernière est assez grosse, au moins 8 fois plus grosse que notre soleil, cette mort se manifeste sous forme d’une supernova, c’est-à-dire une gigantesque explosion très lumineuse dans le ciel qu’on peut même parfois voir en plein jour. Plus l’étoile est grosse, plus la supernova est impressionnante.

La supernova la plus connue: la nébuleuse du crabe, prise par le télescope spatial Hubble.

Toute la matière de l’étoile originelle est alors dispersée aux alentours (c’est d’ailleurs la raison pour laquelle vous pouvez dire que « votre grand-mère est une super nova », explication ici) et dans le cas des plus grosses étoiles, cette supernova peut donner naissance à une étoile à neutrons, voire à un trou noir si l’étoile est encore plus grosse. En gros, l’étoile à neutrons est l’objet céleste le plus dense qu’il nous est donné de voir, à la limite du trou noir où la densité de matière ne permet plus à la lumière de s’échapper.

A quoi ressemble une étoile à neutrons

Les chiffres des étoiles à neutrons peuvent donner le vertige. L’étoile à neutrons n’est pas très grande, on peut même dire qu’elle est ridiculement petite pour un objet céleste, soit un peu plus de 20 kilomètres de diamètre mais sa masse est comprise entre 1,4 et 3,3 fois celle du soleil (1,5 milliards de milliards de milliards de tonnes). Si vous en preniez un centimètre cube, un petit dé à coudre, il pèserait environ 1 milliard de tonnes !! Enfin, vous avez compris, une étoile à neutrons, ce n’est pas très gros mais c’est lourd !

Les étoiles à neutrons ne sont pas exclusivement faites de neutrons. Une telle étoile est composée de plusieurs couches, qui sont de plus en plus denses quand on se rapproche de son centre. Les chercheurs sont assez d’accord pour les couches externes mais ça se corse pour le centre de l’étoile où la physique actuelle commence à toucher ses limites. Selon la masse de l’étoile, certains chercheurs pensent que plusieurs compositions sont possibles avec pas moins de 6 variantes mais ces structures peuvent être sujet à débat (étoiles à neutrons classiques, étoiles à neutrons avec condensat de pions, étoiles à quarks, étoiles étranges, étoiles à nucléons, étoiles à hypérons).

Les différentes couches d’une étoile à neutrons avec les différentes variantes pour le centre (W. Becker).

Pulsars et magnétars

Les étoiles à neutrons tournent sur elles-mêmes à grande vitesse et cette rotation s’accompagne d’un intense jet de lumière radiofréquence dans un axe bien particulier à chaque rotation de l’étoile : on parle alors de pulsar qui « pulse » cette lumière régulièrement. Ces astres sont comme les phares de l’univers qui balayent l’hyper-espace de leurs faisceaux lumineux intenses à fréquences fixes.

On trouve des pulsars dans des restes de supernovas, le plus célèbre étant le pulsar de la nébuleuse du Crabe, né de l’explosion d’une étoile massive. Cette supernova fut observée par les astronomes chinois depuis le matin du 4 juillet 1054, en plein jour pendant trois semaines et durant la nuit pendant près de deux ans.

La rotation de l’étoile à neutrons, jusqu’à près de 100 tours par seconde, génère un champ magnétique titanesque qui peut atteindre 100 milliards de teslas. A titre de comparaison, le plus puissant aimant fabriqué par l’homme génère un champ d’environ 20 teslas et le champ magnétique de la Terre est de 45 millionièmes de teslas… On parle alors de magnétar (abbréviation de magnetic star = étoile magnétique).

Evolution comparée des vitesses de rotation d’une étoile à neutrons isolée, dans un système binaire et d’un magnétar. (source)

Il arrive aussi qu’une étoile à neutrons tourne autour d’une autre étoile, c’est un système binaire. Si cette deuxième étoile, aussi appelée compagnon, est également une étoile à neutrons, c’est un pulsar double, mais un seul objet de ce type a été découvert à ce jour. Ces objets sont fondamentaux pour les physiciens car ils permettent de valider des théories comme la relativité générale dans des cas extrêmes. Jusqu’à présent, Einstein tient bon : la relativité générale n’a jamais été mise en défaut et ces nouvelles détections d’ondes gravitationelles produites lors de la colascence de 2 trous noirs ou 2 etoiles a neutrons sont un succès.

Simulation de la collision de 2 étoiles à neutrons par la NASA (j’adore :-D)

Les ondes gravitationnelles et l’interféromètre LIGO

A moins que vous ne viviez reclus, vous n’avez pas pu passer à côté de la nouvelle annoncée par l’expérience LIGO cette semaine: des ondes gravitationnelles ont été directement détectées.

Aerial5Vue aérienne de LIGO sur le site de Hanford (état de Washington, Etats-Unis). Source : LIGO.

Si vous n’aviez jamais entendu parlé de ces ondes gravitationnelles auparavant, c’est tout simplement parce que cela fait bien longtemps qu’on suppose leur existence et elles avaient même été déduites à partir de mesures indirectes sur un pulsar binaire en 1974 (ce qui d’ailleurs valut un prix Nobel à ses auteurs). L’existence de ces ondes découle directement de la relativité générale d’Einstein de 1916. On peut dire que la mesure directe de ces ondes permet d’enfoncer un peu plus le clou de la relativité générale qui constitue toujours aujourd’hui la théorie la plus avancée pour décrire la gravité: elle n’a jamais été mise en défaut ! Ce n’est donc pas une « découverte » au sens strict mais plutôt une confirmation expérimentale directe.

Si on fait le rapprochement avec la détection du Boson de Higgs au CERN en 2012, c’est un peu pareil car le Higgs avait été prédit depuis les années 60 et a permis de valider un peu plus le modèle standard (le modèle qui explique la matière et ses interactions, sauf la gravité…). Cependant, le boson de Higgs a été déduit de manière indirecte car c’est le produit de ses désintégrations qui a été détecté par des détecteurs, contrairement aux ondes gravitationnelles qui ont directement « excité » les détecteurs de LIGO au mois de Septembre 2015.

Un peu de théorie

Dans la relativité générale, l’espace et le temps sont liés dans une même structure : l’espace-temps. Dans cette structure, tout objet ayant une masse déforme l’espace-temps et si cet objet est accéléré fortement, il peut perturber cette structure selon sa forme, sa direction et sa vitesse. De cette manière, une vague le long de l’espace-temps peut se propager à la vitesse de la lumière et c’est cette vague dans l’espace-temps qu’on appelle « onde gravitationnelle ». Pour induire une onde détectable par nos moyens de mesure sur Terre, le cas idéal serait deux objets très massifs comme des trous noirs ou des étoiles à neutrons qui tourneraient autour d’un point situé entre ces 2 objets. C’est exactement ce qui se passe dans ce qu’on appelle en astrophysique des systèmes binaires composés de 2 étoiles à neutrons ou de 2 trous noirs tournant l’un autour de l’autre et se rapprochant au fur et à mesure jusqu’à se rencontrer (coalescence). C’est visiblement d’une telle coalescence que l’onde gravitationnelle détectée par LIGO était issue.

etoile binaireSystème binaire de 2 étoiles (source : Wikipédia)

Un peu d’expérimentation

La question est simple mais la réponse l’est moins : comment détecter le passage d’une onde gravitationnelle sur Terre ? On peut reformuler cette question comme: comment mesurer une déformation locale de notre espace-temps sur Terre ?

Eh bien, une solution consiste à mesurer la distance entre 2 points et de voir si cette distance serait par hasard soudainement allongée puis rétrécie. Si on double cette expérience de mesure à 2 points du globe et qu’on détecte un allongement/rétrécissement dans ces 2 expériences avec un intervalle de temps égal au temps nécessaire à la lumière pour parcourir cette distance, alors on pourra émettre l’hypothèse qu’une onde gravitationnelle a traversé les 2 expériences car une telle onde doit se propager à la vitesse de la lumière. C’est exactement ce que vient de réaliser LIGO aux États-Unis entre Hanford (état de Washington) et Livingston (état de Louisiane) qui sont distants de 3000 kilomètres et qui ont détecté une onde sur leurs détecteurs à 7 ms d’intervalle. Vous allez me dire que dans ce cas, l’intervalle devrait être alors de 10 ms pour parcourir 3000 km, pas 7 ms, mais l’onde gravitationnelle ne se propage pas forcément perpendiculairement aux 2 expériences mais de biais et donc, le décalage temporel permet également de compléter d’autres données pour trouver dans quelle direction cette onde a été émise. Dans le cas de l’onde détectée par LIGO, ce serait un point dans l’hémisphère sud en direction du grand nuage de Magellan (mais beaucoup plus loin, à environ 1 milliard d’années-lumière).

Interféromètre de Michelson

Pour détecter cette perturbation d’espace-temps entre 2 points, les scientifiques ont construit deux interféromètres de Michelson géants. Le fonctionnement d’un interféromètre Michelson est relativement simple à comprendre car il est simplement constitué de 2 miroirs placés perpendiculairement et d’une lame semi-transparente appelé séparatrice en son centre (plus une autre lame compensatrice si on travaille avec de la lumière blanche). On réalise d’ailleurs fréquemment cette expérience dans les salles de travaux pratiques à l’université ou en école d’ingénieur dans le cadre des cours d’optique ondulatoire pour comprendre le phénomène d’interférence.

Michelson-Morley_experiment_conducted_with_white_lightInterféromètre de Michelson (source : Wikipédia)

La lumière se comporte (parfois !) comme une onde et à ce titre, certaines ondes peuvent se « superposer » et former ainsi des figures d’interférence. Si on fait passer dans un interféromètre de Michelson un faisceau laser, on obtient 2 ondes avec la séparatrice et lorsque les 2 ondes se recombinent après avoir été renvoyées par les miroirs, on induit un déphasage entre les 2 ondes en fonction de la distance entre les miroirs et la séparatrice, ce qui provoque une interférence. Cette interférence apparait sous forme de franges de différentes couleurs selon la source de lumière utilisée. Ces franges sont fonction de la distance entre les 2 miroirs et donc lorsque la distance change, les franges bougent car les 2 ondes de lumière interfèrent différemment. Je me souviens parfaitement de cette expérience pendant mes études d’ingénieur et j’avais trouvé ça incroyable de pouvoir voir aussi facilement le phénomène d’interférence qui s’opère à une échelle si petite.

LIGO : le dispositif

Le concept d’interféromètre est donc assez simple mais pour atteindre la précision souhaitée pour détecter des ondes gravitationnelles, c’est un véritable tour de force car ces interféromètres qui mesurent 4 kilomètres de long doivent pouvoir mesurer une différence de distance de 10-18 m, soit un milliardième de milliardième de mètre ou encore le dix millième du diamètre d’un proton !! Le rapport de distance à mesurer est donc de 1021, ça revient à mesurer une différence de 1 centimètre entre la Terre et l’étoile la plus proche de notre système solaire (Proxima du Centaure située à 4 000 années-lumière). C’est juste incroyable !

Tout d’abord, LIGO possède bien des bras de 4 kilomètres mais en fait, la lumière en parcourt 1600 entre le miroir et la séparatrice car entre les 2, les scientifiques ont rajouté ce qu’on appelle une cavité de Fabry-Perrot dans laquelle le faisceau fait 400 aller/retours histoire de rallonger artificiellement les bras et donc d’améliorer la sensibilité du dispositif.

Basic_michelson_with_FP_labeledSchéma de principe de LIGO. Source : LIGO

Ensuite, les miroirs de 34 cm de diamètre et pesant 40kg chacun sont suspendus à un quadruple pendule géant qui permet de stabiliser les miroirs pour s’affranchir des vibrations du sol et des microséismes. Finalement, c’est bien entendu un LASER très perfectionné de 200 W dans le proche infra-rouge qui est utilisé comme source lumineuse et le faisceau voyage dans une enceinte à vide de 10 000 m3 qui est maintenue à une pression de 10-8 mbar pour éviter toute perturbation.

ligo_suspension

Schéma du quadruple pendule stabilisant les miroirs de LIGO. Source : LIGO.

Au final, il s’agit donc de détecter un signal d’écartement des miroirs au-dessus d’un bruit de fond produit par toutes les petites imperfections du système et de l’environnement et c’est ce qui s’est passé ! Ce qui est incroyable c’est que la forme du signal détecté est véritablement ce à quoi les scientifiques rêvaient: une oscillation qui grandit petit à petit et qui augmente en fréquence jusqu’à s’éteindre soudainement. Cela correspondrait à deux trous noirs qui tourneraient autour l’un de l’autre en se rapprochant de plus en plus vite jusqu’à fusionner pour ne faire qu’un. On flirte avec la science-fiction !

ligo20160211aMesure de l’écartement des miroirs dans les 2 sites de LIGO aux Etats-Unis lors du passage de l’onde gravitationnelle. Source : LIGO.

 La suite de l’aventure…

Eh bien, nous allons peut être pouvoir rajouter une nouvelle particule à notre bestiaire. Si ces ondes gravitationnelles existent bel et bien, cela signifie que la gravité se propage effectivement à la vitesse de la lumière et cette propagation de force peut être associée à une particule vecteur : le graviton. C’est la même chose qu’avec le photon qui « transporte » la force électromagnétique. On peut donc voir LIGO comme un « télescope » mais qui au lieu de détecter des photons, détecte des gravitons, c’est un genre de nouvel astronomie…

Dans les projets avenirs, n’oublions pas que le nouveau LIGO (advanced LIGO) rentre à peine en opération et on peut donc s’attendre à de nouveaux évènements très prochainement. Un projet quasi identique en Europe va bientôt aussi reprendre du service (VIRGO) en Italie près de Pise qui est un autre interféromètre de 3 kilomètres. Il faut aussi mentionner le projet eLISA de l’Agence Spatiale Européenne qui a pour objectif de déployer un interféromètre dans l’espace pour chercher des ondes gravitationnelles également (et on parle ici de faire parcourir 1 million de kilomètres aux faisceaux laser de l’interféromètre..).

A suivre…

C’est l’espace : le CNES a 50 ans !

Le Centre National d’Etudes Spatiales (CNES) a 50 ans cette année et à cette occasion, il publie un ouvrage à mettre entre toutes les mains: C’est l’espace !

Le principe de ce bel ouvrage de 300 pages magnifiquement illustré est de recenser un ensemble hétéroclite de savoirs, d’histoires et de curiosités sous forme encyclopédique avec 101 entrées, de « Actualité » à « Vie ». D’une page à l’autre on voyage en ordre alphabétique, ce qui peut au début surprendre. On passera donc sans problème de Migration à Militaire puis à Mode. Au final, cette lecture parfois décousue permet au lecteur de tomber sur des articles assez inattendus et ce sont généralement de bonnes surprises.

Des sujets variés

Comme on peut l’attendre, les grands succès spatiaux comme Ariane ou Apollo avec le premier pas sur la Lune sont abordés mais les ratés sont aussi au menu comme l’article Désenchantement qui nous rappelle que la conquête spatiale est périlleuse. On gardera en mémoire l’explosion de la navette Challenger en 1986 qui a meurtrie l’Amérique. Au total, 21 astronautes sont morts en mission lors de 4 crashs depuis les débuts de l’aventure spatiale (en 1967, 1971, 1986 et 2003).

Il est bien sûr question des technologies spatiales et de science dans les articles, mais pas seulement. On y trouve des articles artistiques comme Architecture, Art Brut, BD, Chanson, Cinéma, Design, Mode, Publicité, Space Art, des articles politiques avec Bipolaire ou Europe ainsi qu’un grand nombre d’articles plutôt philosophiques tels Cieux et Spatialité. La science fiction est également de la partie avec des articles sur les Cyborgs, la TV, le Cinéma et la Littérature car la science fiction s’est souvent inspirée des technologies de l’espace, mais l’inverse est également vrai.

Personnellement, j’ai été très sensible aux textes des historiens qui nous rappellent que la conquête spatiale est passée par de très nombreuses étapes progressives et pas toujours très glorieuses comme l’histoire de la fusée nazie V2 assemblée par les détenues des camps de concentration et destinée à tuer des civils pendant la seconde guerre mondiale.  On verra d’ailleurs dans un grand nombre d’articles que cette fusée V2 à inspiré toutes les autres puissances spatiales et qu’elle réapparaît souvent.

Au fil des pages, des articles insolites peuvent aussi surgirent tel que Poste où l’on apprend que depuis les années 30, différentes compagnies postales prévoyaient l’envoi de courrier à l’aide de fusées. On s’étonnera de voir que la poste française avait conçu une fusée prototype en 1960 et qu’elle prévoyait d’envoyer le courrier vers la Corse en fusée dans les années à venir! Des articles permettent également de répondre à des interrogations légitimes telles que le Droit juridique dans l’espace ainsi que le Coût et l’organisation de ces gigantesques Projets. Mais ce sont surtout des articles qui nous font rêver en nous faisant des Promesses qui peuplent ce livre accessible à tous.

Cocorico

En dehors des Etats-Unis et de la Russie qui ont été les pionniers de l’espace, on parle évidemment de la France avant tout, puisque le CNES est une entité française et que ce livre se veut un peu comme le témoignage du CNES à la conquête spatiale française. On nous rappelle donc que la France a été la 3ème puissance spatiale mondiale après les USA et l’URSS en 1965 lors du lancement de son premier Satellite Astérix (Cocorico !).

On trouvera par exemple un article sur la base de Hammaguir en Algérie qui a été un terrain d’essai clef pour la France dans les années 50 et 60  ainsi qu’un article sur la venue de Gagarine en 1963 à Ivry-sur-Seine, commune alors communiste. Il est également question de l’antenne géante de Pleumeur-Bodou de 340 tonnes en Bretagne (le radôme), qui permit la première réception télévisuelle transatlantique le 10 juillet 1962 via le satellite Telstar.

Pour conclure

Pour conclure mon billet, j’utiliserai la même conclusion que l’article Cosmologie qui résume bien l’esprit de cet ouvrage qui fera sans doute des heureux à Noël: « Sans la physique, l’astronomie n’a pas de tête, sans le CNES, la physique n’a pas d’ailes. »

Plus d’infos avec des extraits: http://www.cnes.fr/web/CNES-fr/9642-c-est-l-espace-.php

Endeavour vient d’emmener AMS-02 dans l’espace

Aujourd’hui à 14h56 heure française, le détecteur AMS-02 vient de quitter la Floride à bord du dernier décollage de la navette spatiale américaine Endeavour.

 endeavour

Décollage de la navette Endeavour cette après-midi avec le détecteur AMS à son bord. © NASA.

AMS-02 est un détecteur de particules de 8,5 tonnes élaboré par une collaboration internationale regroupant 56 instituts originaires de 16 pays ainsi que La NASA, plusieurs agences spatiales et le CERN (Organisation Européenne pour la Recherche Nucléaire). La construction du détecteur aura durée 12 ans (depuis 1999) et coûté 1,5 Milliards en dollars. AMS sera arrimé à la station spatiale internationale ISS à 300 km d’altitude et devrait fonctionner pendant une dizaine d’années avant de revenir sur Terre vers 2020 lorsque la station internationale sera démantelée.

 AMS cern

Le détecteur AMS lors de son assemblage au CERN en Juillet 2010. © CERN.

 A quoi ça sert ?

La mission d’AMS a pour objectif principal de découvrir si l’Univers renferme de l’antimatière. En effet, la théorie du Big-bang indique que l’Univers doit contenir autant de matière que d’antimatière alors que les astronomes n’observent que de la matière, d’où le mystère : où est passé l’antimatière ?? (Voir un de mes billets précédent sur l’antimatière). Pou cela, AMS embarque une série de détecteurs capables d’identifier avec certitude de l’antimatière, plus précisément des anti-héliums (des antiatomes d’hélium contenant 2 antiprotons, 2 anti-neutrons et 2 positrons) qui pourraient être issus d’une « anti-étoile », voir d’une « anti-galaxie ». AMS-01 qui s’était envolé à bord de Discovery en 1998
avait déjà cherché ces atomes d’anti-héliums mais AMS-02 doit conforter ce résultat avec une sensibilité accrue qui permettrait définitivement aux astrophysiciens de faire une croix sur l’existence d’antimatière dans l’Univers.

Un autre aspect de la mission AMS est la découverte éventuelle de matière noire. Un autre problème des astrophysiciens est le manque de matière dans l’Univers (décidément, que de problèmes pour ces astrophysiciens !). Une des théories candidates pour expliquer ce manque serait une petite particule appelée neutralino que le détecteur AMS pourrait également détecter (en fait, le détecteur ne détecterai par directement cette particule mais le produit de collision
entre ces particules).

Le dernier volet d’AMS est d’apporter une meilleure connaissance sur les rayons cosmiques. De nombreux phénomènes, parfois très énergétiques et violents, ont lieues dans l’espace et génère des particules très énergétiques qu’on appelle rayons cosmiques et qui voyagent à travers l’Univers. Ces rayons cosmiques bombardent ainsi la Terre de manière constante. Cependant, lorsque ces rayons cosmiques arrivent dans l’atmosphère terrestre, ils se désintègrent en de multiples particules moins énergétiques et nous ne recevons sur Terre que les produits de désintégration de ces particules. Heureusement que notre atmosphère nous protège car ces rayons cosmiques peuvent être dangereux
pour l’homme et représente un danger réel pour les astronautes, plus particulièrement s’ils sont exposé sur de longues périodes comme lors d’un éventuel voyage habité sur Mars. AMS devrait donc permettre de mieux comprendre ces rayons cosmiques sur de longues durées.

Gerbe

Chaine de désintégration d’un proton énergétique dans l’atmosphère (rayon cosmique)

Comment ça marche ?

AMS signifie « Alpha Magnetic Spectrometer », car ce détecteur de particules est en fait un spectromètre alpha équipé d’un aimant générant un important champ magnétique. Un spectromètre, c’est en fait un instrument capable de séparer le spectre de différents rayonnements et on parle de spectromètre alpha car ce détecteur s’intéresse à des particules alpha (hélium ou anti-hélium) issues de certaines réactions nucléaires.

Le champ magnétique est généré par un aimant permanent de 0,15 Tesla (3000 fois le champ magnétique terrestre) permettant de dévier les particules chargées de manière à séparer matière et antimatière ainsi que pour calculer le moment des particules (leur masse multipliée par leur vitesse). La solution d’utiliser un aimant supraconducteur refroidi avec de l’hélium superfluide à 1,8 K (-271 °C) a été étudiée mais finalement abandonnée à cause de tests non concluants.

 AMS sc

L’aimant supraconducteur de AMS-02 au CERN qui ne sera finalement pas utilisé. © CERN.

AMS est constitué d’une dizaine de sous-détecteurs ayant chacun un rôle précis. Il y en a un pour détecter les électrons et les positrons (TRD), un avertisseur de rayons cosmiques (ToF), un détecteur permettant de tracer les trajectoires des particules chargées (Tracker), un détecteur pour mesurer la vitesse des particules (RICH), un autre pour mesurer l’énergie des électrons, positrons et rayons gammas (ECAL). A cela s’ajoute un « anti coincidence counter » (ACC) permettant de sélectionner seulement les particules intéressantes ainsi que des systèmes d’alignement et de positionnement (TAS, Star Tracker et GPS).

ams rivelatori

AMS : un ensemble d’une dizaine de sous-détecteurs. © AMS.

 L’ensemble des données des différents sous-détecteurs permet ensuite d’identifier avec certitudes les différentes particules ayant traversées les différentes couches. Le principe est un peu le même qu’un détecteur de particules « classique » tels ceux que l’on peut voir dans les accélérateurs de particules comme au CERN mais celui là est conçu pour pouvoir fonctionner dans l’espace et pour résister à la violence d’un décollage de fusée, ce qui impose des contraintes très fortes sur ce petit bijou
technologique.

IL n’y a plus qu’à attendre  qu’AMS soit fixé à la Station Spatiale Internationale et commence son travail de mesure qui sera minute par minute suivi par l’ensemble de la collaboration depuis une salle de contrôle () pein construite) dédiée à AMS-02 au CERN (à cent de mètres de mon bureau d’ailleurs). J’essaierai d’en reparler dans 10 ans sur ce blog.

L’astrophysique : la physique des astres

J’ai une petite nièce qui veut devenir astrophysicienne, un métier qui peut faire effectivement rêver, mais en quoi consiste le métier d’astrophysicien ?

simu magneto

Premièrement, il faut distinguer les différentes disciplines de l’étude des astres (« astro » en grec) de manière à bien positionner les disciplines les unes par rapports aux autres. A noter que je ne parlerai pas de l’astrologie qui n’est pas une science mais un ensemble de croyances et de traditions humaines qui peuvent varier selon les civilisations.

L’astronomie

L’astronomie est la science qui s’occupe de l’observation et de la mesure des propriétés des astres (leur distance, leur taille, leur intensité, leur composition chimique, etc.) ainsi que de tous les phénomènes extra-terrestres. L’astronomie est donc essentiellement basée sur les techniques d’observation comme les télescopes permettant de détecter des rayonnements électromagnétiques (la lumière, les ondes radios, etc.) issus des différents astres. Voir un précédent billet sur La nature de la lumière ou l’électromagnétisme pour plus de détails
sur le rayonnement électromagnétique.

VLT

Le plus grand système de télescopes du monde en fonctionnement: le
Very Large Telescope (VLT) situé sur un plateau à 2635 m d’altitude au Chili © ESO.

L’astronomie est un domaine très vaste contenant de nombreuses disciplines. On peut distinguer les disciplines selon le type de rayonnement observé (astronomie visible, radio, infrarouge, gamma, neutrino, X, ultraviolet, gravitationnelle) ou selon le type d’objet observé comme les planètes, le soleil, les étoiles, notre galaxie, les objets hors de notre galaxie (galaxies, pulsars, super novae, trous noirs, quasars, etc.). Toutes ces disciplines utilisent des technologies bien spécifiques pour observer et mesurer ces différents objets célestes.

L’astrophysique

L’astrophysique, comme vous l’avez sûrement compris, est un mélange d’astronomie et de physique. Plus précisément, l’astrophysique est une branche entière de la physique s’intéressant à tous les phénomènes physiques qui se produisent dans l’espace.
La différence avec l’astronomie est que l’astrophysique a pour mission d’expliquer les phénomènes mis en jeu au sein des astres et de l’Univers alors que l’astronomie s’intéresse à leur observation. On trouve ainsi différentes branches en astrophysique, selon le sujet d’étude ou selon la théorie utilisée pour expliquer les phénomènes.


La planétologie est la science qui étudie toutes les planètes et autres corps en
orbite
autour d’une étoile comme les satellites naturels, les astéroïdes, les comètes, les micrométéorites (poussières de moins d’un gramme). Il est donc question ici des objets de notre système solaire (la Terre et la Lune incluses) mais également des planètes situées en dehors de notre système solaire depuis la découverte de la première exoplanète en 1995. La planétologie est fortement pluridisciplinaire puisqu’elle s’intéresse à la géologie, la géophysique, la chimie, la cartographie, la climatologie, etc.

L’astrophysique stellaire étudie quant à elle les étoiles. Elle essaye d’expliquer et de comprendre leur naissance, leur développement dans le temps ainsi que leurs structures parfois complexes. Elle fait donc appel à la thermodynamique, la physique des plasmas, la physique nucléaire et l’étude des rayonnements.

L’astrophysique galactique s’intéresse aux galaxies et cherche à connaitre comme pour les étoiles leur formation et leur évolution ainsi que leurs propriétés physiques et leur répartition. La statistique est ainsi fortement utilisée dans cette discipline en plus des autres domaines nécessaires à l’astrophysique stellaire.

 nebuleuse helix

La nébuleuse de l’hélice (aussi appelée l’œil de Dieu) située à 700 années-lumière de la Terre prise par le VLT  © ESO.

La cosmologie est assez emblématique de l’astrophysique grâce à la théorie du Big-bang connue du grand public et très populaire, et parfois vivement controversée (principalement par les créationnistes). La cosmologie s’intéresse comme son nom l’indique au cosmos, c’est-à-dire à l’Univers dans son intégralité (on parlait de cosmos du temps de la Grèce antique, il désignait alors un monde clos ordonné, s’opposant au chaos). Les cosmologistes comme on les appelle essayent de retracer l’histoire de notre Univers vieux de 14 milliards d’années, ce sont un peu les historiens du cosmos. Il ne faut pas oublier que regarder loin dans l’espace revient à regarder loin dans le temps puisque la lumière voyage à une vitesse finie (300 000 km/s). Lorsqu’on regarde une galaxie à 13 milliards d’années-lumière, on la regarde telle qu’elle était il y a 13 milliards d’années (soit quelques centaines de millions d’années seulement après le Big-bang) : il s’agit du temps nécessaire pour que la lumière qu’elle émet atteigne notre œil.

L’astrophysique relativiste permet de comprendre les phénomènes physiques astronomiques qui se déroulent à très haute pression et densité d’énergie ou à des vitesses proches de celles de la lumière comme dans les trous noirs ou les étoiles à neutrons. Ces phénomènes ne sont généralement pas explicables par la physique dite « classique » comme la mécanique newtonienne et doivent faire appel aux théories relativistes comme la relativité générale ou la relativité restreinte, initialement
élaborées par Einstein au début du 20ème siècle.

L’astrophysique nucléaire est une discipline transverse pouvant étudier les étoiles et l’univers lorsque des réactions nucléaires sont réalisées. Le meilleur exemple est la réaction nucléaire de fusion dans les étoiles transformant l’hydrogène en hélium.

L’astrophysique des particules traite les phénomènes des hautes énergies comme l’étude des rayons cosmiques.

 soleil

Le soleil est le siège de puissantes réactions thermonucléaires
de fusion transformant l’hydrogène en hélium. © NASA.


Qui sont les astrophysiciens ?

Les astrophysiciens sont des gens normaux (si si, je vous assure) ayant une formation en physique leur permettant de maîtriser de nombreuses disciplines de la physique telles que la mécanique des fluides, la thermodynamique, la mécanique newtonienne, la mécanique relativiste, la physique des particules, etc. qui sont essentielles pour la compréhension des phénomènes astronomiques très divers et variés.

Aujourd’hui, la majorité des disciplines de l’astrophysique consistent de plus en plus à élaborer des modèles mathématiques basés sur les équations de la physique pour réaliser des simulations numériques sur ordinateurs. Ces simulations permettent de confirmer ou infirmer les différentes théories des astrophysiciens en les comparant avec les observations des astronomes. L’outil informatique et la modélisation sont donc des composantes transverses indispensables à presque toutes les branches de l’astrophysique.

 simu cea

Simulation de la galaxie NGC 4254 (à droite) reproduisant fidèlement la distribution du gaz et la concentration de gaz de Virgo HI21 observé (à gauche). © CEA/SAp. 

Le satellite Planck



Avant-hier à 15h12, heure française, la fusée Ariane 5 a décollée
avec succès pour la 44ième fois depuis Kourou en Guyane. Cette mission n’est pas anodine puisque Ariane 5 transportait 2 bijoux technologiques dédiés à la Science dans son « petit » chapeau : les satellites européens Planck et Herschel.

Planck et Herschel sont 2 télescopes spatiaux mais ils sont très différents l’un de l’autre. Herschel est un télescope relativement classique permettant l’observation dans l’infrarouge moyen et lointain à l’aide d’un miroir de 3,5 m de diamètre alors que Planck permet l’observation du rayonnement fossile micro-onde à l’aide de bolomètres ultrasensibles fonctionnant à très basses températures.

Ce billet est spécialement consacré au satellite Planck qui est un peu spécial. Planck doit d’abord atteindre un point particulier de l’espace (le point de Lagrange L2 qu’il atteindra dans 3 mois) pour pouvoir commencer à fonctionner pendant un peu moins de 2 ans.

Planck : comme Max

Le nom de ce satellite vient du physicien allemand Max Planck,  un des pères de la physique quantique, mais quel est le rapport ? Ce satellite a pour ambition de déterminer avec une extrême précision ce que les astrophysiciens appellent le rayonnement de fond cosmologique. Ce rayonnement est une application parfaite de ce qu’on appelle le rayonnement du corps noir, problème justement résolu par Max Planck à la fin du 19ième siècle et qui permettra à Planck d’élaborer en 1900 à la théorie des quanta qui deviendra plus tard la fameuse physique quantique. L’étude du rayonnement électromagnétique d’un corps
noir permet de calculer la température d’un objet à partir de l’analyse de son spectre, voir le billet Comment mesurer la température d’une étoile qui explique en détail tout ceci.

Le fond diffus cosmologique

On l’appelle aussi le rayonnement de fond cosmologique, le bruit de fond cosmologique ou plus simplement le rayonnement fossile, car il constitue le plus vieux fossile de notre Univers. D’après la théorie du Big-Bang, la première « lumière » a été émise par l’Univers 380 000 ans après sa création il y a 13 milliards d’années quand ce dernier c’était suffisamment refroidi à cause de son expansion (l’Univers s’était alors refroidi à 3000°C). A cet instant, les photons ont enfin pu se libérer pour aller vaquer à leur occupation favorite : se balader librement (on appelle cela rayonner en physique) créant ainsi de la
lumière qui inondât l’Univers tout entier !


Ce rayonnement fossile primordial a été pensé théoriquement dans les années 40 et il a été détecté pour la première fois par le plus grand des hasards par 2 ingénieurs américains des laboratoires Bell en 1965 alors qu’ils travaillaient sur des antennes. Ils avaient détecté un « bruit de fond» qui perturbait leurs antennes dans toutes les directions du ciel. Ce bruit de fond constant présent dans toutes les directions autour des 160 GHz (micro-ondes) s’avéra être le fameux fond diffus cosmologique qui avait été prédit théoriquement mais qui demeurerait introuvable. Ce fut une énorme avancée pour la théorie du Big-Bang. Désormais ce rayonnement possède une température de 2,726 K comme l’Univers n’a pas cessé son expansion et donc son refroidissement.

Planck le cartographe



Un des objectifs scientifiques du satellite Planck est d’élaborer la « cartographie » la plus précise possible de ce rayonnement fossile qui possède d’infimes fluctuations. Deux missions américaines de la NASA ont déjà établi une cartographie relativement fine (COBE lancé en 1989 puis WMAP lancé en 2001) mais on cherche à quantifier encore plus précisément ces fluctuations qui ont certainement été à l’origine des futures grandes structures de notre Univers (Galaxies, amas, superamas….). Toute la cosmologie moderne se base essentiellement sur les fluctuations de ce rayonnement, d’où
l’importance capitale de cette mission.

Des Bolomètres à ultra basse température

Pour détecter un rayonnement, on utilise un détecteur appelé « bolomètre » qui permet de mesurer précisément une quantité d’énergie électromagnétique reçue en convertissant l’énergie du rayonnement en chaleur. Au final on mesure la température du bolomètre de manière à déduire la quantité de chaleur issue du rayonnement. On comprend alors aisément que plus le bolomètre est chaud, et plus une petite variation de chaleur sera difficile à détecter. Conclusion :
plus le bolomètre est froid, plus il est précis !

Planck est équipé de 54 bolomètres permettant de mesurer les rayonnements à différentes fréquences constituant le spectre du fond diffus cosmologique. Pour obtenir la précision requise par la mission, les bolomètres seront refroidis à d’ultra-basses températures, entre 90 mK et 130 mK (soit environ un
centième de degré au dessus du zéro absolu, -273,15°C). La résolution ainsi obtenue sera 600 fois meilleure que la première mission américaine COBE.

Le réfrigérateur à dilution

Pour refroidir ces bolomètres, le satellite Planck embarque à son bord un réfrigérateur à dilution. Ce type de réfrigérateur fonctionne avec un mélange de 2 isotopes stables de l’hélium (3He et 4He). Les frigos à dilution commencent à une température de 4,2 K (avec de l’hélium liquide classique) pour fournir une puissance de réfrigération continue jusqu’à 2 millikelvins sans aucune partie mobile ! En général ils fonctionnent plutôt aux alentours des 100 mK.

En gros, le fait de « diluer » de l’hélium-3 liquide (très rare sur Terre) dans de l’hélium-4 liquide (l’hélium classique) permet de faire du froid. Ces 2 fluides cryogéniques sont assez particuliers car ils possèdent des points de liquéfaction très bas (4,2 K pour 4He et 3,2 K pour 3He à  pression atmosphérique). En dessous de 0,9 K 3He et 4He se séparent spontanément en 2 phases (1 phase riche en 3He et une phase pauvre en 4He) et quand l’hélium-3 « traverse » cette
phase diluée pour ensuite s’évaporer, il y a création de froid (je ne rentrerai pas dans les détails ici), voir figure ci-dessous qui représente ce qu’on appelle la chambre de mélange qui se trouve en bas du réfrigérateur :



La dilution spatiale

Le principe de la dilution utilise la gravité pour séparer les mélanges, ce qui n’est pas possible dans un satellite! Un nouveau type de réfrigérateur à dilution pouvant fonctionner dans l’espace a donc été développé à Grenoble, le pôle de la cryogénie française. Le démonstrateur de la dilution a été construit à l’institut Néel (CNRS) à Grenoble par Alain Benoît, son équipe et les services techniques de son laboratoire. J’ai d’ailleurs eu la chance de voir un prototype de ce réfrigérateur à Grenoble il y a environ 2 ans alors que j’assistais à des cours de cryogénie. Le mélange 3He/4He circule dans des tubes de très petites dimensions qui rendent le système insensible à la gravité. Le réfrigérateur à dilution a ensuite été construit par la société française Air Liquide à Sassenage, à proximité de Grenoble. En revanche, le réfrigérateur de Planck fonctionne en boucle ouverte: le mélange est ensuite rejeté dans l’espace et la durée de vie du système dépend alors de la quantité d’hélium qui est embarquée au décollage (environ 2 ans de vie dans le cas de Planck). On souhaite une grande réeussite à cette mission européenne!

Comment mesurer la température d’une étoile ?

On voit souvent écrit que notre Soleil a une température de surface de 5800K (ou 5500°C)  mais comment fait-on pour calculer cette température sachant que cette température a été mesurée bien avant l’aventure spatiale et que personne n’est jamais allé sur le Soleil avec un thermomètre ! Réponse évidente : On calcule sa température à partir de mesures faites depuis la Terre en l’observant, mais comment ?

 

Le concept physique principal pour calculer cette température est ce que les physiciens appellent le rayonnement des corps noirs. Le nom « corps noir » a été introduit par le physicien Gustav Kirchhoff en 1860 et est à l’origine de nombreuses découvertes du début du 20ième siècle.

 Cet objet entièrement théorique est défini comme suit : Un corps noir est un objet idéal qui absorbe TOUS les rayonnements électromagnétiques (lumière comprise), sans aucune réflexion ou transmission de ce rayonnement, c’est pour ,cette raison qu’un tel objet, s’il est à la même température que son environnement, paraît totalement noir. Dans ce cas, le seul rayonnement dégagé par un corps noir est un rayonnement électromagnétique d’origine thermique qui ne dépend que de sa température et de rien d’autre. Oui, il faut préciser que tous les objets ayant une température au dessus du zéro absolu rayonnent, c’est à dire qu’ils émettent un rayonnement thermique. Par exemple le corps humain à 37°C émet un rayonnement infrarouge invisible à l’œil nu mais visible avec un détecteur infrarouge (les militaires s’en servent particulièrement pour la vision nocturne).

Un corps noir parfait n‘existe pas dans la nature mais on peut facilement faire une bonne approximation. Par exemple, il suffit de prendre un four fermé de tous les cotés de manière hermétique à la lumière. Si on perce un minuscule trou sur un des cotés du four, il s’échappera alors un rayonnement qui sera le rayonnement d’un corps noir presque parfait. L’étude de ce rayonnement permettra de connaître la température de l’air à l’intérieur du four avec précision. C’est exactement ce que fit Wilhelm Wien à la fin du 19ième siècle pour étudier ce rayonnement qui a longtemps intrigué les physiciens.
Etudier un rayonnement ça veut dire quoi ?
Un rayonnement électromagnétique est composé de plusieurs ondes de différentes fréquences, chaque fréquence correspond à une couleur pour la partie visible des rayonnements (autrement dit, la lumière, voir article la nature de la lumière ou l’électromagnétisme). Etudier un rayonnement, c’est donc mesurer l’intensité de chaque fréquence qui compose le rayonnement, on parle alors de l’analyse du spectre du rayonnement. On peut voir dans le dessin ci-dessous le spectre émit par notre Soleil. La couleur verte est la plus intense, mais le mélange de toute les couleurs ensemble fait que nous percevons une lumière blanche.



Wilhelm Wien postula en 1896 que lorsqu’on chauffe un corps, la longueur d’onde (correspondant à une couleur) de plus forte intensité dans le spectre (le vert pour le soleil) se décale vers le bleu, c’est ce qu’on appelle la loi de Wien :


Si on chauffe du fer, il va d’abord viré orange-rouge puis bleu et blanc si on le chauffe encore plus (d’où l’expression chauffé à blanc). De cette manière, on peut parfaitement connaître la température d’un corps noir simplement en mesurant où se trouve la raie maximale dans le spectre. On peut dire que le Soleil est presque un corps noir car sa température est très élevée par rapport à son environnement et si on veut une mesure grossière, cela va très bien. En mesurant depuis la Terre le spectre du Soleil, on mesure la raie verte maximale à une longueur d’onde Lmax=0,50 mm et on obtient alors T = 5800K avec la loi de Wien.

 C’est aussi intéressant de savoir que chaque couleur du spectre peut permettre
de savoir de quoi est composé le corps. Le vert indique une présence de fer, le rouge de l’hydrogène, les ultra-violets de l’hélium…
la couleur dépend de la nature chimique de l’objet et est utilisée en spectroscopie pour analyser la composition des échantillons de matériaux mais aussi des étoiles La loi de Wien est bien jolie mais elle a posé d’énormes problèmes aux physiciens, et plus particulièrement à Max Planck qui voulait aller plus loin et comprendre les causes physiques de cette loi empirique. Cette équation posait des problèmes avec la théorie, les énergies divergeaient vers l’infini et Planck reformula donc une nouvelle loi, appelée de Wien-Planck qui collait avec les mesures et la théorie.

Malheureusement cette loi fut mise en défaut un peu plus tard par des mesures faites à Berlin avec des rayonnements de basses fréquences, toute la théorie s’écroulait. Planck persévère et quelques mois plus tard, il introduit une nouvelle constante, h, appelée constante de Planck permettant de « quantifier » la matière en laissant de coté l’approche classique continue à laquelle il était pourtant très attaché. Planck a fait l’hypothèse que l’énergie devait être quantifiée pour expliquer le rayonnement du corps noir dans tous les cas, et cette hypothèse a tout simplement donnée naissance à la théorie des quanta de Planck en 1900 qui enfantera toute la physique quantique !

GALILEO : Le système de positionnement qui va remplacer le GPS

Présentation

En 2010, vous pourrez mettre vos GPS à la poubelle (non c’est pas tout à fait vrai car les récepteurs GPS et GALILEO seront les mêmes). Eh oui, si vous n’êtes pas encore au courant, l’Union Européenne et l’Agence Spatiale Européenne (ESA) développent un nouveau système de positionnement géodésique par satellites civile dans le but de ne plus être dépendant du système GPS appartenant à l’armée américaine et d’avoir une bien meilleure précision. Nom de code : GALILEO

Ce système de positionnement doté de 30 satellites coûtant 3,4 milliards d’euros émettra dix signaux destinés à plusieurs utilisations :

  • Une utilisation gratuite pour tous les gens, style GPS, mais avec une précision de l’ordre de 1 mètre (nettement meilleure que le GPS classique qui fournit une précision de 20m).
  • Une utilisation commerciale pour les professionnels. Dans ce cadre l’intégrité des signaux est garanti, la précision est meilleure et il y a possibilité de faire passer des informations cryptées.
  • Un service de sûreté de la vie pour les applications sensibles comme la navigation maritime et aérienne
  • Une utilisation publique réglementée pour les services publics nécessitant des informations sûres et une bonne fiabilité (services d’urgence, transport de matières dangereuses…)
  • Une utilisation de recherche et de secours pour les balises de détresse maritimes.



A l’heure actuelle, 4 pays hors UE ont déjà signé des accords de coopération dans le but d’utiliser le futur système (Chine, Inde, Israël, Ukraine) mais une dizaine d’autres pays sont en négociation.

Bien évidemment l’atout majeur de GALILEO, c’est son aspect civil qui permettra des applications publiques nécessitant une sécurisation et une intégrité minimal. De ce fait, GALILEO sera reçu de manière continu sans risque de brouillage ou cryptage par l’armée comme le GPS. La précision sera meilleure que le GPS brut (je ne parle pas du GPS différentiel, le DGPS, qui fait intervenir des stations fixes au sol car dans ce cas la précision est nettement augmentée) et des signaux de diagnostic seront disponibles pour les applications sensibles dans le but d’avoir une bonne estimation d’erreur.

Il faut aussi souligner que les récepteurs recevront les deux signaux (GPS et GALILEO). Une utilisation harmonieuse des deux systèmes sera possible et la précision sera encore meilleure (l’infrastructure globale de navigation par satellite : GNSS).

Le positionnement géodésique

GALIELO et GPS utilisent le même principe de positionnement. C’est d’ailleurs un des exemples d’un de mes cours de cette année à l’UTC intitulé Méthodes Temps-Réel d’observation pour la Commande et le Diagnostic. Ces systèmes se basent sur de la fusion de données statique. Les données fournies par les satellites sont les éphémérides (c’est à dire la position dans l’espace des satellites) et les temps. On cherche évidemment la position du récepteur sur Terre : x,y,z qui sont la latitude, la longitude et l’altitude. La Terre étant ronde, on doit faire une projection et en général tous les systèmes utilisent le système géodésique WGS84 (World Geodetic System qui date de 1984) pour calculer les coordonnées. Je ne m’étendrais pas sur ce sujet, pourtant très intéressant, ce n’est pas l’objectif de cet article.

Ici, le temps est une donnée clef car tous les satellites et le récepteur doivent indiquer exactement la même heure (un erreur de 1 microseconde provoque une erreur de 300m sur la position terrestre). Tous les satellites sont donc pourvus d’une horloge atomique incluant une correction relativiste (eh oui selon la relativité d’Einstein, le temps ne s’écoule pas à la même vitesse dans le satellite qui va très vite et qui est loin de la Terre que sur Terre mais bon maintenant on sait calculer cette correction parfaitement). Le problème se situe sur récepteur dans votre voiture par exemple, vous n’allez pas vous trimbaler une horloge atomique (bien que ce soit plus très gros). La solution à ce problème est très simple : on considère le décalage temporel entre l’heure du satellite et du récepteur comme une inconnue.

 On a donc affaire à un nouveau problème à 4 inconnues : on cherche les 3 coordonnées spatiales du récepteur (x,y,z) ainsi que son décalage temporel (dt). Pour cela il nous faut donc 4 équations pour résoudre le problème c’est à dire que l’on doit posséder les informations d’au moins 4 satellites. Avec ce principe, si vous avez moins de 4 satellites à porté de vue, c’est fichu, c’est d’ailleurs ce qui se passe dans des canyons ou des avenues jonchées de grattes-ciel car vous n’avez qu’une zone de ciel étroite et dans ce cas, l’erreur commise est très grande. 

La suite est réservée au gens un peu scientifique…

Dans cette partie je vais développer les équations de chaque satellite ansi que leur résolution pour avoir une meilleure idée d’un algorithme de positionnement géodésique (GPS ou GALILEO). On se rend compte que c’est vraiment très simple mais attention : ici j’ai fait beaucoup de simplifications, normalement il faut rajouter des termes de corrections pour l’allongement ionosphérique et troposphérique, les erreurs relativistes et une estimation du décalage du décepteur.

Les équations fournies par les satellites sont des pseudo-distances.Supposons qu’à un instant donné, « n » satellites soient visibles et on suppose n>4. Comme les satellites diffusent leurs positions, on suppose que leurs coordonnées (xi, yi, zi) sont connues sans erreur.

Le système à résoudre s’écrit :

Ici les pseudo-distances de chaque satellite ri dépendent de la distance réelle et de la pseudo-distance dû au décalage temporel dt entre le satellite et le récepteur (comme ce sont des ondes électromagnétique la vitesse de propagation de l’information est égale à la vitesse de la lumière : c)

On doit alors résoudre ce système de n équations non-linéaires redondant : C’est un problème de fusion de données statique. En général on utilise la méthode de résolution numérique de Newton-Raphson.

Si on met le système précédent sous forme matricielle on obtient une équation matricielle : Z=h(X) où X=(x,y,z,dt). Dans ce cas cela revient à trouver X tel que h(X)-Z = 0 , c’est à dire trouver X tel que f(X)=0. Pour résoudre ce système on vient linéariser le système autour d’un point X: f(X0 + dX) = f(X0) + f ’(X0).dX

Cherchons dX tel que la tangente coupe l’axe des abscisses :

f(X0)+f’(X0).dX=0 <=>f’(X0).dX= – f(X0)or f’(X0)= h’(X0)=M


M.dX= – f(X0)

Si il y a 4 satellites et si M est inversible dX= – M-1. f(X0).

Si il y a plus de 4 satellites, dX=-[MT . M]-1.MT.f(X0) à condition que [MT . M]soit inversible et bien conditionnée

On obtient ainsi un nouveau point X1=X0+dX Tant que la norme de dX n’est pas plus petite qu’un seuil prédéterminé, on itère le processus. En pratique, on constate que le processus converge souvent en une ou deux itérations.Des facteurs caractérisant la qualité de la configuration géométrique des satellites sont souvent utilisés pour décrire la « dilution de précision » c’est-à-dire la confiance que l’on peut accorder aux résultats. Le plus connu est le GDOP (Global Dilution Of Precision).



 où Mj est la dernière matrice jacobienne calculée lors de la méthode de Newton- Raphson. On admet que des valeurs de 1 à 3 sont bonnes et, qu’au delà d’une valeur de 6, la position est à rejeter à cause d’une configuration géométrique trop défavorable.

Trou Noir

 Les trous noirs sont des objets astrophysiques que tout le monde connaît, même les enfants car c’est un objet qui intrigue. Sans mauvais jeu de mots, les trous noirs attirent… le grand public ! Un des spécialistes des trous noirs est bien sûr Stephen Hawking, de l’université de Cambridge, qui détient actuellement la chaire de Isaac Newton (je vous conseille d’ailleurs son livre « l’univers dans une coquille de noix » chez Odile Jacob très ludique et agréablement illustré). 

  L’existence des trous noirs a été pensée dès le XVIIIième siècle mais leur existence n’est confirmée théoriquement qu’en 1916 par l’astronome allemand Karl Schwartzschild. En revanche, le terme trou noir n’apparaît qu’en 1967 avec un physicien américain, John Archibald Wheeler, avant on utilisait le terme singularité de Schwartzschild (on verra plus tard pourquoi). En résolvant les équations de la relativité d’Einstein, Schwartzschild a trouvé une solution : s’il y avait suffisamment de matière dans un espace suffisamment restreint (donc une densité de matière très importante) alors l’espace-temps était tellement déformé aux bord de cet objet exotique que même la lumière ne pouvait s’en échapper. Autrement dit, c’était comme un trou (car la fabuleuse masse de l’astre attire par gravitation tout ce qui passe, comme une étoile, mais perce un trou dans l’espace-temps) et il est tout noir car aucun photon ne peut parvenir à s’échapper au delà de ce que l’on appelle l’horizon d’événement du trou noir (ou horizon de Schwartzschild). Lorsqu’un objet, quel qu’il soit, dépasse cet horizon, il n’y a plus moyen de retour car la vitesse nécessaire pour s’échapper serait supérieure à la vitesse de la lumière (donc impossible selon la relativité). Einstein, de son vivant, n’a jamais cru à l’existence des trous noirs et pensait que c’était simplement une solution  singulière aberrante. 

 On a longtemps pensé que de tels objets ne pouvaient exister en raison de la densité formidable nécessaire, mais en fait, lorsque les étoiles meurent (eh oui, tout a un début et une fin…) elles s’effondrent sur elles-mêmes et si elles sont suffisamment massives, alors un trou noir peut se créer. On parle souvent de singularités spatio-temporelles pour désigner les trous noirs car ils sont assimilables à  « un seul point » du fait que derrière cet horizon, toutes les variables deviennent infinies ou nulles et on ne sait pas tout ce qui peut se passer derrière cette barrière infranchissable par nos télescopes vu qu’aucune lumière n’est émise, pas de chance ! Les calculs mathématique deviennent alors très étranges mais néanmoins ils peuvent fonctionner et on peut facilement calculer le rayon de l’horizon d’événement et même la température du trou noir qui contrairement à ce qu’on pourrait penser est plutôt froide. Un trou noir de quelques masses solaires possèderait une température de quelques millionièmes de kelvins (en gros -273°C). Evidemment, plus le trou noir est petit, plus il est chaud. Autre détail que j’ai oublié de mentionner : théoriquement, derrière cet horizon, le temps d’arrête ! Eh  oui, plus il y a de la masse, plus le temps s’écoule moins vite. La relativité considère la gravité non pas comme une force mais comme une déformation de l’espace-temps. Mathématiquement, un trou noir possède en son sein une densité infinie, le résultat est un « trou » dans l’espace-temps et dans cette configuration, le temps n’avance plus ! Pour toutes ces raisons, l’existence des trous noirs a été longtemps très controversée et Stephen Hawking raconte comment ses petits camarades physiciens français lui riaient au nez au tout début car en général, le travail de l’astrophysicien est de trouver des explications pour éradiquer les singularités qui constituent leur pire ennemi car qui dit singularité, dit question ouverte, on ne comprend plus, ça dépasse notre entendement de misérable être humain. Néanmoins, désormais, ces objets astronomiques sont reconnus dans la majorité de la communauté scientifique.

Les recherches sur les trous noirs sont toujours d’actualité, et on découvre toujours de nouvelles choses. Particulièrement le fait que certains trous noirs microscopiques issus du BIG-BANG (dit primordiaux)  et ? pourraient perdre de l’énergie et ainsi libérer des particules issues des fluctuations quantiques du vide. Lorsqu’une paire de particules est créée au niveau de l’horizon, une des deux particule pourrait s’échapper et ainsi émettre un rayonnement observable et le trou noir perdrait alors son invisibilité (je ne détaille pas cet aspect, on pourrait y passer 3h mais je peux essayer de répondre à vos question en commentaire). Concernant les trous noirs primordiaux je ne peux que vous conseiller le numéro de La Recherche n°362, Mars 2003. Si vous ne l’avez pas, mailez-moi.

 Dans la détection des trous noirs également, on a fait beaucoup de progrès, évidemment, on ne les voit pas mais on peut déduire leur présence par leur influence gravitationnelle sur les astres voisins (la photo au dessus représente la détection éventuelle d’un trou noir). Par exemple si notre cher soleil était concentré dans une sphère assez petite pour être un trou noir, on ne pourrait pas le voir mais les planètes continueraient à tourner autour par gravité, par contre je doute que dans ce cas notre existence soit possible et ce blog n’aurait jamais vu le jour sans le jour du soleil, donc heureusement, notre soleil est une gentille petite étoile et pas un méchant trou noir qui mange tout !