Archives pour l'étiquette astro

C’est l’espace : le CNES a 50 ans !

Le Centre National d’Etudes Spatiales (CNES) a 50 ans cette année et à cette occasion, il publie un ouvrage à mettre entre toutes les mains: C’est l’espace !

Le principe de ce bel ouvrage de 300 pages magnifiquement illustré est de recenser un ensemble hétéroclite de savoirs, d’histoires et de curiosités sous forme encyclopédique avec 101 entrées, de « Actualité » à « Vie ». D’une page à l’autre on voyage en ordre alphabétique, ce qui peut au début surprendre. On passera donc sans problème de Migration à Militaire puis à Mode. Au final, cette lecture parfois décousue permet au lecteur de tomber sur des articles assez inattendus et ce sont généralement de bonnes surprises.

Des sujets variés

Comme on peut l’attendre, les grands succès spatiaux comme Ariane ou Apollo avec le premier pas sur la Lune sont abordés mais les ratés sont aussi au menu comme l’article Désenchantement qui nous rappelle que la conquête spatiale est périlleuse. On gardera en mémoire l’explosion de la navette Challenger en 1986 qui a meurtrie l’Amérique. Au total, 21 astronautes sont morts en mission lors de 4 crashs depuis les débuts de l’aventure spatiale (en 1967, 1971, 1986 et 2003).

Il est bien sûr question des technologies spatiales et de science dans les articles, mais pas seulement. On y trouve des articles artistiques comme Architecture, Art Brut, BD, Chanson, Cinéma, Design, Mode, Publicité, Space Art, des articles politiques avec Bipolaire ou Europe ainsi qu’un grand nombre d’articles plutôt philosophiques tels Cieux et Spatialité. La science fiction est également de la partie avec des articles sur les Cyborgs, la TV, le Cinéma et la Littérature car la science fiction s’est souvent inspirée des technologies de l’espace, mais l’inverse est également vrai.

Personnellement, j’ai été très sensible aux textes des historiens qui nous rappellent que la conquête spatiale est passée par de très nombreuses étapes progressives et pas toujours très glorieuses comme l’histoire de la fusée nazie V2 assemblée par les détenues des camps de concentration et destinée à tuer des civils pendant la seconde guerre mondiale.  On verra d’ailleurs dans un grand nombre d’articles que cette fusée V2 à inspiré toutes les autres puissances spatiales et qu’elle réapparaît souvent.

Au fil des pages, des articles insolites peuvent aussi surgirent tel que Poste où l’on apprend que depuis les années 30, différentes compagnies postales prévoyaient l’envoi de courrier à l’aide de fusées. On s’étonnera de voir que la poste française avait conçu une fusée prototype en 1960 et qu’elle prévoyait d’envoyer le courrier vers la Corse en fusée dans les années à venir! Des articles permettent également de répondre à des interrogations légitimes telles que le Droit juridique dans l’espace ainsi que le Coût et l’organisation de ces gigantesques Projets. Mais ce sont surtout des articles qui nous font rêver en nous faisant des Promesses qui peuplent ce livre accessible à tous.

Cocorico

En dehors des Etats-Unis et de la Russie qui ont été les pionniers de l’espace, on parle évidemment de la France avant tout, puisque le CNES est une entité française et que ce livre se veut un peu comme le témoignage du CNES à la conquête spatiale française. On nous rappelle donc que la France a été la 3ème puissance spatiale mondiale après les USA et l’URSS en 1965 lors du lancement de son premier Satellite Astérix (Cocorico !).

On trouvera par exemple un article sur la base de Hammaguir en Algérie qui a été un terrain d’essai clef pour la France dans les années 50 et 60  ainsi qu’un article sur la venue de Gagarine en 1963 à Ivry-sur-Seine, commune alors communiste. Il est également question de l’antenne géante de Pleumeur-Bodou de 340 tonnes en Bretagne (le radôme), qui permit la première réception télévisuelle transatlantique le 10 juillet 1962 via le satellite Telstar.

Pour conclure

Pour conclure mon billet, j’utiliserai la même conclusion que l’article Cosmologie qui résume bien l’esprit de cet ouvrage qui fera sans doute des heureux à Noël: « Sans la physique, l’astronomie n’a pas de tête, sans le CNES, la physique n’a pas d’ailes. »

Plus d’infos avec des extraits: http://www.cnes.fr/web/CNES-fr/9642-c-est-l-espace-.php

Endeavour vient d’emmener AMS-02 dans l’espace

Aujourd’hui à 14h56 heure française, le détecteur AMS-02 vient de quitter la Floride à bord du dernier décollage de la navette spatiale américaine Endeavour.

 endeavour

Décollage de la navette Endeavour cette après-midi avec le détecteur AMS à son bord. © NASA.

AMS-02 est un détecteur de particules de 8,5 tonnes élaboré par une collaboration internationale regroupant 56 instituts originaires de 16 pays ainsi que La NASA, plusieurs agences spatiales et le CERN (Organisation Européenne pour la Recherche Nucléaire). La construction du détecteur aura durée 12 ans (depuis 1999) et coûté 1,5 Milliards en dollars. AMS sera arrimé à la station spatiale internationale ISS à 300 km d’altitude et devrait fonctionner pendant une dizaine d’années avant de revenir sur Terre vers 2020 lorsque la station internationale sera démantelée.

 AMS cern

Le détecteur AMS lors de son assemblage au CERN en Juillet 2010. © CERN.

 A quoi ça sert ?

La mission d’AMS a pour objectif principal de découvrir si l’Univers renferme de l’antimatière. En effet, la théorie du Big-bang indique que l’Univers doit contenir autant de matière que d’antimatière alors que les astronomes n’observent que de la matière, d’où le mystère : où est passé l’antimatière ?? (Voir un de mes billets précédent sur l’antimatière). Pou cela, AMS embarque une série de détecteurs capables d’identifier avec certitude de l’antimatière, plus précisément des anti-héliums (des antiatomes d’hélium contenant 2 antiprotons, 2 anti-neutrons et 2 positrons) qui pourraient être issus d’une « anti-étoile », voir d’une « anti-galaxie ». AMS-01 qui s’était envolé à bord de Discovery en 1998
avait déjà cherché ces atomes d’anti-héliums mais AMS-02 doit conforter ce résultat avec une sensibilité accrue qui permettrait définitivement aux astrophysiciens de faire une croix sur l’existence d’antimatière dans l’Univers.

Un autre aspect de la mission AMS est la découverte éventuelle de matière noire. Un autre problème des astrophysiciens est le manque de matière dans l’Univers (décidément, que de problèmes pour ces astrophysiciens !). Une des théories candidates pour expliquer ce manque serait une petite particule appelée neutralino que le détecteur AMS pourrait également détecter (en fait, le détecteur ne détecterai par directement cette particule mais le produit de collision
entre ces particules).

Le dernier volet d’AMS est d’apporter une meilleure connaissance sur les rayons cosmiques. De nombreux phénomènes, parfois très énergétiques et violents, ont lieues dans l’espace et génère des particules très énergétiques qu’on appelle rayons cosmiques et qui voyagent à travers l’Univers. Ces rayons cosmiques bombardent ainsi la Terre de manière constante. Cependant, lorsque ces rayons cosmiques arrivent dans l’atmosphère terrestre, ils se désintègrent en de multiples particules moins énergétiques et nous ne recevons sur Terre que les produits de désintégration de ces particules. Heureusement que notre atmosphère nous protège car ces rayons cosmiques peuvent être dangereux
pour l’homme et représente un danger réel pour les astronautes, plus particulièrement s’ils sont exposé sur de longues périodes comme lors d’un éventuel voyage habité sur Mars. AMS devrait donc permettre de mieux comprendre ces rayons cosmiques sur de longues durées.

Gerbe

Chaine de désintégration d’un proton énergétique dans l’atmosphère (rayon cosmique)

Comment ça marche ?

AMS signifie « Alpha Magnetic Spectrometer », car ce détecteur de particules est en fait un spectromètre alpha équipé d’un aimant générant un important champ magnétique. Un spectromètre, c’est en fait un instrument capable de séparer le spectre de différents rayonnements et on parle de spectromètre alpha car ce détecteur s’intéresse à des particules alpha (hélium ou anti-hélium) issues de certaines réactions nucléaires.

Le champ magnétique est généré par un aimant permanent de 0,15 Tesla (3000 fois le champ magnétique terrestre) permettant de dévier les particules chargées de manière à séparer matière et antimatière ainsi que pour calculer le moment des particules (leur masse multipliée par leur vitesse). La solution d’utiliser un aimant supraconducteur refroidi avec de l’hélium superfluide à 1,8 K (-271 °C) a été étudiée mais finalement abandonnée à cause de tests non concluants.

 AMS sc

L’aimant supraconducteur de AMS-02 au CERN qui ne sera finalement pas utilisé. © CERN.

AMS est constitué d’une dizaine de sous-détecteurs ayant chacun un rôle précis. Il y en a un pour détecter les électrons et les positrons (TRD), un avertisseur de rayons cosmiques (ToF), un détecteur permettant de tracer les trajectoires des particules chargées (Tracker), un détecteur pour mesurer la vitesse des particules (RICH), un autre pour mesurer l’énergie des électrons, positrons et rayons gammas (ECAL). A cela s’ajoute un « anti coincidence counter » (ACC) permettant de sélectionner seulement les particules intéressantes ainsi que des systèmes d’alignement et de positionnement (TAS, Star Tracker et GPS).

ams rivelatori

AMS : un ensemble d’une dizaine de sous-détecteurs. © AMS.

 L’ensemble des données des différents sous-détecteurs permet ensuite d’identifier avec certitudes les différentes particules ayant traversées les différentes couches. Le principe est un peu le même qu’un détecteur de particules « classique » tels ceux que l’on peut voir dans les accélérateurs de particules comme au CERN mais celui là est conçu pour pouvoir fonctionner dans l’espace et pour résister à la violence d’un décollage de fusée, ce qui impose des contraintes très fortes sur ce petit bijou
technologique.

IL n’y a plus qu’à attendre  qu’AMS soit fixé à la Station Spatiale Internationale et commence son travail de mesure qui sera minute par minute suivi par l’ensemble de la collaboration depuis une salle de contrôle () pein construite) dédiée à AMS-02 au CERN (à cent de mètres de mon bureau d’ailleurs). J’essaierai d’en reparler dans 10 ans sur ce blog.

L’astrophysique : la physique des astres

J’ai une petite nièce qui veut devenir astrophysicienne, un métier qui peut faire effectivement rêver, mais en quoi consiste le métier d’astrophysicien ?

simu magneto

Premièrement, il faut distinguer les différentes disciplines de l’étude des astres (« astro » en grec) de manière à bien positionner les disciplines les unes par rapports aux autres. A noter que je ne parlerai pas de l’astrologie qui n’est pas une science mais un ensemble de croyances et de traditions humaines qui peuvent varier selon les civilisations.

L’astronomie

L’astronomie est la science qui s’occupe de l’observation et de la mesure des propriétés des astres (leur distance, leur taille, leur intensité, leur composition chimique, etc.) ainsi que de tous les phénomènes extra-terrestres. L’astronomie est donc essentiellement basée sur les techniques d’observation comme les télescopes permettant de détecter des rayonnements électromagnétiques (la lumière, les ondes radios, etc.) issus des différents astres. Voir un précédent billet sur La nature de la lumière ou l’électromagnétisme pour plus de détails
sur le rayonnement électromagnétique.

VLT

Le plus grand système de télescopes du monde en fonctionnement: le
Very Large Telescope (VLT) situé sur un plateau à 2635 m d’altitude au Chili © ESO.

L’astronomie est un domaine très vaste contenant de nombreuses disciplines. On peut distinguer les disciplines selon le type de rayonnement observé (astronomie visible, radio, infrarouge, gamma, neutrino, X, ultraviolet, gravitationnelle) ou selon le type d’objet observé comme les planètes, le soleil, les étoiles, notre galaxie, les objets hors de notre galaxie (galaxies, pulsars, super novae, trous noirs, quasars, etc.). Toutes ces disciplines utilisent des technologies bien spécifiques pour observer et mesurer ces différents objets célestes.

L’astrophysique

L’astrophysique, comme vous l’avez sûrement compris, est un mélange d’astronomie et de physique. Plus précisément, l’astrophysique est une branche entière de la physique s’intéressant à tous les phénomènes physiques qui se produisent dans l’espace.
La différence avec l’astronomie est que l’astrophysique a pour mission d’expliquer les phénomènes mis en jeu au sein des astres et de l’Univers alors que l’astronomie s’intéresse à leur observation. On trouve ainsi différentes branches en astrophysique, selon le sujet d’étude ou selon la théorie utilisée pour expliquer les phénomènes.


La planétologie est la science qui étudie toutes les planètes et autres corps en
orbite
autour d’une étoile comme les satellites naturels, les astéroïdes, les comètes, les micrométéorites (poussières de moins d’un gramme). Il est donc question ici des objets de notre système solaire (la Terre et la Lune incluses) mais également des planètes situées en dehors de notre système solaire depuis la découverte de la première exoplanète en 1995. La planétologie est fortement pluridisciplinaire puisqu’elle s’intéresse à la géologie, la géophysique, la chimie, la cartographie, la climatologie, etc.

L’astrophysique stellaire étudie quant à elle les étoiles. Elle essaye d’expliquer et de comprendre leur naissance, leur développement dans le temps ainsi que leurs structures parfois complexes. Elle fait donc appel à la thermodynamique, la physique des plasmas, la physique nucléaire et l’étude des rayonnements.

L’astrophysique galactique s’intéresse aux galaxies et cherche à connaitre comme pour les étoiles leur formation et leur évolution ainsi que leurs propriétés physiques et leur répartition. La statistique est ainsi fortement utilisée dans cette discipline en plus des autres domaines nécessaires à l’astrophysique stellaire.

 nebuleuse helix

La nébuleuse de l’hélice (aussi appelée l’œil de Dieu) située à 700 années-lumière de la Terre prise par le VLT  © ESO.

La cosmologie est assez emblématique de l’astrophysique grâce à la théorie du Big-bang connue du grand public et très populaire, et parfois vivement controversée (principalement par les créationnistes). La cosmologie s’intéresse comme son nom l’indique au cosmos, c’est-à-dire à l’Univers dans son intégralité (on parlait de cosmos du temps de la Grèce antique, il désignait alors un monde clos ordonné, s’opposant au chaos). Les cosmologistes comme on les appelle essayent de retracer l’histoire de notre Univers vieux de 14 milliards d’années, ce sont un peu les historiens du cosmos. Il ne faut pas oublier que regarder loin dans l’espace revient à regarder loin dans le temps puisque la lumière voyage à une vitesse finie (300 000 km/s). Lorsqu’on regarde une galaxie à 13 milliards d’années-lumière, on la regarde telle qu’elle était il y a 13 milliards d’années (soit quelques centaines de millions d’années seulement après le Big-bang) : il s’agit du temps nécessaire pour que la lumière qu’elle émet atteigne notre œil.

L’astrophysique relativiste permet de comprendre les phénomènes physiques astronomiques qui se déroulent à très haute pression et densité d’énergie ou à des vitesses proches de celles de la lumière comme dans les trous noirs ou les étoiles à neutrons. Ces phénomènes ne sont généralement pas explicables par la physique dite « classique » comme la mécanique newtonienne et doivent faire appel aux théories relativistes comme la relativité générale ou la relativité restreinte, initialement
élaborées par Einstein au début du 20ème siècle.

L’astrophysique nucléaire est une discipline transverse pouvant étudier les étoiles et l’univers lorsque des réactions nucléaires sont réalisées. Le meilleur exemple est la réaction nucléaire de fusion dans les étoiles transformant l’hydrogène en hélium.

L’astrophysique des particules traite les phénomènes des hautes énergies comme l’étude des rayons cosmiques.

 soleil

Le soleil est le siège de puissantes réactions thermonucléaires
de fusion transformant l’hydrogène en hélium. © NASA.


Qui sont les astrophysiciens ?

Les astrophysiciens sont des gens normaux (si si, je vous assure) ayant une formation en physique leur permettant de maîtriser de nombreuses disciplines de la physique telles que la mécanique des fluides, la thermodynamique, la mécanique newtonienne, la mécanique relativiste, la physique des particules, etc. qui sont essentielles pour la compréhension des phénomènes astronomiques très divers et variés.

Aujourd’hui, la majorité des disciplines de l’astrophysique consistent de plus en plus à élaborer des modèles mathématiques basés sur les équations de la physique pour réaliser des simulations numériques sur ordinateurs. Ces simulations permettent de confirmer ou infirmer les différentes théories des astrophysiciens en les comparant avec les observations des astronomes. L’outil informatique et la modélisation sont donc des composantes transverses indispensables à presque toutes les branches de l’astrophysique.

 simu cea

Simulation de la galaxie NGC 4254 (à droite) reproduisant fidèlement la distribution du gaz et la concentration de gaz de Virgo HI21 observé (à gauche). © CEA/SAp. 

Le satellite Planck



Avant-hier à 15h12, heure française, la fusée Ariane 5 a décollée
avec succès pour la 44ième fois depuis Kourou en Guyane. Cette mission n’est pas anodine puisque Ariane 5 transportait 2 bijoux technologiques dédiés à la Science dans son « petit » chapeau : les satellites européens Planck et Herschel.

Planck et Herschel sont 2 télescopes spatiaux mais ils sont très différents l’un de l’autre. Herschel est un télescope relativement classique permettant l’observation dans l’infrarouge moyen et lointain à l’aide d’un miroir de 3,5 m de diamètre alors que Planck permet l’observation du rayonnement fossile micro-onde à l’aide de bolomètres ultrasensibles fonctionnant à très basses températures.

Ce billet est spécialement consacré au satellite Planck qui est un peu spécial. Planck doit d’abord atteindre un point particulier de l’espace (le point de Lagrange L2 qu’il atteindra dans 3 mois) pour pouvoir commencer à fonctionner pendant un peu moins de 2 ans.

Planck : comme Max

Le nom de ce satellite vient du physicien allemand Max Planck,  un des pères de la physique quantique, mais quel est le rapport ? Ce satellite a pour ambition de déterminer avec une extrême précision ce que les astrophysiciens appellent le rayonnement de fond cosmologique. Ce rayonnement est une application parfaite de ce qu’on appelle le rayonnement du corps noir, problème justement résolu par Max Planck à la fin du 19ième siècle et qui permettra à Planck d’élaborer en 1900 à la théorie des quanta qui deviendra plus tard la fameuse physique quantique. L’étude du rayonnement électromagnétique d’un corps
noir permet de calculer la température d’un objet à partir de l’analyse de son spectre, voir le billet Comment mesurer la température d’une étoile qui explique en détail tout ceci.

Le fond diffus cosmologique

On l’appelle aussi le rayonnement de fond cosmologique, le bruit de fond cosmologique ou plus simplement le rayonnement fossile, car il constitue le plus vieux fossile de notre Univers. D’après la théorie du Big-Bang, la première « lumière » a été émise par l’Univers 380 000 ans après sa création il y a 13 milliards d’années quand ce dernier c’était suffisamment refroidi à cause de son expansion (l’Univers s’était alors refroidi à 3000°C). A cet instant, les photons ont enfin pu se libérer pour aller vaquer à leur occupation favorite : se balader librement (on appelle cela rayonner en physique) créant ainsi de la
lumière qui inondât l’Univers tout entier !


Ce rayonnement fossile primordial a été pensé théoriquement dans les années 40 et il a été détecté pour la première fois par le plus grand des hasards par 2 ingénieurs américains des laboratoires Bell en 1965 alors qu’ils travaillaient sur des antennes. Ils avaient détecté un « bruit de fond» qui perturbait leurs antennes dans toutes les directions du ciel. Ce bruit de fond constant présent dans toutes les directions autour des 160 GHz (micro-ondes) s’avéra être le fameux fond diffus cosmologique qui avait été prédit théoriquement mais qui demeurerait introuvable. Ce fut une énorme avancée pour la théorie du Big-Bang. Désormais ce rayonnement possède une température de 2,726 K comme l’Univers n’a pas cessé son expansion et donc son refroidissement.

Planck le cartographe



Un des objectifs scientifiques du satellite Planck est d’élaborer la « cartographie » la plus précise possible de ce rayonnement fossile qui possède d’infimes fluctuations. Deux missions américaines de la NASA ont déjà établi une cartographie relativement fine (COBE lancé en 1989 puis WMAP lancé en 2001) mais on cherche à quantifier encore plus précisément ces fluctuations qui ont certainement été à l’origine des futures grandes structures de notre Univers (Galaxies, amas, superamas….). Toute la cosmologie moderne se base essentiellement sur les fluctuations de ce rayonnement, d’où
l’importance capitale de cette mission.

Des Bolomètres à ultra basse température

Pour détecter un rayonnement, on utilise un détecteur appelé « bolomètre » qui permet de mesurer précisément une quantité d’énergie électromagnétique reçue en convertissant l’énergie du rayonnement en chaleur. Au final on mesure la température du bolomètre de manière à déduire la quantité de chaleur issue du rayonnement. On comprend alors aisément que plus le bolomètre est chaud, et plus une petite variation de chaleur sera difficile à détecter. Conclusion :
plus le bolomètre est froid, plus il est précis !

Planck est équipé de 54 bolomètres permettant de mesurer les rayonnements à différentes fréquences constituant le spectre du fond diffus cosmologique. Pour obtenir la précision requise par la mission, les bolomètres seront refroidis à d’ultra-basses températures, entre 90 mK et 130 mK (soit environ un
centième de degré au dessus du zéro absolu, -273,15°C). La résolution ainsi obtenue sera 600 fois meilleure que la première mission américaine COBE.

Le réfrigérateur à dilution

Pour refroidir ces bolomètres, le satellite Planck embarque à son bord un réfrigérateur à dilution. Ce type de réfrigérateur fonctionne avec un mélange de 2 isotopes stables de l’hélium (3He et 4He). Les frigos à dilution commencent à une température de 4,2 K (avec de l’hélium liquide classique) pour fournir une puissance de réfrigération continue jusqu’à 2 millikelvins sans aucune partie mobile ! En général ils fonctionnent plutôt aux alentours des 100 mK.

En gros, le fait de « diluer » de l’hélium-3 liquide (très rare sur Terre) dans de l’hélium-4 liquide (l’hélium classique) permet de faire du froid. Ces 2 fluides cryogéniques sont assez particuliers car ils possèdent des points de liquéfaction très bas (4,2 K pour 4He et 3,2 K pour 3He à  pression atmosphérique). En dessous de 0,9 K 3He et 4He se séparent spontanément en 2 phases (1 phase riche en 3He et une phase pauvre en 4He) et quand l’hélium-3 « traverse » cette
phase diluée pour ensuite s’évaporer, il y a création de froid (je ne rentrerai pas dans les détails ici), voir figure ci-dessous qui représente ce qu’on appelle la chambre de mélange qui se trouve en bas du réfrigérateur :



La dilution spatiale

Le principe de la dilution utilise la gravité pour séparer les mélanges, ce qui n’est pas possible dans un satellite! Un nouveau type de réfrigérateur à dilution pouvant fonctionner dans l’espace a donc été développé à Grenoble, le pôle de la cryogénie française. Le démonstrateur de la dilution a été construit à l’institut Néel (CNRS) à Grenoble par Alain Benoît, son équipe et les services techniques de son laboratoire. J’ai d’ailleurs eu la chance de voir un prototype de ce réfrigérateur à Grenoble il y a environ 2 ans alors que j’assistais à des cours de cryogénie. Le mélange 3He/4He circule dans des tubes de très petites dimensions qui rendent le système insensible à la gravité. Le réfrigérateur à dilution a ensuite été construit par la société française Air Liquide à Sassenage, à proximité de Grenoble. En revanche, le réfrigérateur de Planck fonctionne en boucle ouverte: le mélange est ensuite rejeté dans l’espace et la durée de vie du système dépend alors de la quantité d’hélium qui est embarquée au décollage (environ 2 ans de vie dans le cas de Planck). On souhaite une grande réeussite à cette mission européenne!

Comment mesurer la température d’une étoile ?

On voit souvent écrit que notre Soleil a une température de surface de 5800K (ou 5500°C)  mais comment fait-on pour calculer cette température sachant que cette température a été mesurée bien avant l’aventure spatiale et que personne n’est jamais allé sur le Soleil avec un thermomètre ! Réponse évidente : On calcule sa température à partir de mesures faites depuis la Terre en l’observant, mais comment ?

 

Le concept physique principal pour calculer cette température est ce que les physiciens appellent le rayonnement des corps noirs. Le nom « corps noir » a été introduit par le physicien Gustav Kirchhoff en 1860 et est à l’origine de nombreuses découvertes du début du 20ième siècle.

 Cet objet entièrement théorique est défini comme suit : Un corps noir est un objet idéal qui absorbe TOUS les rayonnements électromagnétiques (lumière comprise), sans aucune réflexion ou transmission de ce rayonnement, c’est pour ,cette raison qu’un tel objet, s’il est à la même température que son environnement, paraît totalement noir. Dans ce cas, le seul rayonnement dégagé par un corps noir est un rayonnement électromagnétique d’origine thermique qui ne dépend que de sa température et de rien d’autre. Oui, il faut préciser que tous les objets ayant une température au dessus du zéro absolu rayonnent, c’est à dire qu’ils émettent un rayonnement thermique. Par exemple le corps humain à 37°C émet un rayonnement infrarouge invisible à l’œil nu mais visible avec un détecteur infrarouge (les militaires s’en servent particulièrement pour la vision nocturne).

Un corps noir parfait n‘existe pas dans la nature mais on peut facilement faire une bonne approximation. Par exemple, il suffit de prendre un four fermé de tous les cotés de manière hermétique à la lumière. Si on perce un minuscule trou sur un des cotés du four, il s’échappera alors un rayonnement qui sera le rayonnement d’un corps noir presque parfait. L’étude de ce rayonnement permettra de connaître la température de l’air à l’intérieur du four avec précision. C’est exactement ce que fit Wilhelm Wien à la fin du 19ième siècle pour étudier ce rayonnement qui a longtemps intrigué les physiciens.
Etudier un rayonnement ça veut dire quoi ?
Un rayonnement électromagnétique est composé de plusieurs ondes de différentes fréquences, chaque fréquence correspond à une couleur pour la partie visible des rayonnements (autrement dit, la lumière, voir article la nature de la lumière ou l’électromagnétisme). Etudier un rayonnement, c’est donc mesurer l’intensité de chaque fréquence qui compose le rayonnement, on parle alors de l’analyse du spectre du rayonnement. On peut voir dans le dessin ci-dessous le spectre émit par notre Soleil. La couleur verte est la plus intense, mais le mélange de toute les couleurs ensemble fait que nous percevons une lumière blanche.



Wilhelm Wien postula en 1896 que lorsqu’on chauffe un corps, la longueur d’onde (correspondant à une couleur) de plus forte intensité dans le spectre (le vert pour le soleil) se décale vers le bleu, c’est ce qu’on appelle la loi de Wien :


Si on chauffe du fer, il va d’abord viré orange-rouge puis bleu et blanc si on le chauffe encore plus (d’où l’expression chauffé à blanc). De cette manière, on peut parfaitement connaître la température d’un corps noir simplement en mesurant où se trouve la raie maximale dans le spectre. On peut dire que le Soleil est presque un corps noir car sa température est très élevée par rapport à son environnement et si on veut une mesure grossière, cela va très bien. En mesurant depuis la Terre le spectre du Soleil, on mesure la raie verte maximale à une longueur d’onde Lmax=0,50 mm et on obtient alors T = 5800K avec la loi de Wien.

 C’est aussi intéressant de savoir que chaque couleur du spectre peut permettre
de savoir de quoi est composé le corps. Le vert indique une présence de fer, le rouge de l’hydrogène, les ultra-violets de l’hélium…
la couleur dépend de la nature chimique de l’objet et est utilisée en spectroscopie pour analyser la composition des échantillons de matériaux mais aussi des étoiles La loi de Wien est bien jolie mais elle a posé d’énormes problèmes aux physiciens, et plus particulièrement à Max Planck qui voulait aller plus loin et comprendre les causes physiques de cette loi empirique. Cette équation posait des problèmes avec la théorie, les énergies divergeaient vers l’infini et Planck reformula donc une nouvelle loi, appelée de Wien-Planck qui collait avec les mesures et la théorie.

Malheureusement cette loi fut mise en défaut un peu plus tard par des mesures faites à Berlin avec des rayonnements de basses fréquences, toute la théorie s’écroulait. Planck persévère et quelques mois plus tard, il introduit une nouvelle constante, h, appelée constante de Planck permettant de « quantifier » la matière en laissant de coté l’approche classique continue à laquelle il était pourtant très attaché. Planck a fait l’hypothèse que l’énergie devait être quantifiée pour expliquer le rayonnement du corps noir dans tous les cas, et cette hypothèse a tout simplement donnée naissance à la théorie des quanta de Planck en 1900 qui enfantera toute la physique quantique !

GALILEO : Le système de positionnement qui va remplacer le GPS

Présentation

En 2010, vous pourrez mettre vos GPS à la poubelle (non c’est pas tout à fait vrai car les récepteurs GPS et GALILEO seront les mêmes). Eh oui, si vous n’êtes pas encore au courant, l’Union Européenne et l’Agence Spatiale Européenne (ESA) développent un nouveau système de positionnement géodésique par satellites civile dans le but de ne plus être dépendant du système GPS appartenant à l’armée américaine et d’avoir une bien meilleure précision. Nom de code : GALILEO

Ce système de positionnement doté de 30 satellites coûtant 3,4 milliards d’euros émettra dix signaux destinés à plusieurs utilisations :

  • Une utilisation gratuite pour tous les gens, style GPS, mais avec une précision de l’ordre de 1 mètre (nettement meilleure que le GPS classique qui fournit une précision de 20m).
  • Une utilisation commerciale pour les professionnels. Dans ce cadre l’intégrité des signaux est garanti, la précision est meilleure et il y a possibilité de faire passer des informations cryptées.
  • Un service de sûreté de la vie pour les applications sensibles comme la navigation maritime et aérienne
  • Une utilisation publique réglementée pour les services publics nécessitant des informations sûres et une bonne fiabilité (services d’urgence, transport de matières dangereuses…)
  • Une utilisation de recherche et de secours pour les balises de détresse maritimes.



A l’heure actuelle, 4 pays hors UE ont déjà signé des accords de coopération dans le but d’utiliser le futur système (Chine, Inde, Israël, Ukraine) mais une dizaine d’autres pays sont en négociation.

Bien évidemment l’atout majeur de GALILEO, c’est son aspect civil qui permettra des applications publiques nécessitant une sécurisation et une intégrité minimal. De ce fait, GALILEO sera reçu de manière continu sans risque de brouillage ou cryptage par l’armée comme le GPS. La précision sera meilleure que le GPS brut (je ne parle pas du GPS différentiel, le DGPS, qui fait intervenir des stations fixes au sol car dans ce cas la précision est nettement augmentée) et des signaux de diagnostic seront disponibles pour les applications sensibles dans le but d’avoir une bonne estimation d’erreur.

Il faut aussi souligner que les récepteurs recevront les deux signaux (GPS et GALILEO). Une utilisation harmonieuse des deux systèmes sera possible et la précision sera encore meilleure (l’infrastructure globale de navigation par satellite : GNSS).

Le positionnement géodésique

GALIELO et GPS utilisent le même principe de positionnement. C’est d’ailleurs un des exemples d’un de mes cours de cette année à l’UTC intitulé Méthodes Temps-Réel d’observation pour la Commande et le Diagnostic. Ces systèmes se basent sur de la fusion de données statique. Les données fournies par les satellites sont les éphémérides (c’est à dire la position dans l’espace des satellites) et les temps. On cherche évidemment la position du récepteur sur Terre : x,y,z qui sont la latitude, la longitude et l’altitude. La Terre étant ronde, on doit faire une projection et en général tous les systèmes utilisent le système géodésique WGS84 (World Geodetic System qui date de 1984) pour calculer les coordonnées. Je ne m’étendrais pas sur ce sujet, pourtant très intéressant, ce n’est pas l’objectif de cet article.

Ici, le temps est une donnée clef car tous les satellites et le récepteur doivent indiquer exactement la même heure (un erreur de 1 microseconde provoque une erreur de 300m sur la position terrestre). Tous les satellites sont donc pourvus d’une horloge atomique incluant une correction relativiste (eh oui selon la relativité d’Einstein, le temps ne s’écoule pas à la même vitesse dans le satellite qui va très vite et qui est loin de la Terre que sur Terre mais bon maintenant on sait calculer cette correction parfaitement). Le problème se situe sur récepteur dans votre voiture par exemple, vous n’allez pas vous trimbaler une horloge atomique (bien que ce soit plus très gros). La solution à ce problème est très simple : on considère le décalage temporel entre l’heure du satellite et du récepteur comme une inconnue.

 On a donc affaire à un nouveau problème à 4 inconnues : on cherche les 3 coordonnées spatiales du récepteur (x,y,z) ainsi que son décalage temporel (dt). Pour cela il nous faut donc 4 équations pour résoudre le problème c’est à dire que l’on doit posséder les informations d’au moins 4 satellites. Avec ce principe, si vous avez moins de 4 satellites à porté de vue, c’est fichu, c’est d’ailleurs ce qui se passe dans des canyons ou des avenues jonchées de grattes-ciel car vous n’avez qu’une zone de ciel étroite et dans ce cas, l’erreur commise est très grande. 

La suite est réservée au gens un peu scientifique…

Dans cette partie je vais développer les équations de chaque satellite ansi que leur résolution pour avoir une meilleure idée d’un algorithme de positionnement géodésique (GPS ou GALILEO). On se rend compte que c’est vraiment très simple mais attention : ici j’ai fait beaucoup de simplifications, normalement il faut rajouter des termes de corrections pour l’allongement ionosphérique et troposphérique, les erreurs relativistes et une estimation du décalage du décepteur.

Les équations fournies par les satellites sont des pseudo-distances.Supposons qu’à un instant donné, « n » satellites soient visibles et on suppose n>4. Comme les satellites diffusent leurs positions, on suppose que leurs coordonnées (xi, yi, zi) sont connues sans erreur.

Le système à résoudre s’écrit :

Ici les pseudo-distances de chaque satellite ri dépendent de la distance réelle et de la pseudo-distance dû au décalage temporel dt entre le satellite et le récepteur (comme ce sont des ondes électromagnétique la vitesse de propagation de l’information est égale à la vitesse de la lumière : c)

On doit alors résoudre ce système de n équations non-linéaires redondant : C’est un problème de fusion de données statique. En général on utilise la méthode de résolution numérique de Newton-Raphson.

Si on met le système précédent sous forme matricielle on obtient une équation matricielle : Z=h(X) où X=(x,y,z,dt). Dans ce cas cela revient à trouver X tel que h(X)-Z = 0 , c’est à dire trouver X tel que f(X)=0. Pour résoudre ce système on vient linéariser le système autour d’un point X: f(X0 + dX) = f(X0) + f ’(X0).dX

Cherchons dX tel que la tangente coupe l’axe des abscisses :

f(X0)+f’(X0).dX=0 <=>f’(X0).dX= – f(X0)or f’(X0)= h’(X0)=M


M.dX= – f(X0)

Si il y a 4 satellites et si M est inversible dX= – M-1. f(X0).

Si il y a plus de 4 satellites, dX=-[MT . M]-1.MT.f(X0) à condition que [MT . M]soit inversible et bien conditionnée

On obtient ainsi un nouveau point X1=X0+dX Tant que la norme de dX n’est pas plus petite qu’un seuil prédéterminé, on itère le processus. En pratique, on constate que le processus converge souvent en une ou deux itérations.Des facteurs caractérisant la qualité de la configuration géométrique des satellites sont souvent utilisés pour décrire la « dilution de précision » c’est-à-dire la confiance que l’on peut accorder aux résultats. Le plus connu est le GDOP (Global Dilution Of Precision).



 où Mj est la dernière matrice jacobienne calculée lors de la méthode de Newton- Raphson. On admet que des valeurs de 1 à 3 sont bonnes et, qu’au delà d’une valeur de 6, la position est à rejeter à cause d’une configuration géométrique trop défavorable.

Trou Noir

 Les trous noirs sont des objets astrophysiques que tout le monde connaît, même les enfants car c’est un objet qui intrigue. Sans mauvais jeu de mots, les trous noirs attirent… le grand public ! Un des spécialistes des trous noirs est bien sûr Stephen Hawking, de l’université de Cambridge, qui détient actuellement la chaire de Isaac Newton (je vous conseille d’ailleurs son livre « l’univers dans une coquille de noix » chez Odile Jacob très ludique et agréablement illustré). 

  L’existence des trous noirs a été pensée dès le XVIIIième siècle mais leur existence n’est confirmée théoriquement qu’en 1916 par l’astronome allemand Karl Schwartzschild. En revanche, le terme trou noir n’apparaît qu’en 1967 avec un physicien américain, John Archibald Wheeler, avant on utilisait le terme singularité de Schwartzschild (on verra plus tard pourquoi). En résolvant les équations de la relativité d’Einstein, Schwartzschild a trouvé une solution : s’il y avait suffisamment de matière dans un espace suffisamment restreint (donc une densité de matière très importante) alors l’espace-temps était tellement déformé aux bord de cet objet exotique que même la lumière ne pouvait s’en échapper. Autrement dit, c’était comme un trou (car la fabuleuse masse de l’astre attire par gravitation tout ce qui passe, comme une étoile, mais perce un trou dans l’espace-temps) et il est tout noir car aucun photon ne peut parvenir à s’échapper au delà de ce que l’on appelle l’horizon d’événement du trou noir (ou horizon de Schwartzschild). Lorsqu’un objet, quel qu’il soit, dépasse cet horizon, il n’y a plus moyen de retour car la vitesse nécessaire pour s’échapper serait supérieure à la vitesse de la lumière (donc impossible selon la relativité). Einstein, de son vivant, n’a jamais cru à l’existence des trous noirs et pensait que c’était simplement une solution  singulière aberrante. 

 On a longtemps pensé que de tels objets ne pouvaient exister en raison de la densité formidable nécessaire, mais en fait, lorsque les étoiles meurent (eh oui, tout a un début et une fin…) elles s’effondrent sur elles-mêmes et si elles sont suffisamment massives, alors un trou noir peut se créer. On parle souvent de singularités spatio-temporelles pour désigner les trous noirs car ils sont assimilables à  « un seul point » du fait que derrière cet horizon, toutes les variables deviennent infinies ou nulles et on ne sait pas tout ce qui peut se passer derrière cette barrière infranchissable par nos télescopes vu qu’aucune lumière n’est émise, pas de chance ! Les calculs mathématique deviennent alors très étranges mais néanmoins ils peuvent fonctionner et on peut facilement calculer le rayon de l’horizon d’événement et même la température du trou noir qui contrairement à ce qu’on pourrait penser est plutôt froide. Un trou noir de quelques masses solaires possèderait une température de quelques millionièmes de kelvins (en gros -273°C). Evidemment, plus le trou noir est petit, plus il est chaud. Autre détail que j’ai oublié de mentionner : théoriquement, derrière cet horizon, le temps d’arrête ! Eh  oui, plus il y a de la masse, plus le temps s’écoule moins vite. La relativité considère la gravité non pas comme une force mais comme une déformation de l’espace-temps. Mathématiquement, un trou noir possède en son sein une densité infinie, le résultat est un « trou » dans l’espace-temps et dans cette configuration, le temps n’avance plus ! Pour toutes ces raisons, l’existence des trous noirs a été longtemps très controversée et Stephen Hawking raconte comment ses petits camarades physiciens français lui riaient au nez au tout début car en général, le travail de l’astrophysicien est de trouver des explications pour éradiquer les singularités qui constituent leur pire ennemi car qui dit singularité, dit question ouverte, on ne comprend plus, ça dépasse notre entendement de misérable être humain. Néanmoins, désormais, ces objets astronomiques sont reconnus dans la majorité de la communauté scientifique.

Les recherches sur les trous noirs sont toujours d’actualité, et on découvre toujours de nouvelles choses. Particulièrement le fait que certains trous noirs microscopiques issus du BIG-BANG (dit primordiaux)  et ? pourraient perdre de l’énergie et ainsi libérer des particules issues des fluctuations quantiques du vide. Lorsqu’une paire de particules est créée au niveau de l’horizon, une des deux particule pourrait s’échapper et ainsi émettre un rayonnement observable et le trou noir perdrait alors son invisibilité (je ne détaille pas cet aspect, on pourrait y passer 3h mais je peux essayer de répondre à vos question en commentaire). Concernant les trous noirs primordiaux je ne peux que vous conseiller le numéro de La Recherche n°362, Mars 2003. Si vous ne l’avez pas, mailez-moi.

 Dans la détection des trous noirs également, on a fait beaucoup de progrès, évidemment, on ne les voit pas mais on peut déduire leur présence par leur influence gravitationnelle sur les astres voisins (la photo au dessus représente la détection éventuelle d’un trou noir). Par exemple si notre cher soleil était concentré dans une sphère assez petite pour être un trou noir, on ne pourrait pas le voir mais les planètes continueraient à tourner autour par gravité, par contre je doute que dans ce cas notre existence soit possible et ce blog n’aurait jamais vu le jour sans le jour du soleil, donc heureusement, notre soleil est une gentille petite étoile et pas un méchant trou noir qui mange tout !