Archives pour la catégorie Technologie et Innovation

De la RMN à l’IRM

Tout le monde connait maintenant l’Imagerie par Résonance Magnétique (IRM) qui est devenue un examen presque classique en imagerie médicale lorsqu’on a besoin d’images précises de la moelle épinière ou du cerveau mais aussi pour toutes les articulations, muscles, cellules cancéreuses ou toutes zones irriguées par le sang.

IRM-1La France est cependant sous-équipée avec seulement 684 IRM au total sur son territoire, soit environ 10 IRM par million d’habitants, contre une moyenne de 20 en Europe, ce qui explique une attente moyenne de 37,7 jours en France pour réaliser cet examen parfois indispensable pour rendre un diagnostic à des patients souffrants en attente d’un traitement adéquat (source). La France fait donc figure de mauvaise élève en la matière. Certes, un IRM coûte cher, dans les 2 millions d’euros, mais la demande n’est pas satisfaite comme il se devrait.

IRM_photoJe vais essayer de vous expliquer ici comment fonctionne un IRM et pourquoi cette technique est si révolutionnaire, ne présentant quasiment que des avantages.

La Résonance Magnétique Nucléaire

L’IRM est basée sur un phénomène physique appelé la Résonnance Magnétique Nucléaire (RMN) découvert en 1938 par Isidor Isaac Rabi, un des pères fondateurs du CERN à Genève (Organisation Européenne pour la Recherche Nucléaire) et qui obtiendra d’ailleurs le prix Nobel pour cette découverte en 1944. On dénombrera d’ailleurs pas moins de 5 prix Nobel ayant un rapport avec la RMN et l’IRM entre 1944 et 2003.

La RMN tire son explication du fait que les noyaux des atomes (les protons et les neutrons) possèdent une sorte de « petit aimant » interne que les physiciens appellent « spin ». On peut donc dire qu’un atome possède aussi un spin en ajoutant tous les spins de chaque particule qui le compose. A noter que si 2 petits aimants sont inverses l’un de l’autre, alors ils s’annulent et le spin résultant est ainsi nul.

Si on applique un champ magnétique à ces « petits aimants », ils vont alors se mettre à tourner sur eux même en décrivant un cône, un peu à la manière d’une toupie, c’est le phénomène de la précession de Larmor.

 IMR_Larmor

Un atome de spin non nul assure un mouvement de précession de Larmor autour d’un champ magnétique constant (B0)

Ainsi, tous les atomes ayant un nombre de protons et de neutrons pair come l’oxygène (4 protons + 4 neutrons) et le carbone (8 protons + 8 neutrons) ont un spin nul et ne sont donc pas soumis au phénomène de RMN. En revanche, tous les atomes ayant un nombre de protons et de neutrons impair sont soumis à ce phénomène de résonance magnétique tel l’hydrogène (1 seul proton). L’hydrogène est intéressant en RMN car il très bien connu des scientifiques et il est présent en grande quantité dans le corps humain dans les molécules d’eau (H2O).

Comment fabriquer une image ?

Pour fabriquer une image en 3 dimensions, on va mettre l’échantillon qui nous intéresse (un homme par exemple) dans un puissant champ magnétique constant. Tous les atomes de spins non nuls vont alors tourner comme des toupies dans la même direction. On va alors ajouter dans une autre direction de l’espace un champ magnétique oscillant au champ magnétique constant de manière à exciter certains atomes qui vont osciller à leur tour à une fréquence bien particulière et quand on va arrêter ce champ oscillant, les atomes vont regagner progressivement leur position initiale dans le champ magnétique constant, c’est ce qu’on appelle la relaxation. Chaque atome oscille à une fréquence bien précise en fonction du champ magnétique, par exemple, l’hydrogène oscille à une fréquence de 42 MHz pour un champ magnétique de 1 Tesla. Lorsque ce phénomène apparait et disparait, on peut mesurer avec une antenne réceptrice ces atomes comme l’hydrogène qui ont changé de direction sous l’influence de ce champ magnétique oscillant. On répète l’opération dans les 3 dimensions et à plusieurs fréquences connues si on s’intéresse à plusieurs composés chimiques et on peut alors mesurer la répartition de chaque ensemble d’atomes dans l’espace.

IRM_craneUne fois toutes ces mesures faites, il faut alors reconstituer une image en 3 dimensions. Cette question a pu être résolue récemment dans les années 70 grâce aux importants progrès en traitement du signal et grâce aux progrès de l’informatique sans lesquels l’IRM serait impossible car cette technique nécessite une grande quantité d’information et de calcul pour reconstituer une image.

L’IRM : la machine

En gros, un IRM, c’est:

  • Un gros aimant pour faire un champ magnétique permanent et homogène, c’est le gros tube dans lequel on rentre et qui fait environ 60 cm de diamètre.
  • Trois bobines de gradient dans les 3 directions de l’espace pour créer les champs magnétiques oscillants. Elles sont généralement réparties autour du tunnel de l’aimant.
  • Des antennes radiofréquences pour mesurer le signal de précession des atomes qui résonnent. Généralement placées autour de la tête ou de toute autre zone à observer.
  • Un super PC qui fait tourner un algorithme informatique pour décrypter toutes les mesures des antennes et reconstituer l’image.

La pièce centrale de l’IRM est véritablement l’aimant principal car plus le champ magnétique est intense, meilleur sera la résolution de l’image à la fin. C’est pour cette raison qu’aujourd’hui la plupart des IRM utilisent des aimants supraconducteurs (voir ce billet sur la supraconductivité) permettant d’atteindre des champs magnétiques jusqu’à 7 Teslas dans les IRM, soit plus de 100 000 fois le champ magnétique terrestre qui nous indique le nord ! Grâce à ces champs extrêmement puissants on obtient des images précises au millimètre avec un très bon contraste. Le CEA est même en train de construire un IRM à 11,5 Tesla pour une ouverture de 90cm (Iseult) dans le cadre du projet Neurospin à Saclay.

 IRM_IseultCoupe de laimant Iseult de 11,5 T pour le projet Neurospin. En orange : les bobines supraconductrices. En bleu : lenceinte hélium et la structure mécanique © CEA.

Evidemment, le coût de ces aimants est important et en plus, ils doivent fonctionner à une température cryogénique proche du zéro absolu. En effet, les aimants supraconducteurs IRM sont généralement refroidis à 4,5 K, soit -266 degrés à l’aide d’hélium liquide et demande donc une infrastructure assez importante pour fonctionner avec un coût associé non négligeable.

Est-ce dangereux ?

Certains détracteurs tentent de montrer que l’exposition à des champs magnétiques de manière répétée peut entrainer des troubles de santé mais rien n’a jamais été prouvé jusqu’à présent et il est clair que le fait de réaliser quelques IRM dans l’année (une séance dure environ 30 minutes) est inoffensif pour la santé. L’IRM conventionnel n’utilise pas de traceur et il n’y a aucune radiation liée à cette technique (cependant on trouve parfois le couplage de l’IRM avec un agent de contraste radioactif pour améliorer certain diagnostic).

C’est d’ailleurs un des principaux atouts de l’IRM contrairement aux angiographies ou aux scanners qui utilisent des rayons X provoquant l’irradiation des patients de manière significative. A titre de comparaison, un patient réalisant un scanner de l’abdomen  reçoit d’un coup une dose de radiation de 10 millisievert, soit la moitié du seuil maximal accepté pour un travailleur français dans le nucléaire en une année complète alors que pour une IRM classique, c’est zéro !

Il y a cependant des contre-indications pour passer une IRM comme :

  • La présence d’objets métalliques dans le corps : bah oui, imaginez ce que va faire un morceau de métal dans un champ magnétique intense… Je ne parle même pas d’un patient ayant un pacemaker qui n’a pas le droit d’approcher un IRM à moins de 15 mètres.
  • La claustrophobie : le tunnel fait dans les 60cm de diamètre, on est attaché sur une table mobile et ça fait un boucan d’enfer…
  • L’obésité et les femmes enceintes (toujours le problème de l’étroitesse du tunnel). IRm-2

 L’IRM fonctionnelle : une révolution

Une autre révolution est l’IRM dite fonctionnelle, ou encore IRMf. Cette technique se base sur le fait que la désoxyhémoglobine (les globules rouges dans le sang auxquelles les atomes d’oxygène ont été absorbés par le métabolisme du corps) est sensible au phénomène de RMN. On peut alors exciter la fréquence de ces molécules par RMN et ainsi avoir un indice sur l’afflux de sang oxygéné qui chasse le sang désoxygéné. Ce signal appelé « signal BOLD » peut s’acquérir en IRM en environ une seconde seulement.

On peut alors enregistrer ce « signal BOLD » en temps réel sur un patient dans une IRM comme un film et suivre en direct l’oxygénation du cerveau lors d’exercices cognitifs qui mettent en avant quelles zones du cerveau sont actives. Cette technique a été révolutionnaire car elle permet une résolution spatiale de l’ordre du millimètre  et une résolution temporelle de l’ordre de la seconde sans aucune contrainte de répétitivité comme l’IRM est non invasive et ne génère pas de radiation. irmf1-grdImage obtenue par IRMf illustrant la dissociation dans le cortex orbitofrontal entre récompenses primaires (image érotique) et secondaire (gain d’argent). © CNRS.

Ces avantages ont permis de très grandes avancés pour la recherche en psychologie cognitive et comportementale ainsi qu’en psychiatrie dans les 10 dernières années. L’IRMf a détrôné la TEP (Tomographie par Emission de Positrons) qui était jusqu’alors utilisée pour faire des études du cerveau mais avec une résolution de plus de 250 mm3 et une résolution temporelle de 2 minutes tout en étant invasif et générant des radiations.

L’Hadronthérapie contre le cancer

C’est en lisant un des derniers billets des Quantum Diaries intitulé La face cachée du CERN que je me suis dit qu’un billet sur l’hadronthérapie serait un sujet très intéressant car prometteur et relativement peu connu du grand public.

La radiothérapie

La radiothérapie consiste à tuer les cellules cancéreuses d’un patient au moyen de radiations. L’idée de la radiothérapie consiste à exploiter le fait que les radiations peuvent détruire les cellules, quelles qu’elles soient. La difficulté est alors de détruire uniquement les cellules cancéreuses pour empêcher leur reproduction sans toucher aux cellules saines de manière à enrayer la maladie sans dommages collatéraux.

Il est à noter qu’aujourd’hui plus de la moitié des cancers sont traités à l’aide de la radiothérapie et que cette seule méthode peut entraîner une guérison complète avec des effets secondaires moindre qu’avec une chimiothérapie.

Les radiations peuvent être produites de 2 manières pour tuer les cellules cancéreuses :

  • La curiethérapie : Un élément naturellement radioactif est introduit dans le patient ou est placé à proximité de la zone à traiter.  Cette technique est utilisée principalement pour traiter les cancers du sein, de la prostate, de l’utérus et de la peau.
  • La radiothérapie externe : Un accélérateur de particules produit un faisceau de particules dirigé vers le patient de manière à irradier les cellules tumorales. C’est cette dernière méthode qui nous intéresse ici.

La difficulté est la suivante : les tumeurs peuvent être situées à la périphérie du corps ou bien enfouies profondément à l’intérieur comme dans le cerveau. Dans ce dernier cas, il faut alors trouver un moyen d’irradier fortement les cellules tumorales à l’intérieur en abîmant le moins possible les tissus alentours. Pour évaluer l’efficacité des faisceaux de particules à tuer des cellules, on calcule l’énergie qu’ils déposent dans les tissus, c’est ce qu’on appelle aussi la dose, qui est proportionnelle aux radiations induites sur les tissus pour les détruire. Il existe alors plusieurs types de radiothérapies externes qui exploitent différents types de rayonnement:

  • Faisceaux d’électrons : pénètrent faiblement dans les tissus et déposent toute leur dose quelques centimètres après le point d’entrée du faisceau dans le corps.
  • Rayons X (photons) : peuvent pénétrer en profondeur dans les tissus mais l’énergie déposée est maximale quelques centimètres seulement après le point d’entrée et diminue ensuite faiblement. Ainsi la majorité des tissus (sains et cancéreux) situés dans l’axe du faisceau sont irradiés fortement ce qui implique de déposer une dose relativement faible sur les cellules cancéreuses pour ne pas trop irradier les tissus sains.
  • Faisceaux de hadrons (protons ou ions carbones) : peuvent pénétrer en profondeur et une grande partie de l’énergie du faisceau est déposée une dizaine de centimètres après le point d’entrée du faisceau dans les tissus. De cette manière, la zone d’entrée du faisceau est peu irradiée, la zone où se situe la tumeur peut être fortement irradiée et la zone située derrière n’est pratiquement pas irradiée.

 Dépôts d’énergie de différents faisceaux (électrons, rayons X, protons) en fonction de la profondeur dans les tissus.

L’hadronthérapie

L’hadronthérapie permet ainsi de tuer des cellules cancéreuses enfouies à l’intérieur du corps comme dans le cerveau sans chirurgie tout en préservant au maximum les cellules saines autour de la tumeur. Mais au fait, c’est quoi un hadron ?

Les hadrons sont une classe de particules sensibles à l’interaction forte, c’est-à-dire à la force qui permet la cohésion des noyaux atomiques. Toutes les particules constituées de quarks comme les protons, neutrons ou n’importe quel noyau atomique sont des hadrons (contrairement aux leptons et aux bosons comme les électrons et les photons, voir mon billet sur le bestiaire des particules pour plus de détails).

Les hadrons ont cette caractéristique de déposer toute leur énergie d’un coup après avoir traversé une certaine épaisseur de matière, c’est ce que les physiciens appellent le pic de Bragg (voir la courbe rouge dans le dessin plus haut). Grâce aux bonnes connaissances que l’homme a acquises sur le fonctionnement de ces particules il est capable de fabriquer des accélérateurs de particules ultra-précis permettant de déposer l’énergie de ces hadrons exactement sur une tumeur de quelques centimètres enfouie au milieu de notre corps. Tout ça pour dire que la recherche fondamentale en physique des particules est indispensable pour développer de telles thérapies et que de très nombreux laboratoires en physique des particules comme le CERN ou GSI collaborent étroitement avec les instituts médicaux pour développer de telles thérapies. Aujourd’hui 2 types d’hadronthérapie existent et une vingtaine de centres en sont équipés dans le monde:

  • La protonthérapie qui utilise des protons. Plus de 30 centres sont opérationnels (à Orsay et à Nice pour la France), voir la liste ici.
  • L’hadronthérapie qui utilise des ions carbones. 5 centres sont opérationnels en  en Allemagne, en Chine et au Japon,  et plusieurs autres centres sont en construction (à Caen et à Lyon pour la France). Les ions carbones sont encore plus précis que les protons et permettent de déposer des doses plus importantes sur les cellules tumorales permettant ainsi de vaincre les tumeurs les plus radiorésistantes.

Salle de contrôle du synchrocyclotron au Centre de Protonthérapie d’Orsay.

Ces centres ont permis de traiter environ 7000 personnes dans le monde ces dernières années contre plusieurs millions par radiothérapie conventionnelle. En effet, cette méthode est relativement récente et est également plus chère que les autres méthodes mais elle est surtout plus difficile à mettre en œuvre à cause des équipements très sophistiqués à mettre en place. Cependant, elle est beaucoup plus précise et permet de soigner des tumeurs qui sont inopérables et non curables par radiothérapies conventionnelles lorsque ces dernières sont localisées près d’organes sensibles. De plus, les hadrons sont beaucoup plus efficaces pour tuer les cellules cancéreuses que les photons, de 2 à 10 fois plus efficaces selon les cas.

L’hadronthérapie est principalement utilisée pour soigner les tumeurs du cerveau non atteignables par neurochirurgie, certains cancers de l’œil qui nécessitaient une énucléation auparavant (extraction de l’œil) et certains cancers chez les enfants qui sont plus sensibles aux radiations et donc plus fragiles face aux techniques de radiothérapies conventionnelles utilisant des rayons X.

Je vous conseille ce petit reportage de 4 minutes sur le centre de radiothérapie de Heidelberg qui est en étroite collaboration avec GSI à Darmstadt: http://www.allodocteurs.fr/actualite-sante-hadrontherapie-une-radiotherapie-specifique-2631.asp?1=1

Radiothérapie avec de l’antimatière ?

Des recherches sont actuellement en cours au CERN à Genève sur la possibilité d’utiliser de l’antimatière, des antiprotons plus exactement, pour traiter les cancers. Cette expérience dénommée ACE pour Antiproton Cell Experiment, étudie comment l’antimatière peut détruire les cellules cancéreuses par annihilation matière/antimatière. Actuellement, l’expérience bombarde des cellules vivantes de hamsters avec des protons puis avec des antiprotons (pour voir la différence), et il apparaît qu’une énergie 4 fois inférieure avec des antiprotons permet de détruire autant de cellules cancéreuses tout en diminuant significativement la dose déposée dans les tissus sains.

L’expérience ACE au CERN étudiant l’effet des antiprotons sur des cellules de hamsters. © CERN.

Si cette expérience est concluante, peut-être que de futurs partenariats permettraient de développer dans quelques décennies une « antiproton thérapie » permettant de soigner des cancers difficiles d’accès en irradiant encore moins les cellules saines autours des tumeurs.

 

C’est l’espace : le CNES a 50 ans !

Le Centre National d’Etudes Spatiales (CNES) a 50 ans cette année et à cette occasion, il publie un ouvrage à mettre entre toutes les mains: C’est l’espace !

Le principe de ce bel ouvrage de 300 pages magnifiquement illustré est de recenser un ensemble hétéroclite de savoirs, d’histoires et de curiosités sous forme encyclopédique avec 101 entrées, de « Actualité » à « Vie ». D’une page à l’autre on voyage en ordre alphabétique, ce qui peut au début surprendre. On passera donc sans problème de Migration à Militaire puis à Mode. Au final, cette lecture parfois décousue permet au lecteur de tomber sur des articles assez inattendus et ce sont généralement de bonnes surprises.

Des sujets variés

Comme on peut l’attendre, les grands succès spatiaux comme Ariane ou Apollo avec le premier pas sur la Lune sont abordés mais les ratés sont aussi au menu comme l’article Désenchantement qui nous rappelle que la conquête spatiale est périlleuse. On gardera en mémoire l’explosion de la navette Challenger en 1986 qui a meurtrie l’Amérique. Au total, 21 astronautes sont morts en mission lors de 4 crashs depuis les débuts de l’aventure spatiale (en 1967, 1971, 1986 et 2003).

Il est bien sûr question des technologies spatiales et de science dans les articles, mais pas seulement. On y trouve des articles artistiques comme Architecture, Art Brut, BD, Chanson, Cinéma, Design, Mode, Publicité, Space Art, des articles politiques avec Bipolaire ou Europe ainsi qu’un grand nombre d’articles plutôt philosophiques tels Cieux et Spatialité. La science fiction est également de la partie avec des articles sur les Cyborgs, la TV, le Cinéma et la Littérature car la science fiction s’est souvent inspirée des technologies de l’espace, mais l’inverse est également vrai.

Personnellement, j’ai été très sensible aux textes des historiens qui nous rappellent que la conquête spatiale est passée par de très nombreuses étapes progressives et pas toujours très glorieuses comme l’histoire de la fusée nazie V2 assemblée par les détenues des camps de concentration et destinée à tuer des civils pendant la seconde guerre mondiale.  On verra d’ailleurs dans un grand nombre d’articles que cette fusée V2 à inspiré toutes les autres puissances spatiales et qu’elle réapparaît souvent.

Au fil des pages, des articles insolites peuvent aussi surgirent tel que Poste où l’on apprend que depuis les années 30, différentes compagnies postales prévoyaient l’envoi de courrier à l’aide de fusées. On s’étonnera de voir que la poste française avait conçu une fusée prototype en 1960 et qu’elle prévoyait d’envoyer le courrier vers la Corse en fusée dans les années à venir! Des articles permettent également de répondre à des interrogations légitimes telles que le Droit juridique dans l’espace ainsi que le Coût et l’organisation de ces gigantesques Projets. Mais ce sont surtout des articles qui nous font rêver en nous faisant des Promesses qui peuplent ce livre accessible à tous.

Cocorico

En dehors des Etats-Unis et de la Russie qui ont été les pionniers de l’espace, on parle évidemment de la France avant tout, puisque le CNES est une entité française et que ce livre se veut un peu comme le témoignage du CNES à la conquête spatiale française. On nous rappelle donc que la France a été la 3ème puissance spatiale mondiale après les USA et l’URSS en 1965 lors du lancement de son premier Satellite Astérix (Cocorico !).

On trouvera par exemple un article sur la base de Hammaguir en Algérie qui a été un terrain d’essai clef pour la France dans les années 50 et 60  ainsi qu’un article sur la venue de Gagarine en 1963 à Ivry-sur-Seine, commune alors communiste. Il est également question de l’antenne géante de Pleumeur-Bodou de 340 tonnes en Bretagne (le radôme), qui permit la première réception télévisuelle transatlantique le 10 juillet 1962 via le satellite Telstar.

Pour conclure

Pour conclure mon billet, j’utiliserai la même conclusion que l’article Cosmologie qui résume bien l’esprit de cet ouvrage qui fera sans doute des heureux à Noël: « Sans la physique, l’astronomie n’a pas de tête, sans le CNES, la physique n’a pas d’ailes. »

Plus d’infos avec des extraits: http://www.cnes.fr/web/CNES-fr/9642-c-est-l-espace-.php

Le vide

Qu’est-ce que le vide ? L’absence de matière ? Le rien ? Le néant ? La vacuité ? Selon le philosophe, l’ingénieur ou le physicien, la réponse peut varier. Ce billet va donc essayer de faire la lumière sur le vide…

Le vide: question de densité

Quand on veut évaluer la quantité de matière dans un espace défini, on utilise la densité (qui se mesure en kilogramme par mètre cube). Si on considère le vide comme l’absence de matière « pesante », faire le vide parfait consiste donc à avoir une densité de zéro kilogramme par mètre cube. Mais attention, ce n’est pas parce qu’il n’y a pas de matière « pesante » qu’il n’y a rien du tout comme on pourrait le croire de la lumière par exemple, puisque cette dernière n’a pas de masse. La définition devient alors plus ardue… On en reparle à la fin du billet…

 Le vide: question de pression

Cependant, pour évaluer le « vide », on utilise plus volontiers la pression qui est en fait directement liée à la densité: pour un gaz parfait, la pression est proportionnelle à la température multipliée par la densité (P= \rho \cdot R \cdot T). En revanche, si la température diminue, la pression diminue également donc lorsque l’on veut une très basse pression (et donc un vide poussé), il faut d’une part diminuer la densité, et d’autre part la température.

Je vous rappelle que la pression se mesure en pascal. Un pascal est équivalent à une force de 1 newton appliquée à 1 m², comme si on posait une masse de 100 grammes sur un mètre carré (sur Terre). La pression atmosphérique (environ 1 bar) est égale à 100 000 pascals, ce qui correspond à une masse de 10 tonnes par mètre carré sur Terre! Quand vous êtes allongé, il s’exerce donc une masse d’environ 10 tonnes d’air sur vous mais comme à l’intérieur de votre corps il règne une pression équivalente, les forces exercées se compensent et c’est pour cette raison que nous ne ressentons pas vraiment ces 10 tonnes d’air…

En revanche, dans un pneu de voiture gonflé à 2 bars, la pression différentielle entre la pression dans le pneu et la pression à l’extérieure est de 1 bar et il s’applique alors effectivement une force équivalente de 10 tonnes par mètres carré. De même, si vous faites le vide dans une enceinte (le vide parfait correspondrait à une pression égale à zéro), il s’exerce une force d’environ 10 tonnes par mètre carré.

Conclusion: lorsque vous voulez faire le vide dans une enceinte, cette dernière doit être suffisamment résistante mécaniquement pour supporter la différence de pression entre les 2 côtés des parois.

 Des molécules qui s’agitent

La pression est en fait due aux chocs des molécules contre les parois d’une enceinte. A 1 bar et à 20°C, les molécules d’air se déplacent en moyenne à 1700 kilomètres/heure et parcourent en moyenne 70 nanomètres (70 milliardième de mètre) entre 2 chocs, autant vous dire que notre air qui nous paraît si anodin est le théâtre d’un flipper géant à grande vitesse. Si la température et si la pression baisse, la vitesse des molécules va diminuer naturellement et la distance entre 2 chocs également. Par exemple, pour 0.1 pascal, les molécules parcourent 5cm entre 2 chocs et à 0.0000001 pascal, nos petites molécules parcourent 500 km avant de se rencontrer !

 Distribution des vitesses pour des molécules de diazote à différentes températures. © V. Baglin, Vacuum in Accelerators.

 Le vide de l’ingénieur

Pour l’ingénieur, la définition du vide est simplement l’absence de matière mais dans une moindre mesure. On parle de différentes qualités de vide selon la pression qui est directement liée à la densité ou au nombre de molécules par centimètre cube. N’oublions pas que dans l’air que nous respirons à 1 bar, il y a environ 10 milliards de milliards de molécules par centimètre cube !

  • Le vide primaire est défini par une pression de l’ordre de 100 pascals (soit mille fois moindre que la pression atmosphérique). Dans ce cas, un cm3 contient tout de même encore 10 millions de milliards de molécules !!!
  • Le vide moyen est entre 0.1 et 100 pascals.
  • Le vide secondaire a une pression comprise de 0.1 à 0.00001 pascal (soit encore un milliard de molécules par cm3).
  •  L’ultra-vide se situe entre 1 milliard et 10 000 molécules par cm3 (entre 10-5 et 10-10 pascal).
  • L’ultra ultra-vide est à moins de 10 000 molécules par cm3. Le trajet moyen d’une molécule avant d’en rencontrer une autre est alors d’environ 100 000 kilomètres et la pression est inférieure à 10-10 pascals (0.0000000001 pascal).

A titre de comparaison, la pression sur la Lune est de 10-7 pascal, c’est donc un ultra-vide (on sait d’ailleurs reproduire un tel vide sur Terre). En revanche, dans le vide interstellaire (entre les étoiles, loin de tout objet céleste) la pression est d’environ 1 atome par cm3, chose que l’homme n’a jamais réussi à atteindre sur Terre.

Comment faire le vide ?

Eh bien c’est très facile, il faut faire comme les Shadoks : Pomper, Pomper, Pomper ! Il existe différents types de pompe, chacune ayant ses particularités pour différentes qualités de vide. Les pompes sont utilisées en différents étages et pour différentes utilisations. Elles peuvent être utilisées seulement pendant la phase de pompage ou uniquement pour maintenir le vide. En effet, il ne suffit pas de faire le vide une fois et de mettre un bouchon pour maintenir le vide car tous les matériaux « dégazent », c’est-à-dire qu’ils libèrent naturellement des molécules. Ce phénomène diminue lorsque la température diminue mais reste néanmoins toujours présent. Je ne vais pas entrer dans les détails des différentes pompes mais simplement vous en présenter une que j’aime bien.

La pompe turbomoléculaire est une pompe permettant de faire un vide secondaire, voir un ultra-vide jusqu’à 1 milliardième de pascal. Elle est généralement utilisée pendant la phase de pompage pour « faire » le vide, pas pour le maintenir. Le principe de cette pompe consiste à frapper les molécules qui passent dans la pompe avec des roues à ailettes qui tournent à très haute vitesse pour les envoyer dans une direction bien précise. Les ailettes ont des tailles différentes permettant de « percuter » des molécules de tailles différentes (hélium, argon, diazote, dihydrogène, etc.). Pour vous donner un ordre d’idée, une pompe turbo tourne à environ 36000 tours par minute, soit 600 tours par secondes, ce qui correspond à une vitesse à l’extrémité des ailettes de plus de 720 km/h (2/3 de la vitesse du son). Les ailettes peuvent être montées sur roulement à billes pour tourner mais désormais, un système magnétique permet de faire tourner les ailettes sans frottement en les faisant léviter dans un champ magnétique.

Les applications du vide

Une question importante: à quoi sert le vide ? Eh bien, à de très nombreuses applications en matière d’ingénierie ou de recherche. En voici quelques exemples :

  • Toutes les techniques de dépôts de couches minces se réalisent sous vide comme la réalisation de couches minces pour les verres antireflets des lunettes ou pour les revêtements de matériaux très techniques dans les voiliers ou les formules 1.
  • La fabrication de circuits intégrés et de composants électroniques se fait également sous vide pour éviter la pollution des circuits avec des impuretés.
  • Les accélérateurs de particules nécessitent un ultra-vide pour permettre la circulation de faisceaux de particules sur plusieurs kilomètres sans provoquer de chocs avec des molécules résiduelles. A titre d’exemple, le vide pour les faisceaux du LHC est de 10-9 pascal sur 27 kilomètres !
  • De nombreuses expériences de physique utilisent des vides secondaires voire des ultra-vides pour différentes expériences à très basse température et pour limiter les interactions avec d’autres molécules, particulièrement en physique quantique.
  • La cryogénie nécessite un vide secondaire pour l’isolation thermique et réduire les pertes thermiques par convection.
  • Le Microscope Electronique à Balayage (voir ce billet pour plus de détails)
  • Le Microscope à Force Atomique pour manipuler les atomes un à un.

 Physique Quantique

En physique quantique le vide est défini comme « un état dans lequel tous les champs ont une énergie minimale ». Le vide est donc plein d’énergie, c’est ce que l’on appelle le vide quantique. Cela signifie qu’en physique quantique le « rien » n’existe pas. Une absence de matière peut donc être envisagée théoriquement (quant à la pratique, c’est impensable) mais une absence d’énergie est totalement exclue dans les théories modernes de la physique. Le simple fait d’avoir un champ électromagnétique (de la lumière) montre bien que même un espace dépourvu de matière n’est pas vide.

 La force de Casimir

Désolé, rien à voir avec l’île aux enfants et la grosse peluche jaune. Cette force du vide tire son nom du physicien néerlandais Hendrik Casimir (1909-2000) qui l’avait prédite en 1948 et qui fut observée 10 ans plus tard en laboratoire alors que les technologies avaient suffisamment évolué.

 

La prédiction de Casimir (le physicien) était la suivante : « Si on place parallèlement 2 plaques conductrices non chargées dans vide à une faible distance l’une de l’autre, une force tend à rapprocher les 2 plaques ». Cet effet est directement lié aux énergies du vide quantique et a été observé un grand nombre de fois en laboratoire. Comme quoi le vide n’est jamais vide !

Bref, vous l’aurez compris, la maxime : « la nature a horreur du vide » est une réalité car la nature tend à remplir le vide de manière à équilibrer les pressions et le vide n’est jamais vraiment vide… Einstein a notamment écrit que « les objets physiques ne sont pas dans l’espace, mais ces objets ont une étendue spatiale. De la sorte, le concept d’espace vide perd son sens».

L’échographie

Tout le monde connait les images d’échographie faites chez les femmes enceintes pour voir les futurs bébés. Mais comment ces images sont-elles obtenues ?

echo1trim

Echographie d’un fœtus de 3 mois mesurant 4,5 cm.

L’échographie est une technique d’imagerie médicale non invasive (pas de substance à injecter dans les patients) et complètement inoffensive pour l’organisme, contrairement aux autres techniques d’imageries médicales qui peuvent utiliser des rayons ionisants radioactifs (radiographies), de puissants champs magnétiques (IRM) ou des agents de contraste radioactifs (comme la Tomographie par Emission de Positrons).

Des ultrasons qui rebondissent

L’échographie utilise les ultrasons. Ce sont des ondes acoustiques hautes fréquences qui sont inaudibles par l’homme (les ultrasons ont une fréquence de 20kHz à 1GHz). Voir ce billet de blog sur le son pour plus de détails sur les ondes sonores.

Les ultrasons pénètrent plus ou moins bien dans les différents milieux qu’ils traversent. La résistance à la propagation d’une onde acoustique s’appelle une impédance acoustique (généralement notée Z) et se mesure en Pascale seconde par mètre (Pa.s/m). Cette impédance est en fait égale à la densité du matériau multipliée par la vitesse du son dans ce matériau (Z = D * c). Donc plus un matériau est dense et plus la vitesse du son est importante, plus l’impédance acoustique augmente.

Densité

(kg/m3)

Vitesse du son

(m/s)

impédance acoustique

(Pa.s/m)

Air 1,204 343 413
Eau 1000 1480 1,48 millions

De plus, une partie des ondes sonores (et donc les ultrasons) rebondissent lorsque l’impédance acoustique change, c’est-à-dire aux interfaces entre les différents milieux. C’est pour cette raison que sous l’eau, on entend très peu ce qui se passe à la surface car une grande partie des ondes sonores rebondissent sur l’eau et très peu sont transmises sous l’eau car les impédances de l’eau et de l’air sont très différentes.

Le principe de l’échographie revient à balayer à l’aide d’ultrasons une zone à étudier (par exemple l’utérus d’une future maman) et de mesurer et d’analyser les ondes ayant rebondi aux différentes interfaces (l’écho des ultrasons) de manière à reconstituer une image des différents milieux traversés.

Les liquides vont renvoyer très peu d’écho et apparaitront alors en noir à l’écran, les tissus mous renverront un peu d’écho et apparaitront en gris selon l’impédance de ces derniers, et les os ayant une impédance très forte (entre 3,6 et 7 millions Pa.s/m) formeront une image bien blanche.

 ultrasons foetus

Réflexions des ultrasons aux interfaces des milieux traversés ((c) Noémie).

 L’échographe

Pour une échographie, le médecin utilise une sonde qui remplit 2 fonctions :

Emission : La sonde balaye une zone à l’aide d’ultrasons. Ces derniers sont générés à l’aide de matériaux piézoélectriques comme des céramiques qui se déforment lorsqu’ils sont soumis à un champ électrique. Cette déformation entrainent des ondes ultrasonores et la fréquence réglable permet de pénétrer plus ou moins profondément dans le corps selon le type d’échographie réalisée (on augmente la fréquence pour pénétrer plus en profondeur). Le balayage est ensuite assuré soit par un système mécanique, soit par un dispositif électronique de manière à balayer un secteur. C’est pour cette raison que les échographies se présentent généralement sous forme d’une image dans un cône correspondant à la région balayée par la sonde.

Réception : La sonde capte les échos des ultrasons réfléchis aux interfaces. L’écart de temps entre l’émission et la réception permet de connaitre précisément la profondeur où l’onde a rebondi. De plus, la sonde mesure l’amplitude de l’écho permettant de savoir si une partie importante a été réfléchie ou pas.

Le signal reçu par la sonde est ensuite amplifié par un système électronique puis chaque ligne de tir est reconstituée pour former une image en 2 dimensions. Un point variant entre le noir et le blanc est alors créé en fonction de l’intensité de l’écho. L’espace entre les lignes de tirs est alors complété par interpolation entre les différentes données obtenues de manière à créer une image continue.

matrice echo

Formation d’une image d’échographie ( Source: ENSTA)

 On applique également un gel échographique sur la zone à analyser. Ce gel possède une impédance acoustique proche de celle de la peau de manière à ce qu’il n’y ait pas d’air entre la peau et la sonde car l’air ayant une impédance très faible fausserait les mesures. C’est également pour cette raison que l’échographie ne peut pas être utilisée comme méthode d’imagerie médicale pour les poumons ou la trachée qui contiennent de l’air.

Echographie 3D

 Une nouvelle technique d’échographie dite « 3D » a vu le jour durant la dernière décennie et est désormais monnaie courante dans les examens gynécologiques pour voir les fœtus en 3D ! La technique de balayage diffère de l’échographie 2D classique car 3 plans de balayages perpendiculaires sont réalisés pour obtenir des informations volumiques. Des techniques perfectionnées de traitement des données et de rendu surfacique permettent ensuite de reconstituer une image en 3 dimensions.

 
echographie-3D

Echographie 3D d’un fœtus de 3 mois (Source : Le journal des Femmes)

Cette « échographie en relief » permet de diagnostiquer plusieurs malformations du fœtus qui sont extrêmement difficiles à diagnostiquer en échographie 2D, particulièrement les malformations de la face, de la colonne vertébrale et des membres.

En conclusion

L’échographie utilise la réflexion des ultrasons aux interfaces des différents milieux pour reconstituer une image interne de notre corps en noir et blanc. Cette méthode est donc entièrement inoffensive et convient particulièrement bien aux femmes enceintes pour voir le fœtus dans l’utérus (échographie gynécologique). De plus, l’échographie est facile à mettre en œuvre et peu chère pour une imagerie médicale.

Les sous-marins

Les sous-marins intriguent les plus petits comme les plus grands et font toujours l’objet de curiosités et de questionnements… D’où vient donc ce pouvoir de fascination ?

 Alex_SousMarin2.jpg

Le Drakkar sous-marin vu par Alex

 Quel enfant n’a jamais rêvé de pénétrer dans un sous-marin ? C’est aujourd’hui possible dans de nombreux sous-marins démantelés et mis en exposition comme l’Argonaute (sous marin des années 50) à la cité des sciences de la Villette à Paris ou le Redoutable à Cherbourg (le premier sous marin nucléaire français). Cependant, il est souvent difficile de se faire une idée de leur fonctionnement, ce que je vais donc essayer de vous expliquer dans ce billet.

Le sous-marin se différencie du bathyscaphe par sa capacité à pouvoir se déplacer en surface de l’eau ainsi que sous l’eau dans les 3 dimensions (le bathyscaphe ne peut se déplacer que selon l’axe vertical). Un sous-marin est donc doté d’un système de propulsion et de safrans de direction (gouvernails) pour se mouvoir dans les 3 dimensions ainsi que d’un ensemble de ballasts pour plonger et « flotter entre deux eaux ».

Le principe physique

Les sous-marins sont basés sur le principe de la poussée d’Archimède qui dit que « Tout corps plongé dans un fluide au repos, entièrement mouillé par celui-ci ou traversant sa surface libre, subit une force verticale, dirigée de bas en haut et opposée au poids du volume de fluide déplacé ; cette force est appelée poussée d’Archimède ». On peut formuler cette loi de manière mathématique en écrivant que la force résultante de cette poussée verticale vers
le haut est égale à : F = rho* V * g où « rho » et « V » sont la densité et le volume du fluide déplacé et « g » est l’accélération gravitationnelle (environ 10 m/s2 pour la Terre).

Appliquée au sous-marin, cette loi physique implique que pour faire demeurer le sous marin sous l’eau à une profondeur constante, sa densité doit être égale à la densité de l’eau. Si la densité du sous-marin est supérieure, il coule et si sa densité est inferieure, il remontera vers la surface.

Comme les sous-marins doivent maitriser leur densité pour monter ou descendre et qu’ils ont un volume constant, un système de ballasts pouvant se remplir d’eau ou d’air permet de modifier la masse et donc la densité du sous-marin. Les ballasts sont des réservoirs situés entre la coque extérieure et la coque intérieure des sous-marins. Elles sont disposées symétriquement de manière à bien équilibrer le sous-marin et peuvent être reparties différemment selon le type de sous-marin. Il existe aussi des volumes plus petits appelés régleurs qui permettent de maitriser précisément la masse du sous-marin pour adapter sa densité exacte en fonction du nombre de personnes et d’équipement à son bord.

 ballastesRépartition des ballasts dans différents types de sous
marins.
Source : http://codingrulz.free.fr/fichiers/ballast.htm

 La coque

Plus on plonge profondément, plus la pression exercée par l’eau sur le sous-marin est importante : c’est le principe de Pascale qui peut s’écrire : dP = rho * g * dz avec « dP » la différence de pression en Pascal, « rho » la densité du liquide ou du gaz, « g » l’accélération gravitationnelle (environ 10 m/s2 pour la Terre) et « dz » la différence de hauteur, c’est-a-dire la profondeur pour un
sous-marin.

Dans le cas d’un sous-marin à 10 mètres de profondeur sous l’eau (rho=1000 kg/m3 pour l’eau) la pression augmente donc de dP = rho * g * dz = 1000 * 10 * 10 = 100 000 Pascal = 1 bar.

Pour un sous-marin qui plonge à 200 m, il doit donc endurer des pressions de 20 bars sur sa coque car on veut conserver une pression de 1 bar à l’intérieur. Pour supporter ces pressions, les sous-marins possèdent 2 coques : la coque extérieure permet d’isoler les ballasts et ne subit aucune pression, elle est donc légère et sa forme est calculée pour être aérodynamique dans l’eau alors que la coque intérieure doit être suffisamment épaisse et élastique pour encaisser les changements de pression. Il faut en général augmenter l’épaisseur de la coque intérieure de 10 mm pour pouvoir résister à une augmentation de pression de 10 bar (soit environ 100 m).

Le pilotage

Les sous-marins possèdent un système de propulsion pour se déplacer en translation selon 1 axe ainsi qu’un ensemble de safrans de direction pour modifier la trajectoire et l’inclinaison du sous-marin comme dans un avion. Les salles de contrôles des sous-marins modernes ressemblent donc plus à un cockpit d’avion qu’à une cabine de bateau.

Des caisses d’assiettes permettent également un équilibrage longitudinal du sous-marin de manière à le conserver horizontal ou selon un angle précis avec l’horizon quelques soit les déséquilibres dus aux mouvements de personnes et de matériels à l’intérieur.

USS Seawolf Control Room

Salle de contrôle du sous-marin américain USS
Seawolf ( SSN 21)

 Les systèmes de propulsion

Le système de propulsion d’un sous-marin doit répondre à 3 grandes exigences :

  • Prendre le moins de place possible en prenant en compte le combustible embarqué.
  • Etre le plus silencieux possible pour ne pas se faire repérer par des sonars.
  • Fonctionner de manière anaérobie autant que possible, c’est-à-dire sans utiliser d’air vu qu’en immersion totale, le milieu extérieur est l’eau et non l’air.

 La propulsion mixte diesel-électrique a été la méthode de propulsion la plus utilisée dans la première moitié du 20ème siècle, particulièrement lors des deux guerres mondiales.  Le principe consiste à utiliser un moteur diesel en surface qui est bruyant et nécessite de l’air pour fonctionner tout en rechargeant des accumulateurs électriques qui pourront par la suite alimenter un moteur électrique lors des plongées car les moteurs électriques sont silencieux et anaérobies (ils fonctionnent sans air). Le problème de cette technique est que les accumulateurs électriques prennent beaucoup de place pour une autonomie réduite, en générale une dizaine d’heures.

 Pour remédier à ce problème majeur entrainant une grande vulnérabilité des sous-marins, les hollandais inventèrent un tube à air périscopique appelé schnorchel qui permet de faire fonctionner les moteurs diesels lorsque le sous-marin est à quelques mètres de profondeur. Ce tube dépasse de 1 mètre environ du niveau de l’eau et permet de faire une entrée et une sortie d’air pour les moteurs diesels (le sous marin est donc nettement moins visible). Les têtes des schnorchels ont par la suite été équipées par les Allemands d’un clapet permettant d’éviter l’entrée d’eau dans le tube en cas de mer agitée.

  Alex SousMarin1

Merguez partie au dessus du Schorchel (dessin d’Alex)

 La propulsion nucléaire est le type de propulsion le plus utilisé dans les 50 dernières années pour les sous-marins militaires qui recherchent une grande autonomie sous-marine de manière à couvrir de grandes distances sans avoir besoin de remonter à la surface. Le premier sous-marin nucléaire de l’histoire est le sous-marin américain Nautilus (1954).

 Un réacteur nucléaire (généralement à eau pressurisée) fournit de la chaleur grâce à la fission nucléaire de combustible tel que l’uranium. Cette chaleur permet d’évaporer de l’eau entrainant une turbine à haute vitesse. Cette turbine est ensuite couplée à un alternateur produisant de l’électricité pour alimenter un moteur électrique faisant tourner l’hélice du sous-marin (la turbine peut également entrainer directement l’hélice mais il y a toujours un alternateur pour fournir de l’électricité dans tout le sous-marin)

sousmarin nucleaireSchéma de fonctionnement d’un sous-marin nucléaire

La propulsion nucléaire comporte tous les avantages requis dans un sous-marin : le combustible prend peu de place et demande peu de réapprovisionnement (à titre d’exemple, le sous-marin nucléaire français Rubis peut fonctionner 30 ans sans approvisionnement). De plus, l’autonomie en plongée est de plusieurs mois tout en gardant une puissance de propulsion importante en immersion totale (contrairement aux autres propulsions).

Les AIP (Air Independent Propulsion) représentent une autre classe de propulsion permettant au sous-marin de fonctionner avec un type de propulsion classique mais sans apport d’air tout en  s’affranchissant du danger que peu représenter un système à propulsion nucléaire. La première solution AIP a été d’utiliser la propulsion classique diesel mais en recyclant les gaz d’échappement en réinjectant de l’oxygène stocké sous forme liquide à bord (peu d’autonomie). Les suédois utilisent quant à eux une propulsion mixte moteur Stirling-électrique pouvant fonctionner sans air. Un moteur Stirling est un moteur à combustion externe nécessitant simplement un gaz à comprimer et à détendre avec une source chaude et une source froide. Enfin la propulsion AIP la plus prometteuse est sans doute l’utilisation de la pile à combustible hydrogène
comme le sous-marin allemand Unterseeboot type 212 ayant une autonomie anaérobie complète de 3 semaines avec une signature acoustique faible.

AIP.jpg
Schéma de principe du procédé Stirling de Kockums. Source : Zone sous-marin

 PS : Encore merci à Alex pour ces petits dessins spécialement faits pour ce billet.

 

Le MEB : Microscope Electronique à Balayage

Vous avez sans doute déjà vu de jolies images noir et blanc en trois dimensions prises à l’aide d’un Microscope Electronique à Balayage mais comment fonctionne cet instrument ?

  oeil mouche

Un œil de mouche grossis 100, 1000 et 10 000 fois à l’aide d’un MEB (cliquer pour
agrandir) Images du Service commun de microscopie électronique de l’Institut Carnot de Bourgogne

Le microscope Electronique à Balayage (MEB en français ou SEM en anglais pour Scanning Electron Microscope) est un instrument scientifique permettant de réaliser des images de la surface d’objets en 3 dimensions avec une très haute résolution de l’ordre du nanomètre (milliardième de mètre). La résolution d’un instrument de grossissement est définit par la taille minimale détectable par l’œil humain sur l’image produite par cet instrument. Ceci signifie qu’une image produite par un MEB permet de différencier distinctement 2 points séparés de moins d’un nanomètre.

 Depuis la fin des années 60, le MEB est un instrument commercialisé pour les instituts de recherche dans le monde qui ont besoin de « voir » à l’échelle nanométrique. Aujourd’hui, un MEB coûte entre 150 000 euros et presque un million d’euros pour les modèles ultra perfectionnés avec les logiciels appropriés.

 Les microscopes optiques

Les microscopes « classiques », c’est-à-dire « optiques », utilisent des lentilles pour focaliser la lumière traversant un échantillon placé sur une lamelle de verre de manière à grossir l’image de l’objet. Ces microscopes ne peuvent donc observer que des échantillons « plats » et la résolution maximale de ces microscopes est de l’ordre de 200 nanomètres. Ceci signifie qu’il est impossible avec un microscope optique de discerner des détails inférieurs à 200 nanomètres. Cette limite physique s’explique par le fait que la lumière visible possède une certaine longueur d’onde (entre 400 et 700 nanomètres) et qu’il est impossible d’observer des détails ayant une taille inférieure à environ la moitié de cette longueur d’onde (voir la nature électromagnétique de la lumière pour plus de détails sur la lumière).
microscope optique
Un microscope optique et une cellule humaine vue à l’aide de ce microscope

 Fonctionnement du MEB

 Le MEB n’utilise plus la lumière comme vecteur pour « voir » mais un faisceau
d’électrons
comme son nom le laisse suggérer car la longueur d’onde des faisceaux d’électron est beaucoup plus petite que celle des photons. De plus, le rayon d’un faisceau d’électron peut avoisiner le nanomètre. Les MEB ont une résolution qui se situe entre 0,4 et 20 nanomètres (soit 500 fois plus que le meilleur microscope optique réalisable).

 MEB hitachi

Un MEB  commercialisé par Hitachi

 Le principe général est en somme assez simple: l’échantillon à observer est balayé par un faisceau électronique et on vient détecter les électrons secondaires de très faible énergie qui sont produits suite au bombardement de l’échantillon. Ces
électrons secondaires sont amplifiés, détectés puis interprétés pour reconstruire une image en fonction de l’intensité du courant électrique produit. Le MEB réalise donc une topographie de l’échantillon à analyser, c’est pourquoi le MEB fournit des images en noir et blanc où chaque nuance de gris est le résultat de l’intensité du courant détecté.

 Un MEB est constitué des éléments suivants :

  • Un canon à électron qui envoie un faisceau d’électrons (source d’électrons
    primaire).
  • Une lentille magnétique qui focalise les électrons comme peut le faire une lentille optique avec la lumière de manière à obtenir un faisceau très fin et focalisé.
  • Des bobines de balayage permettant balayer la surface de l’échantillon à observer avec le faisceau d’électrons. Ces bobines sont positionnées perpendiculairement de manière à faire parcourir des lignes au faisceau de la même manière que dans une télévision.
  • Une pompe à vide permettant de faire le vide dans l’enceinte où se trouve l’échantillon. En effet, pour obtenir une mesure précise, il est important de faire le vide dans l’enceinte (environ 10-3 Pascal).
  • Un détecteur permettant de détecter les électrons secondaires. Un détecteur d’Everhart-Thornley est généralement utilisé. Les électrons secondaires sont « captés » grâce à un champ électrique positif d’environ 500 Volts de manière à diriger les électrons vers un scintillateur convertissant ces derniers en photons. Les photons ainsi produits sont envoyés vers un photomultiplicateur via une fibre optique pour retransformer les photons en un nombre important d’électrons qui sera mesurable par un dispositif électronique classique. Ce type de détecteur est utilisé pour faire de l’imagerie en électron secondaire mais il existe d’autres techniques d’imagerie comme l’imagerie en diffraction d’électrons rétrodiffusés (EBSD) ou l’imagerie en courant d’échantillon (EBIC).

 fourmi

Tête d’une fourmi (cliquer pour agrandir) image de l’Ecole Catholique d’Arts et Métiers de Lyon

Pour plus de détails sur les différents modes de fonctionnement des MEB, je vous suggère la lecture de ce cours de microscopie électronique donné par M. Perrin : http://www.cmeba.univ-rennes1.fr/Principe_MEB.html

 Les applications

La Microélectronique et les nanotechnologies utilisent massivement le MEB comme
outil d’observation. En revanche, pour l’observation et la manipulation d’atome individuellement, c’est un microscope à effet tunnel qui est utilisé dans les nanotechnologies. Les Sciences des matériaux ont recours au MEB pour étudier les micro-structures de matériaux ainsi que leur surface de manière à mieux comprendre certaines propriétés physiques et mécaniques.

 788px-Misc pollen

Grains de pollen de quelques plantes communes grossis 500 fois (cliquer pour agrandir) Image du collège de Darthmouth

 La Biologie utilise également des MEB en plus des microscopes optiques traditionnels qui sont utilisés pour observer les cellules. Le MEB permet d’obtenir des images de micro-organismes comme des bactéries ou des virus. Il est également utilisé pour observer des détails de plantes ou d’insectes.

La question du jour : que représente l’image suivante prise au MEB (la réponse est désormais dans les commentaires):

MEB img dart

ARVA : Appareil de Recherche de Victimes en Avalanches

Tous les skieurs de randonnée sont familiers à cet appareil qui peut sauver des vies en cas d’avalanches. 

avalanche.jpg
Trois skieurs passant devant une avalanche

Hier, j’ai participé pour la deuxième fois à la journée sécurité de la section de ski de randonnée du CERN pour s’entrainer à utiliser cet appareil. Explication de son fonctionnement ici !

Attention : ce billet n’est pas une explication de l’utilisation d’un ARVA qui est propre à chaque appareil et que tous les utilisateurs doivent connaitre avant de faire des sorties! Il est conseillé pour cela de faire des formations pratiques sur le terrain avec des professionnels.

Le terme ARVA représente en France l’ensemble des appareils capables d’émettre ou de chercher un signal électromagnétique dans le but de localiser des personnes ensevelies par une avalanche. Notez qu’en Suisse, on parle de DVA (Détecteur de Victimes d’Avalanche).

Un ARVA peut fonctionner soit en monde émission (mode par défaut pendant la randonnée), soit en mode réception pour détecter d’éventuels signaux provenant d’un autre appareil enseveli sous la neige.

 L’émission

L’ARVA émet un signal électromagnétique haute fréquence bien précis de 457 kHz (norme internationale depuis 1992). Il est équipé d’une antenne dipolaire créant un champ ,électromagnétique dans son entourage. 

arva_dipole.jpg

Lignes de champ électromagnétiques crées par un ARVA

 L’antenne est constituée d’un barreau de ferrite entouré d’une bobine électrique généralement orientée selon le plus grand côté de l’appareil. En alimentant cette
bobine par un signal électrique, on créé un champ électromagnétique. Si les piles de l’ARVA sont usées, le signal sera moins fort : il est donc indispensable d’avoir des piles bien chargées ! Pour économiser les piles, le signal n’est pas émis de manière continue mais par des impulsions brèves. La portée du signal peut variée entre 30m et 60m selon les modèles et les, piles.

arva_signal.jpg

Signal émis par un ARVA selon la norme ETS300718

 La réception

Si une avalanche se produit et ensevelie plusieurs personnes, toutes les personnes à la surface éteignent leur ARVA (s’ils sont dans une zone sécurisée) et une (ou plusieurs) personnes va passer son ARVA en position «récepteur» de manière à localiser les signaux émis par les ARVA des personnes sous la neige.

avalanche tintin

   A l’époque de Tintin, l’ARVA n’existait pas encore, mieux valait avoir un chien…

Le signal reçu est maximal lorsque les 2 antennes se rapprochent et lorsqu’elles sont parallèles (enfin lorsque l’antenne réceptrice est parallèle à la ligne de champ). La position de l’ARVA de la personne ensevelie par rapport à la position de l’ARVA de la personne effectuant les recherches est donc très importante et difficile à gérer comme on ne connait pas la position de la personne ensevelie.

Il existe des ARVA analogiques dans lesquels un « BIP » sonore augmente lorsque le signal reçu augmente (il y a en général une molette de calibrage pour obtenir un réglage plus fin). Dans ce cas, il n’y a pas d’indication de distance ou de direction et leur utilisation demande un entrainement régulier pour être efficace en situation réelle (en général, on dispose de 15 minutes pour retrouver une personne vivante).

Depuis quelques années, le marché a vu l’apparition d’ARVA numériques qui permettent d’évaluer la distance (en fonction de la force du signal) ainsi que la direction de l’émetteur grâce à une deuxième antenne réceptrice perpendiculaire à la première (voir même une troisième de manière à former un trièdre dans les 3 dimensions).

ARVA
Un ARVA analogique et un ARVA numérique

Attention : la distance et la direction données par les ARVA (analogiques et numériques) ne sont pas forcément très bonnes et peuvent induire en erreur, particulièrement pour des récepteurs à une seule antenne :

– La position entre l’antenne émettrice et l’antenne réceptrice affecte l’intensité du signal reçu. Si l’antenne réceptrice est orientée selon la ligne de champ, le signal est maximal, à 45° le signal est divisé par environ 1,4 et si l’antenne est perpendiculaire aux lignes de champ, le signal est quasi-nul !! On voit ici l’intérêt d’avoir un ARVA possédant 2 ou 3 antennes pour être sûr de toujours détecter un signal assez fort.

– Il est important de savoir que les appareils fournissant une direction et une distance sont basés sur les lignes de champ du signal reçu. Ceci implique que
la distance n’est pas la distance en ligne droite mais la distance en suivant la ligne de champ qui est courbe. De plus, la direction n’est pas la direction en ligne droite mais la direction de la ligne de champ, sachant que le sens n’est pas connu : on peut donc partir à priori dans le sens opposé, d’où l’importance de vérifier que la distance diminue bien lorsqu’on suit une direction (ne pas hésiter à faire demi-tour).

 avalanche_arva.jpg

 Evolution d’une recherche avec un ARVA

Plusieurs situations possibles selon l’orientation de la personne ensevelie :

ARVA_cas1.jpg

Personne enfouie horizontalement (le cas le plus courant) : le maximum est atteint juste au dessus de la victime (b) si on tient son ARVA horizontalement au sol et les maxima locaux ,sont symétriques (a et c).

 

ARVA_cas2.jpg

Personne enfouie verticalement (rare) : on détecte 2 maxima de part et d’autre de la victime (a et c) et un minimum juste au dessus (b) si on tient son
ARVA horizontalement au sol.

ARVA_cas3.jpg

Personne enfouis en biais (fréquent) : On détecte un maximum à proximité de la victime mais pas à l’aplomb (b) et les maxima locaux (a et c) ne sont pas
symétriques.

 Pour faire face à ces différents problèmes de recherche, il existe différentes techniques spécifiques (que je ne détaillerai pas ici, ce n’est pas le propos de ce billet) mais celles-ci demandent un entrainement vraiment régulier et allongent significativement le temps de recherche. Les ARVA équipés de plusieurs antennes de réception sont une première solution car ils permettent de gérer plusieurs directions à la fois et sont donc plus efficace lorsque la personne n’est pas parfaitement horizontale mais ils ne résolvent pas non plus tous les problèmes étant donnée que la position de l’ARVA enseveli est inconnue. Il faut simplement avoir en tête ces lignes de champ et ne pas suivre aveuglément les indications tout en évitant de « brusquer » les ARVA en les faisant tourner dans tous les sens pour ne pas les « perdre ».

Le contrôle industriel

Les raffineries de pétrole, les centrales nucléaires, les sucreries, les chaines d’assemblage automobile, les stations d’épuration, les fabriques de textiles, les aciéries, etc. Toutes ces industries ont un point commun : elles sont pilotées de manière plus ou moins automatique, mais comment ?

Chaplin Modern Times

La discipline qui s’occupe de répondre à cette question s’appelle le contrôle industriel et regroupe un ensemble très divers de techniques, de technologies et de disciplines scientifiques pour automatiser les différents processus industriels.

L’industrie

Un processus industriel représente un ensemble de machines et d’équipements permettant la fabrication ou la transformation de produits identiques en grande quantité.

Le contrôle industriel est né naturellement avec l’Organisation Scientifique du Travail (OST) à la fin du 19ème siècle (taylorisme puis fordisme) dont l’objectif était de développer scientifiquement une nouvelle technique pour chaque aspect de la tâche d’un travailleur, pour remplacer la méthode empirique utilisée traditionnellement. En gros: remplacer les hommes par des machines !

fordisme

Les systèmes de contrôle

Pour contrôler ces machines industrielles modernes, l’homme a du créer des systèmes de contrôle capables de piloter ces machines. Ainsi, on voit se dessiner naturellement 3 entités distinctes interagissant au sein des industries :

  • 1 – Les hommes (directions, ingénieurs, techniciens, opérateurs)
  • 2 – Les systèmes de contrôle (systèmes de communication, d’archivage et de calcul)
  • 3 – Les processus (les équipements et les machines)

Entre chaque entité, il existe des interfaces permettant d’échanger des informations. Ces interfaces ont fortement évoluées durant les dernières décennies grâce au « boom » des télécommunications. Ces 3 interfaces sont les suivantes:

  • – L’instrumentation : communication entre le système de contrôle et les machines au travers de capteurs (capteur de température, de pression, etc.) et d’actionneurs (vannes, vérins, moteurs, etc.).
  • L’Interface Homme Machine (IHM ou HMI en anglais) : système de supervision
    permettant de surveiller et de diagnostiquer l’état des équipements mais aussi d’agir sur eux en dialoguant avec le système de contrôle.
  • L’Interface locale : interaction physique directe entre les hommes et les machines en cas d’opération manuelle nécessaire sans avoir recours au système de contrôle (ex : ouverture d’une vanne à la main).

 Le système de contrôle peut alors être divisé en 3 couches distinctes:

  • a) Couche de terrain : système de communication avec le processus. Cette communication se fait généralement par le biais de bus de terrain (un réseau robuste adapté au milieu industriel pour dialoguer avec les capteurs et actionneurs).
  • b) Couche de contrôle : contient la logique de fonctionnement du processus pour le piloter. C’est ici que toute la connaissance est stockée et que les calculs sont effectués, généralement par des PC industriels ou des Automates Programmables Industriels (API ou PLC anglais). En général, c’est un algorithme informatique qui est exécuté de manière cyclique en temps réel. Cet algorithme lit les données du processus (entrées) et calcule la position des différents actionneurs (sorties) pour piloter le processus.
  • c) Couche de supervision : permet de réaliser l’Interface Homme Machine. En général un système de base de données archive les données des processus et les opérateurs agissent et surveillent les installations via des terminaux de supervision comme des ordinateurs ou des écrans tactiles reliés à cette base de données via un réseau Ethernet.

syst controle

L’automatique

Une fois toutes ces infrastructures de contrôle mises en place, il faut étudier le fonctionnement et la dynamique des processus pour pouvoir les contrôler à partir d’un programme informatique exécuté dans la couche de contrôle.

La science qui étudie la modélisation, l’analyse, la commande et la régulation
des systèmes dynamiques s’appelle l’automatique. Cette discipline (qui est le cœur de mon métier) peut faire partie de la physique, de l’informatique ou des sciences de l’ingénieur selon l’approche adoptée (c’est d’ailleurs une question qui divise malheureusement notre communauté). Dans l’industrie, on parle le plus souvent de contrôle-commande pour parler de cette discipline lorsqu’elle est appliquée à un système industriel.

J’ai déjà fait sur ce blog trois billets pour l’automatique (une Introduction, La Modélisation et La Commande) et je ne vais pas donc entrer dans les détails ici. Il faut juste retenir que pour mettre en place des systèmes de régulation (par exemple maintenir la température d’un four à 1000°C ou maintenir un ratio précis entre du propane et du butane dans une colonne de distillation), une modélisation dynamique des processus est nécessaire (il faut mettre les différentes grandeurs physiques des processus en équations) de manière à venir étudier la stabilité et le comportement des systèmes pour pouvoir mettre en place une loi de commande pour piloter les actionneurs (vannes, chauffages, moteurs, vérins, etc).

Les applications

Il est impossible de lister de manière exhaustive tous les domaines d’application du contrôle industriel car il intervient dans absolument tous les domaines de l’industrie. On peut juste citer l’aérospatial, l’agroalimentaire, l’automobile, la chimie, l’énergie, l’environnement, la médecine, l’extraction des sols (mines), le pétrole, la pharmacie, le papier, le transport, les textiles, le verre, la céramique, la sidérurgie, etc.

 Cependant, il est utile de préciser que les techniques du contrôle industriel peuvent être utilisées en dehors des industries et des usines. C’est le cas par exemple dans les grands instruments scientifiques comme les accélérateurs de particules. En effet, ces machines sont très similaires aux installations industrielles et elles utilisent les mêmes outils que l’industrie en matière de contrôle, même si parfois il faut développer des solutions spécifiques à ces machines uniques au monde. Ainsi, tout le système de contrôle permettant le refroidissement des 27 km d’aimants supraconducteurs du LHC (le plus puissant accélérateur de particules du monde au CERN à Genève) est analogue aux systèmes de contrôle que l’on pourrait trouver dans une raffinerie de pétrole. Pour info, le système de contrôle pour le refroidissement des aimants (un système parmi tant d’autres dans le LHC) comprend à lui seul 42 000 entrées/sorties et plus de 5000 boucles de régulation: on voit bien ici l’intérêt d’un système de contrôle industriel !!

 qsrb

Ecran de supervision du système de contrôle pilotant un réfrigérateur à hélium pour le LHC

Le LASER

Depuis la fin des années 60, les lasers ont envahi notre quotidien et notre industrie. Que ce soit dans les procédés de découpe ou de soudure, les méthodes de lecture de l’information, les méthodes de guidage, les moyens de communication, les systèmes de mesure, les techniques de sondage de la matière, la médecine, les films de science-fiction: ils sont omniprésents, mais qu’est-ce qu’un laser exactement? Comment fonctionnent t-ils ? Y a-t-il plusieurs sortes de laser? Où sont-ils utilisés? C’est ce que je vais essayer de détailler dans ce billet.

Pour l’étymologie, le mot « laser » est un acronyme anglais. Un laser est un dispositif permettant une amplification de la lumière par émission stimulée de rayonnement, soit en anglais, Light Amplification by Stimulated Emission of Radiation: L.A.S.E.R. La définition courte qui revient souvent est la suivante : Dispositif émettant de la lumière très cohérente, grâce au processus d’émission induite. L’acronyme et cette définition sont quelque peu absconses à première vue, essayons de détailler les différents mots et concepts…


La première apparition du LASER au cinéma en 1964 dans le James Bond
GoldFinger.


Le principe de base
Le principe physique utilisé dans les lasers est l’émission stimulée (on parle aussi d’émission induite). Ce principe est issu de la physique quantique et a été décrit la première fois par un certain Albert Einstein en 1917 dans un article intitulé « sur la théorie quantique du rayonnement ».  L’émission stimulée est apparentée à deux autres phénomènes quantiques: l’absorption et l’émission spontanée.

Pour introduire ces concepts, un petit rappel de l’atome est nécessaire: il existe un modèle de l’atome appelé le modèle de Bohr dans lequel l’atome est composé d’un noyau contenant des nucléons (protons+neutrons) et les électrons gravitent autour sur des orbites bien définies (ce n’est qu’un modèle car les électrons ne possèdent pas vraiment de trajectoire dans la théorie quantique).

Les électrons se trouvent obligatoirement sur une de ces orbites prédéfinies. Chaque orbite possède une énergie propre qui est quantifiée (on parle alors de niveaux d’énergie). Si on considère 2 niveaux d’énergie (2 orbites) ayant respectivement des énergies E1 et E2 avec E1 < E2 et que l’on apporte une énergie dE = E2-E1 à un électron qui se trouve dans le niveau E1, il peut « sauter » au niveau E2. La réciproque est également vraie.

Voici une brève illustration en BD. Le « bonhomme » jaune est un photon, le «  »bonhomme » bleu est un électron, et les 2 étages représentent 2 niveaux d’énergie (2 orbites) d’un atome.

 L’absorption (stimulée). Un photon est envoyé sur l’électron d’un atome (1), ce dernier absorbe le photon (2) et emmagasine ainsi son énergie, ce qui lui permet de « sauter » au niveau supérieur. L’électron est alors excité (3).


L’émission spontanée. Un électron excité (1) peut perdre spontanément son état d’excitation en émettant un photon (2) pour retrouver son état d’énergie inférieur (3). Dans ce cas, le photon est émis dans une direction aléatoire.


L’émission stimulée. Un photon est émis vers un électron excité (1). L’électron, « bousculé » par le photon incident, libère un deuxième photon exactement égal au premier (2) et retombe dans son état d’énergie inférieur (3). Le photon émis possède la même fréquence, la même direction, la même phase et
la même polarité que le photon incident: on dit qu’ils sont dans le même état.


L’effet laser
Imaginez maintenant qu’on se serve des 2 photons identiques issus de l’émission stimulée pour exciter 2 autres atomes, on obtiendra alors 4 photons dans le même état et ainsi de suite par effet cascade: c’est l’effet laser. Les photons émis  constituent une onde électromagnétique ayant une fréquence propre. On peut donc obtenir un rayon laser lumineux (dans le spectre visible) mais également  des rayons micro-ondes, infra-rouges, ultraviolets ou X. V. On comprend aisément que dans l’effet laser, il y a eu amplification de l’intensité lumineuse et tous les photons sont dans le même état, on parle alors de lumière cohérente. La caractéristique même du laser est cette cohérence de la lumière où tous les photons sont dans le même état (direction, fréquence, polarisation, phase). Comme la fréquence de l’onde lumineuse correspond à une couleur (dans le spectre visible), on obtient un rayon très directionnel d’une couleur unique très pure. La couleur en question dépend de l’atome de base que l’on a utilisé car
la fréquence de la lumière émise est fonction de la distance entre les 2 niveaux d’énergie entre lesquels les électrons « sautent ».
Le fonctionnement d’un laser
Un laser est composé de 4 organes principaux :

  1. Le milieu actif du laser : il est composé des atomes que l’on va venir exciter (ou pomper). Ce milieu peut être solide, liquide ou gazeux.
  2. Une source de pompage : elle permet d’exciter les atomes du milieu actif en injectant de l’énergie. Cette source peut être d’origine électrique ou lumineuse (un autre laser par ex).
  3. Un miroir qui réfléchit tous les photons incidents.
  4. Un miroir semi-réfléchissant qui laisse passer entre 1% et 10% des photons incidents et réfléchit le reste du rayonnement.

Le principe de fonctionnement du laser est le suivant (voir illustration ci-dessous) :

  1.  Le milieu actif est au repos.
  2. Le milieu actif est excité par une source de pompage externe. Pour obtenir une amplification, on doit faire en sorte que le maximum d’atomes soient excités pour qu’ils puissent provoquer le maximum d’émissions stimulées car les atomes non-excités sont susceptibles de faire une absorption de photons qui va à l’encontre de l’amplification. On dit qu’il doit y avoir une inversion de population (il doit y avoir plus d’atomes excités qu’au repos).
  3. Une partie des atomes excités se désexcite provoquant un faible rayonnement de photons cohérents.
  4. Grâce aux miroirs, le rayonnement est réfléchi et est amplifié par effet cascade, le rayonnement oscille dans le milieu actif qui constitue alors une cavité. Une faible partie du rayonnement est émis vers l’extérieur par le miroir semi-réfléchissant sous forme de rayon laser exploitable.

Les types de lasers

On peut séparer les lasers selon leur mode de fonctionnement et le type de milieu actif qu’ils utilisent (solide, liquide, gaz, semi-conducteur, …).Il existe deux modes de fonctionnement distincts :

  • Soit la source de pompage donne de l’énergie au milieu actif en permanence pour réexciter les atomes désexcités par émission stimulée. On obtient alors un rayon laser continu à la sortie.
  • Soit la source de pompage fonctionne de manière pulsée. Pendant un pulse, un rayon laser très bref est produit, la durée peu aller de quelques femtosecondes (millionième de milliardième de secondes) à quelques millisecondes. Ce mode de fonctionnement permet la création de rayons laser très brefs et plus puissants.

Les lasers solides (dit cristallins) peuvent fournir des puissances de l’ordre du kW en régime continu et des pics de puissance avoisinant le GW en régime pulsé.

Voici les 2 types de lasers les plus courants :

Les lasers Nd-YaG. Le milieu actif est un solide, plus précisément un cristal de grenat d’yttrium aluminium dopé au néodyme (neodymium-doped yttrium aluminium garnet). La source de pompage est en général une lampe flash (un stroboscope) fournissant des flashs lumineux puissants au milieu actif pour exciter les atomes. Le rayon obtenu se situe à 1065 nanomètres (infra-rouge), il n’est donc pas visible à l’œil nu (spectre visible entre 400 et 700 nanomètres). La puissance maximale est d’environ 5kW en régime continu et 25kW en régime pulsé. Le gros avantage de ce laser est que le rayon laser produit peut être très facilement transportable dans des fibres optiques à cause de sa longueur d’onde. Il sont utilisés en ophtalmologie, en médecine esthétique,  en gravure, découpe, soudure et perçage. La fréquence de l’onde lumineuse peut également être doublée pour fournir un rayon laser dans le spectre visible de couleur verte (532 nanomètres).

–  Les lasers CO2. Le milieu actif est en général un mélange de différents gaz (dioxyde de carbone, azote, hydrogène et hélium). Ces lasers peuvent fournir de grosses puissances (plusieurs centaines de kW et jusqu’à 1GW avec des systèmes amplificateurs) et sont très utilisés dans les techniques de marquage et gravure mais également en découpe, en soudure et en chirurgie plastique. Les lasers CO2 fournissent un rayon ayant une longueur d’onde de 10,6 micromètres (milieu infra-rouge): le rayon n’est donc pas visible à l’œil nu.

Les différentes applications
Les applications du laser sont très nombreuses. Le laser a permis de remplacer bon nombre de procédés en améliorant la précision et l’efficacité tout en étant moins invasif. Voici une énumération non exhaustive :
 
Médecine
-Ophtalmologie : découpes
-Dermatologie : épilation
-Dentisterie : nombreuses applications, remplacement de la « fraise »
-Chirurgie plastique : découpe, resurfaçage,…
 
Industrie
-Soudure
-Découpe
-Perçage
-Décapage
-Marquage
-Gravure

Armement
-Anti-missile (au sol ou aérien)
-Désignateur laser : source laser permettant de guider un projectile (missile) ou de faciliter la visée à l’aide
d’un pointage laser sur les armes légères.

 
Technologies de l’information
-Télécommunication par fibres optiques
-Lecture/enregistrement sur support optique (CD, DVD, …)
-Télémétrie : Mesure de longueurs ou de vitesses à distance
 
Matériaux
-Spectroscopie : analyse des spectres lumineux
-Ellipsométrie : analyse de surface de matériaux

Physique quantique
-Refroidissement par pompage laser : permet de refroidir des atomes à des températures très proches du zéro absolu.
-Manipulation de photons pour leur étude et la réalisation d’expériences

Si vous désirez plus d’informations scientifiques sur les lasers, vous pouvez trouver de bons cours niveau Licence, Master ou Doctorat à l’adresse suivante : http://icb.u-bourgogne.fr/universitysurf/ressources-laser.html