Archives mensuelles : mars 2010

Collisions à 7 TeV dans le LHC au CERN

Après 20 ans d’attente de la part des physiciens, le plus puissant accélérateur de particules du monde, le LHC, vient de faire ses premières collisions à 7 TeV
(Tera électronvolt), c’est un moment historique dans l’histoire de la physique des hautes énergies mais ca veut dire quoi et surtout : ca sert à quoi ?

ATLAS_7TeV.png

Mardi 20 mars 2010, 12h58 : une collision à 7 TeV dans le détecteur ATLAS ©CERN

 A quoi sert le LHC ?

Le but du LHC (Large Hadron Collider) et des expériences du CERN
(
Organisation Européenne pour la Recherche Nucléaire) est d’approfondir les connaissances de l’homme sur l’origine de l’Univers et sur son fonctionnement ainsi que de mieux appréhender les lois de la nature pour mieux répondre à plusieurs questions fondamentales. Ici, la science ressemble plus à de la philosophie qu’à de la recherche permettant d’améliorer notre cadre de vie. Ceci s’appelle de la recherche fondamentale… Certains chercheurs peuvent parfois paraitre un peu « mystiques » par leur allure, leurs idées et leur attitude mais ils font bel et bien avancer nos connaissances et notre compréhension du monde qui nous entoure !

JohnEllis
John Ellis, un des plus grands physiciens du CERN (nobélisable) 
habillé par les 4 termes du lagrangien du modèle standard de la physique des particules.

Les physiciens espèrent répondre à de nombreuses questions grâce aux futures données produites par les expériences du LHC. La première attente est la découverte de particules super-symétriques (SUSY) pouvant permettre l’explication d’une partie de la masse manquante dans l’univers ainsi que de détecter le fameux boson de
Higgs
expliquant la masse des particules. L’étude des différences entre matière et antimatière ainsi que la découverte de dimensions supplémentaires sont également au programme de recherche.

Cependant, pour effectuer ces recherches fondamentales, le CERN doit mettre en œuvre d’innombrables nouvelles technologies de pointes en relation avec l’industrie. Le meilleur exemple est l’invention du Web au CERN à la fin des années 80 pour gérer les informations venant des expériences de la physique des particules ! En plus des très nombreuses innovations en technologies de l’information pour gérer les milliards de données produites par le LHC (les systèmes d’acquisition de données, la grille de calcul planétaire, etc.), le LHC a littéralement dopé la recherche mondiale sur la supraconductivité et la cryogénie ainsi que leurs applications industrielles pendant les 15 dernières années. Le CERN fournit également des isotopes pour la médecine et contribue à la recherche en imagerie médicale et en thérapie contre les cancers à base d’hadrons (hadronthérapie), comme par exemple à travers le projet PARTNER. Le CERN a également une vocation de formation et d’éducation et accueille des milliers d’étudiants du monde entier chaque année dans tous les domaines de la science.

Il n’y a pas que l’énergie qui compte !

Les faisceaux sont désormais stables à 3,5 TeV, soit la moitié de l’énergie maximale que le LHC pourra délivrée (7 TeV), mais l’énergie n’est pas le seul paramètre à regarder. Pour l’instant les faisceaux sont encore peu intenses. Pour réaliser de « bonnes » collisions en très grand nombre, il faut également prendre en compte de très nombreux autres paramètres. Par exemple, la luminosité et l’intensité des faisceaux sont 2 autres paramètres clés (parmi beaucoup d’autres) car ils sont directement liés au nombre de collisions produites et donc à la chance de « voir » une nouvelle particule. En effet, certains évènements sont parfois si rares qu’il faut faire tourner ces gigantesques accélérateurs de particules pendant plusieurs dizaines d’années pour valider les différentes théories. Il faut donc produire le plus grand nombre de collisions possible en le moins de temps possible!

La luminosité d’un faisceau correspond au nombre de particules passant dans une section de 1 cm² à chaque seconde et l’intensité d’un faisceau correspond au nombre
total de protons qu’il contient. Aujourd’hui, seulement 2 paquets de particules par faisceau ont circulé (le LHC peut contenir jusqu’à 2808 paquets) et la luminosité maximale autour des 10
27 protons/cm².s avec 2*1010 protons par paquet (contre une luminosité de 1034 protons/cm².s et une intensité de 1011 protons par paquet pour le fonctionnement maximal du LHC).

stable_beams_3.5TeV.JPG

Ecran général de contrôle du LHC le 30 mars 2010 après les premières collisions à 7 TeV. On peut voir l’intensité des deux faisceaux  à 2*1010 protons chacun.

Pour augmenter cette luminosité, il faut augmenter le nombre de paquets et le nombre de protons par paquets ainsi que réduire au maximum le diamètre du faisceau. Les paquets peuvent faire quelques millimètres de diamètre mais sont focalisés juste avant les points de collisions et le LHC devrait pouvoir réduire ce diamètre jusqu’à 16 micromètres, soit 3 fois plus fin qu’un cheveu humain.

Le LHC marche bien !

Aujourd’hui, le LHC a démontré son efficacité et sa prise en main rapide par les équipes d’opération du CERN : seulement quelques mois ont été nécessaires pour « apprivoiser » cette machine unique au monde par sa taille et sa complexité. Désormais, l’opération à 3,5 TeV devient facilement reproductible.    

Les opérateurs vont continuer à avancer avec cette nouvelle machine et à augmenter petit à petit l’intensité des faisceaux pour fournir une meilleure luminosité aux expériences de manière à produire le plus de collisions possibles. Le LHC va à présent fonctionner de manière quasi-continue pendant 18 à 24 mois à une énergie de 3,5 TeV par faisceau (collisions à 7 TeV).

Après un arrêt d’environ un an est planifié pour effectuer de la maintenance et renforcer les systèmes de protections des aimants suite à quoi le LHC repartira pour atteindre sa puissance maximale de 7 TeV par faisceau (collisions à 14 TeV). On espère que cette machine fonctionnera pendant une vingtaine d’années pour faire avancer la science et surtout pour donner de nouvelles directions à la physique des particules et à la cosmologie qui sont actuellement dans certaines impasses et qui attendent de nouveaux résultats pour dépasser les modèles actuels.

Liens 

La datation radiométrique au carbone-14

N’importe quelle personne a déjà entendu la phrase « cet échantillon a été daté au carbone-14 … » de la bouche d’historiens, de géologues, d’anthropologues ou d’archéologues. Mais c’est quoi le carbone-14 ? Quelle est la différence avec ce bon vieux carbone contenu dans nos mines de crayons de papier ? De plus, n’avez-vous jamais remarqué que les fossiles de dinosaures n’étaient JAMAIS datés avec ce fameux carbone-14, mais pourquoi donc ?

La radioactivité

Toute la matière qui nous entoure est composée d’atomes. Certains de ces atomes sont dit « stables » et demeurent invariants dans le temps, contrairement aux atomes dit « instables » qui viennent se désintégrer pour se transformer en d’autres atomes. Ce phénomène de désintégration porte un nom qui peut faire peur : la radioactivité !
 radioactif

Lors de ces désintégrations d’atomes instables, un rayonnement qualifié de « radioactif » est émis et c’est lui qui peut être dangereux pour l’homme. Mais pas de panique tout de même, la radioactivité est un phénomène naturel et nous vivons au milieu de nombreux éléments radioactifs inoffensifs pour l’homme à faible dose. A chaque seconde, des millions d’atomes de notre environnement se désintègrent pour en former d’autres par le phénomène de radioactivité naturelle. Cependant, certains éléments naturellement radioactifs peuvent être extrêmement nocifs pour l’homme lors de simples expositions comme le radium par exemple, découvert par Marie Curie et ayant entrainé sa mort (les rayonnements issus du radium, encore inconnu à cette époque, avait provoqué une leucémie).

 Il existe aussi des éléments radioactifs issus de réactions nucléaires faites par l’homme pour produire de l’énergie dans les centrales nucléaires ou pour faire des bombes. Dans ce cas, on parle de radioactivité artificielle. La radioactivité artificielle fait généralement intervenir des atomes massifs avec des rayonnements radioactifs intenses qui sont extrêmement nocifs pour l’homme.

Les isotopes

Chaque élément qui nous entoure peut se présenter sous différentes formes selon la structure de son noyau atomique. Le noyau d’un atome est fait de protons et de neutrons normalement en nombre égal. Cependant, il existe des éléments dérivés ayant un nombre de neutrons différents et que l’on appelle isotopes. Ces éléments ayant le même nombre de protons mais un nombre différent de neutrons ont les mêmes propriétés chimiques et paraissent semblables mais ont une masse différente pouvant parfois entrainer des instabilités du noyau et les rendre ainsi radioactifs.

 Exemple avec le carbone :

– Le carbone « normal » présent dans nos mines de crayons de papier possède 6 protons et 6 neutrons, soit 12 nucléons. On l’appelle alors « carbone-12 » ou « carbone » tout court.

– Il existe un isotope avec 2 neutrons supplémentaires (6 protons et 8 neutrons, soit 14 nucléons) appelé en conséquence « carbone-14 » ou encore « radio-carbone » car cet isotope est radioactif.
A ce jour, 117 éléments chimiques dans le tableau de Mendeleïev ont été observés (les plus lourds ont été créés artificiellement) et 2934 isotopes sont recensés par l’Agence Internationale pour l’Energie Atomique (AIEA). Tous les éléments possèdent des isotopes qui peuvent être stables ou instables. Presque tous les éléments possèdent un isotope stable entre l’hydrogène-1 et le bismuth-83 et ensuite, tous les atomes plus lourds sont instables. On peut observer jusqu’à 30 isotopes pour un même élément mais la plupart sont instables.

  carbone-14

Le carbone-14 dans un extrait de la  table des isotopes fournie par le  Services des Données Nucléaires de l’Agence Internationale pour l’Energie Atomique. 

Voir la Table des isotopes dans Wikipédia

Voir la Table des nucléides de l’Agence Internationale pour
l’Energie Atomique

 Le principe de la datation radiométrique

Tous les isotopes instables (et donc radioactifs) sont appelés des radio-isotopes car ce sont des isotopes radioactifs (on trouve également les termes synonymes radionucléides et radioéléments).

Les radio-isotopes présents sur Terre se désintègrent donc au fur et à mesure dans le temps mais certains peuvent être également créés par des réactions nucléaires naturelles dans notre atmosphère. L’idée de la datation radiométrique est de comparer la quantité de plusieurs radio-isotopes dans des échantillons de manière à retrouver l’époque à laquelle ils ont été formés.

Le radio-isotope le plus célèbre pour la datation est le carbone-14.
Notre atmosphère possède une concentration constante de carbone-14 dans le temps, ceci signifie qu’il y a autant de carbone-14 qui se désintègre que de carbone-14 qui se créé dans notre atmosphère : lorsqu’un neutron énergétique venu du cosmos vient « frapper » un atome d’azote de l’air, ce dernier se transforme en carbone-14 et un proton est expulsé en même temps.

 cycle carbone

Le cycle du carbone-12 et du carbone-14 (source : Pierre-André Bourque, Planète Terre)

 Toutes les plantes absorbent du carbone contenu dans l’atmosphère (du carbone-12 et du carbone-14 de manière indifférente) et la chaine alimentaire fait que tous les animaux et les hommes en contiennent également. Lorsqu’un organisme vivant meurt, le carbone qu’il contient est piégé et seule la proportion de carbone-14 va diminuer à cause de la désintégration de ce dernier qui est un isotope radioactif.

Les radio-isotopes se désintègrent plus moins vite selon une exponentielle décroissante (voir la figure ci-dessous). Chaque radio-isotope possède une propriété appelée « demi-vie » ou « période radioactive » qui correspond au temps nécessaire pour que la moitié d’une population de ce radio-isotope se désintègre. Dans le cas du carbone-14, cette demi-vie est d’environ 5730 ans.

  C14 pourcentage

Evolution du nombre d’atomes de carbone-14 dans le temps

 Pour dater un échantillon organique (comme un os d’homme préhistorique par exemple), il suffit alors de « compter » le nombre d’atomes de carbone-12 et de carbone-14 et d’en déduire combien de temps s’est écoulé depuis que cet organisme est mort. La proportion normale de carbone-14 par rapport au carbone total est d’environ 14C/C = 10-12. Ceci signifie qu’il y a 1 atome de carbone-14 pour mille milliards d’atomes de carbone dans un organisme vivant !

Exemple : Si dans un échantillon, on mesure 10 milles milliards d’atomes de carbone, il devait y avoir 10 atomes de carbone-14 lorsque cet organisme est
mort. Si aujourd’hui, on dénombre seulement 5 atomes de carbone-14, cet échantillon sera daté de 5730 ans car la moitié des atomes de carbone-14 auront été désintégrés !

Les instruments de datation

Les 2 principales méthodes utilisées pour dater des échantillons organiques contenant du carbone-14 sont la scintillation liquide et la spectrométrie de masse.

La scintillation liquide consiste à « compter » des produits de la désintégration du carbone-14. Ce dernier se désintègre naturellement et émet un neutron et un électron un peu spécial surnommé particule « beta moins » (désintégration β). La scintillation liquide consiste alors à placer un mélange scintillant qui va venir émettre un photon à une énergie bien précise qui pourra ensuite être détecté par un système électronique lorsque cette fameuse particule beta la traversera.

beta moins

La spectroscopie de masse consiste quant à elle à « compter » les atomes de carbone-12 (stable) et de carbone-14 (radioactif) directement grâce au fait que ces 2 isotopes ont des masses différentes. Cependant, comme la proportion de carbone-14 est extrêmement faible, le spectromètre de masse doit être couplé à un accélérateur de particules permettant alors de, mettre en place des techniques de détection beaucoup plus fiable.

 Pour plus d’info sur ces deux techniques, je vous conseille de visiter le site du centre de datation par le radiocarbone de Lyon (CNRS).

 La fiabilité de la méthode

Comme toute méthode scientifique expérimentale, la datation au carbone-14 peut subir des biais expérimentaux qu’il faut prendre en compte de manière à effectuer des datations précises.

Depuis la révolution industrielle, l’homme a produit du carbone-12 en très grande quantité via son industrie (mais pas de carbone-14), ce qui a pour effet de modifier le rapport entre le carbone-12 et le carbone-14 dans notre atmosphère. A contrario, les premiers essais thermonucléaires dans l’atmosphère ont produit de très grandes quantités de carbone-14. L’homme a donc « déréglé » le cycle du carbone et donc déséquilibré la proportion de carbone-14 durant le siècle dernier ce qui rend la datation au carbone-14 difficile pour le 20ème siècle. Si on effectuait une datation au carbone-14 sur un arbre au bord d’une autoroute, on pourrait le dater vieux de 2000 ans à cause de sa grande concentration en carbone-12 absorbé à cause des rejets des pots d’échappements des voitures.

De plus, des évènements géologiques majeurs comme des éruptions volcaniques ou des grands feux de forêt ont pu dégager une très grande quantité de carbone-12 dans l’atmosphère déréglant également la proportion de carbone-14 dans certaines régions à certaines époques.

 Cependant, l’histoire de la Terre est de mieux en mieux connus et les résultats bruts obtenus par les analyses de carbone-14 sont ajustés par des courbes de calibration réalisées par d’autres méthodes de datation. La dernière courbe de calibration s’appelle InitCal04 et permet de corriger précisément les données obtenues par analyse de carbone-14 jusqu’à 26 000 ans calendaires (26000 ans depuis aujourd’hui, soit 24000 ans av. JC). D’autres courbes peuvent néanmoins faire des corrections jusqu’à 50 000 ans comme CalPal.

C14 calibration

Dérive des dates obtenues par analyse de carbone-14 par rapport aux âges calendaires obtenus par la méthode uranium –  thorium sur des coraux

  Et les dinosaures dans tout ça ?

Les dinosaures sont apparus il y a 250 millions d’années et se sont éteints il y a 65 millions d’années. Les traces de carbone-14 de cette époque ont complètement disparues. La plupart des chercheurs estiment qu’au-delà de 30 000 ans, il y a trop peu de carbone-14 restant pour permettre une datation précise. Il faut donc utiliser d’autres isotopes, ayant une durée de vie beaucoup plus longue.
dino

Dans le cas des dinosaures, on utilise les isotopes d’uranium-238, d’uranium-235 et de potassium-40 qui possèdent des durées de demi-vie supérieures au million d’années. Le problème est que les os et les fossiles n’absorbent pas ces isotopes mais en revanche, les roches et les sédiments environnant le peuvent. L’idée est donc la suivante : on utilise la radiométrie sur les sédiments entourant les fossiles pour les dater à l’aide d’un radio-isotope approprié (style potassium-40) ce qui permet ensuite de donner une fourchette sur l’âge du fossile contenu dans ces sédiments.

D’autres techniques de datation ont permis de conforter les résultats obtenus à l’aide de ces méthodes en analysant des échantillons d’acides aminés ou les changements du champ magnétique terrestre au cours du temps.

Wikipédia : quel crédit lui conférer ?

Désormais, tout le monde connait et utilise Wikipédia dans notre pays. On trouve des fervents défenseurs et des détracteurs. Mais alors, quel crédit accorder à cette wiki-encyclopédie mondialement reconnue ?

wikipedia-copie-1.jpg
Je pense sans trop me mouiller que Wikipedia est désormais en France la première source de données utilisée pour faire des recherches à tous les niveaux d’éducation, aussi bien par les professeurs que par les élèves  (collèges, lycées, universités, grandes écoles). Je me demande même s’il arrive qu’un élève en charge de faire une recherche sur un sujet pour un exposé puisse ne jamais être confronté à un moment ou à un autre à cette wiki encyclopédie.

De même, Wikipédia est utilisée abondamment dans tous les centres de recherche. Cependant son utilisation est ici différente car c’est plutôt pour faire des petites recherches rapides pour retrouver telle ou telle information reconnue unanimement par la communauté scientifique mais dont on ne se souvient plus. Par exemple, un chercheur peut utiliser Wikipedia plusieurs
fois dans une journée pour retrouver la valeur d’une constante, l’expression d’une formule simple, voir la définition d’un concept un peu flou.


Mais alors, la majorité des individus utiliseraient la même source pour faire des recherches ? Qui plus est, via un media qui n’est soumis à aucun comité de lecture !  N’est-ce pasn dangereux ? N’y a-t-il pas risque de manipuler la masse par des informations erronées ? Surtout lorsqu’en bas de la page d’accueil de la célèbre encyclopédie on peut lire « Wikipedia ne garantit pas le contenu mis en ligne »

Eh bien les réponses à toutes ces questions légitimes sont à mon avis négatives. Je vais donc essayé de vous en convaincre ici.


Wikipedia : Définition

Wikipedia est un assemblage de 2 mots :

– « Wiki » est un mot hawaiien signifiant « rapide ». On utilise aujourd’hui ce terme pour décrire les pages web d’un site ayant un contenu dynamique pouvant être modifié par un ensemble d’utilisateurs (restreint ou pas) de manière à créer des espaces collaboratifs. Le premier wiki date de 1995 et était destiné à un projet collaboratif de programmation informatique : WikiWikiWeb

– « Encyclopedia » est le mot anglais  signifiant « encyclopédie ». Une encyclopédie est un ouvrage censé contenir toutes les connaissances de l’homme à un instant donné.

Wikipédia est donc une encyclopédie collaborative du Web dans laquelle tout un chacun peu contribuer librement. Il n’existe donc pas de version définitive de cette encyclopédie étant donné que son contenu évolue perpétuellement mais des versions sont parfois figées et éditées sur
CD-ROM.


Principes fondateurs de Wikipédia

Wikipédia a été créé selon des valeurs et des principes de liberté, fortement inspirés par Richard Stallman, le pionnier du logiciel libre.
stallman.JPG

Richard Stallman, le père des logiciels libres GNU et des premières idées à la base de Wikipédia

Wikipédia est basée sur 5 principes fondateurs permettant de garantir un contenu encyclopédique de qualité :


1- 
Wikipedia est une encyclopédie : elle ne vise qu’à exposer des informations déjà établies et reconnues. A ce titre, Wikipédia ne présente jamais d’informations
inédites.

2- La neutralité de point de vue : Wikipédia a pour ambition de présenter des informations de manière neutre sans jamais prendre parti ou porter de jugement de valeur. Lors d’un sujet controversé, les articles Wikipédia doivent présenter tous les points de vue objectivement en expliquant le contexte. De plus, toute information doit être justifiée en citant des sources de qualité. Ainsi, Wikipédia n’a pas l’ambition de « créer » de l’information mais simplement de créer des articles sur un sujet précis en reprenant diverses sources.

3- La liberté du contenu : tout le monde peut utiliser le contenu des articles et les
modifier. Tous les articles sont automatiquement mis sous
licence libre.

4- Wikipédia suit des règles de savoir vivre : les wikipédiens se doivent respect et doivent agir de manière courtoise et consensuelle sans se livrer des guerres
d’éditions
.

5- Wikipédia n’a pas d’autres règles fixes:  En plus de ces principes fondateurs, il existe des règles à respecter par les utilisateurs et des recommandations pour l’écriture des articles de manière à fournir un contenu et une organisation homogène entre les articles.

  La vérifiabilité des informations

Comme tout le monde peut modifier les articles librement, plusieurs problèmes apparaissent naturellement.

Une personne peut écrire une information non exacte de manière intentionnée ou pas (l’erreur est humaine). Dans ce cas, ces erreurs sont relativement vite décelées et corrigées soit par la lecture d’un lecteur averti sur le sujet traité, soit grâce au système de suivi de Wikipédia. Le système de suivi des articles permet à un contributeur de suivre une série d’articles qui l’intéresse et est donc informé en temps réel de toute modification et peut alors contrôler constamment l’évolution d’un article.

Néanmoins, le risque de lire une information erronnée est bel et bien présent et il faut toujours être vigilant et vérifier les informations tout en conservant un esprit critique et ne pas avaler toutes ces informations goulûment : Wikipédia n’a en aucune façon la prétention de détenir la « vérité ». C’est pour cette raison que l’on trouve le fameux « Wikipedia ne garantit pas le contenu mis en ligne » en fin de page.

Un autre problème de Wikipédia est le vandalisme de certains articles par des personnes mal intentionnées. Dans ce cas, il existe des administrateurs élus par la communauté qui peuvent bloquer des adresses IP et des utilisateurs identifiés comme « vandales ». De plus, les administrateurs ont le pouvoir de protéger des articles à différents niveaux :

La protection du titre : Le titre ne peut pas être modifié. Une centaine de pages sont concernées. Ex : article
Régime de Vichy.
La semi-protection : en raison de vandalisme répété sur une page, les administrateurs peuvent  empêcher la modification de la page par des utilisateurs anonymes ou par des utilisateurs ayant créé un compte wikipedia il y a moins de 4 jours. Environ 500 articles concernés. Ex :
Carla Bruni-Sarkozy
– La protection complète : concerne généralement les pages d’aides et les modèles de Wikipédia (pas les articles). Dans ce cas, seuls les administrateurs peuvent modifier ces pages. Cependant, un utilisateur peut soumettre des modifications aux administrateurs pour approbation.

Les métiers de Wikipédia

Wikipédia est avant tout basée sur la collaboration entre les internautes et possède une excellente autogestion grâce à la multitude des « métiers » que les gens peuvent exercer selon leurs désirs et leurs aptitudes. Citons par exemple : les wikificateurs (améliorent la typographie, normalisent les articles à la manière Wikipédia, rajoutent des liens sur des mots, etc.), les rédacteurs, les graphistes, les patrouilleurs, les traqueurs, les infirmiers, les chasseurs de lauriers, les pompiers, les arbitres, les catégorisateurs, les traducteurs, Les listomaniaques, les votants, etc.


De nombreuses personnes se spécialisent dans une tâche particulière mais tous les contributeurs sont tout de même « multi-casquettes ». Il en découle une organisation et un traitement efficace du contenu encyclopédique. Par exemple, un rédacteur va commencer à écrire un article, un graphiste va agrémenter l’article d’une illustration, un catégorisateur va venir classer cet article de manière intelligente au sein des categories de Wikipedia (ce qui n’est pas toujours trivial) et un traducteur viendra traduire cet article pour la version roumaine de Wikipédia. Et si un vandale passe par là et vandalise l’article, un patrouilleur remettra en ligne la version précédente grâce à l’historique.

Wikimedia

Wikipédia n’est jamais qu’un projet parmi d’autres de la fondation Wikimedia qui est un organisme américain de bienfaisance ayant pour tâche d’administrer et d’héberger des projets collaboratifs de wiki. A ce titre, elle n’a aucun droit éditorial sur les contenus.

wikionary

Les projets actuels de Wikimedia sont les
suivants :