Archives pour la catégorie Sc. de l’information

Le démon de Maxwell

 Mes deux domaines scientifiques préférés sont sans doute la thermodynamique et la théorie de l’information. L’histoire a su allier ces 2 grands domaines avec élégance pour comprendre le paradoxe du démon de Maxwell.

En 1871, James Clerk Maxwell (celui de la théorie électromagnétique) tente de contredire le second principe de la thermodynamique en inventant une expérience de pensée dans laquelle il invoque un « démon » mais ce n’est véritablement qu’en 1949 que Léon Brillouin, en utilisant la théorie de l’information, va permettre de lever le voile sur le paradoxe de cette expérience de pensée et redonner au second principe de la thermodynamique son caractère universel.

Le second principe de la thermodynamique

C’est un des principes de la physique les plus intéressants dans le sens où il cache de nombreuses implications. Il est au premier abord difficile à comprendre à cause de la notion d’entropie qui n’est pas facile à appréhender mais on l’entend souvent de la manière vulgarisée suivante :

« Le désordre d’un système isolé ne peut qu’augmenter dans le temps »

 L’entropie d’un système est en quelque sorte son désordre. Si tous les atomes d’un gaz bougent lentement, il y a peu de chocs entre eux et l’entropie sera alors faible (et le gaz sera froid). Au contraire, si tous les atomes d’un gaz bougent rapidement, les chocs entre eux sont nombreux et l’entropie est grande (et le gaz sera chaud). On considère ici des systèmes isolés, c’est-à-dire qui n’échangent ni matière ni énergie avec l’extérieur (donc pas de chaleur non plus).

 Le second principe stipule donc que toutes les transformations que peut subir un système isolé génèrent de l’entropie (du désordre) et que cette grandeur ne peut donc qu’augmenter dans le temps. Ceci veut dire que pour créer de l’ordre (faire baisser l’entropie), un agent extérieur doit forcément intervenir. Notre Univers voit donc son entropie totale augmenter vers l’infinie en permanence vue que rien n’est externe à l’Univers par définition.

 Une des conséquences importantes de ce principe est que toutes les transformations que peut subir un système isolé ne peuvent se dérouler que dans un sens précis en suivant « la flèche du temps ». Les transformations sont ainsi qualifiées d’irréversibles dans le temps car génératrices d’entropie. Quelques exemples de transformations irréversibles évidentes dans la vie quotidienne :

  • Lorsque l’on mélange du sirop dans un verre d’eau, jamais le sirop et l’eau ne vont complètement se re-séparer spontanément dans le verre.
  • Lorsque l’on mélange de l’eau chaude et de l’eau froide dans un verre, jamais l’eau chaude et l’eau froide ne vont complètement se re-séparer spontanément dans le verre.
  • Si un verre tombe par terre et se casse, jamais il ne se reconstituera par lui-même.

L’expérience de Maxwell

L’expérience pensée par Maxwell pour contredire le second principe de la thermodynamique est relativement simple à comprendre mais extrêmement difficile à mettre en œuvre, d’où la création de ce « démon ».

 

Imaginons 2 compartiments contigus dans lesquels on a mis d’un coté un gaz froid et de l’autre un gaz chaud. Il existe une porte entre ces 2 compartiments et un démon peut l’ouvrir et la fermer à sa guise. Le démon, malicieux, ouvre la porte de manière à ce que les atomes rapides passent dans le compartiment chaud et que les atomes lents passent dans le compartiment froid. Ainsi, plus le temps s’écoule et plus le gaz chaud se réchauffe et plus le gaz froid se refroidit.

Cette observation est en contradiction avec le second principe de la thermodynamique car les 2 compartiments voient leur entropie décroître : en effet, il y a plus d’ordre qu’au départ comme on a séparé les atomes rapides de ceux plus lents. La thermodynamique nous dit que dans le temps, les températures des 2 compartiments devraient converger vers la même valeur alors qu’ici ce n’est pas le cas.

La levée du paradoxe

Pour la thermodynamique, l’entropie a été redéfinie en 1877 par Boltzmann de la manière suivante :

La formule de Boltzmann sur sa tombe à Vienne

 Ici, « S » représente l’entropie, « k » est une constante (de Boltzmann) et « W » correspond au nombre d’états macroscopiques que peut prendre le système.

Plus de 70 ans plus tard, en 1948, Claude Shannon définit à son tour un genre d’entropie qui correspond à la quantité d’information minimum pour transmettre un message. Cette entropie est définie par :

I= K log P

avec « I » la quantité d’information, « K » une constante et « P » l’ensemble des états possibles du système considéré.

 

Claude Shannon (Alfred Eisenstaedt/Time & Life Pictures/Getty Image)

 A priori ces deux concepts n’ont de commun que leur expression mathématique mais Brillouin démontre qu’il s’agit bien de la même entropie. Je vous conseille de lire cette analyse Bibnum pour plus de détails où l’on peut lire ceci :

 Pour obtenir de l’information sur un système, il faut le mesurer, cette mesure augmente l’entropie de l’univers d’une quantité exactement égale à la quantité d’information obtenue. De cette manière Brillouin établit une échelle absolue de la mesure de l’information et à cette fin créé une nouvelle grandeur : La néguentropie, ou entropie négative.

 Il est évident que dans l’expérience de Maxwell, notre démon a besoin de connaître la vitesse des atomes pour les laisser passer ou pas par la porte. Brillouin montre alors que cette « mesure » faite par le démon va créer de la néguentropie de manière à compenser exactement la baisse d’entropie du système : le deuxième principe reste donc valide car l’entropie du système « enceintes+gaz+porte+démon » reste constante !!

 Applications de l’entropie de Shannon

Le calcul de l’entropie de Shannon permet de coder un message sous forme numérique avec le moins de bits possible sans perdre de l’information comme dans les algorithmes de compression sans perte (voir ce billet sur la compression de données).

 Elle est aussi utilisée dans le domaine de l’imagerie médicale pour comparer des images ainsi qu’en génétique pour identifier les parties des chromosomes contenant plus d’informations.

 

Wikipédia : quel crédit lui conférer ?

Désormais, tout le monde connait et utilise Wikipédia dans notre pays. On trouve des fervents défenseurs et des détracteurs. Mais alors, quel crédit accorder à cette wiki-encyclopédie mondialement reconnue ?

wikipedia-copie-1.jpg
Je pense sans trop me mouiller que Wikipedia est désormais en France la première source de données utilisée pour faire des recherches à tous les niveaux d’éducation, aussi bien par les professeurs que par les élèves  (collèges, lycées, universités, grandes écoles). Je me demande même s’il arrive qu’un élève en charge de faire une recherche sur un sujet pour un exposé puisse ne jamais être confronté à un moment ou à un autre à cette wiki encyclopédie.

De même, Wikipédia est utilisée abondamment dans tous les centres de recherche. Cependant son utilisation est ici différente car c’est plutôt pour faire des petites recherches rapides pour retrouver telle ou telle information reconnue unanimement par la communauté scientifique mais dont on ne se souvient plus. Par exemple, un chercheur peut utiliser Wikipedia plusieurs
fois dans une journée pour retrouver la valeur d’une constante, l’expression d’une formule simple, voir la définition d’un concept un peu flou.


Mais alors, la majorité des individus utiliseraient la même source pour faire des recherches ? Qui plus est, via un media qui n’est soumis à aucun comité de lecture !  N’est-ce pasn dangereux ? N’y a-t-il pas risque de manipuler la masse par des informations erronées ? Surtout lorsqu’en bas de la page d’accueil de la célèbre encyclopédie on peut lire « Wikipedia ne garantit pas le contenu mis en ligne »

Eh bien les réponses à toutes ces questions légitimes sont à mon avis négatives. Je vais donc essayé de vous en convaincre ici.


Wikipedia : Définition

Wikipedia est un assemblage de 2 mots :

– « Wiki » est un mot hawaiien signifiant « rapide ». On utilise aujourd’hui ce terme pour décrire les pages web d’un site ayant un contenu dynamique pouvant être modifié par un ensemble d’utilisateurs (restreint ou pas) de manière à créer des espaces collaboratifs. Le premier wiki date de 1995 et était destiné à un projet collaboratif de programmation informatique : WikiWikiWeb

– « Encyclopedia » est le mot anglais  signifiant « encyclopédie ». Une encyclopédie est un ouvrage censé contenir toutes les connaissances de l’homme à un instant donné.

Wikipédia est donc une encyclopédie collaborative du Web dans laquelle tout un chacun peu contribuer librement. Il n’existe donc pas de version définitive de cette encyclopédie étant donné que son contenu évolue perpétuellement mais des versions sont parfois figées et éditées sur
CD-ROM.


Principes fondateurs de Wikipédia

Wikipédia a été créé selon des valeurs et des principes de liberté, fortement inspirés par Richard Stallman, le pionnier du logiciel libre.
stallman.JPG

Richard Stallman, le père des logiciels libres GNU et des premières idées à la base de Wikipédia

Wikipédia est basée sur 5 principes fondateurs permettant de garantir un contenu encyclopédique de qualité :


1- 
Wikipedia est une encyclopédie : elle ne vise qu’à exposer des informations déjà établies et reconnues. A ce titre, Wikipédia ne présente jamais d’informations
inédites.

2- La neutralité de point de vue : Wikipédia a pour ambition de présenter des informations de manière neutre sans jamais prendre parti ou porter de jugement de valeur. Lors d’un sujet controversé, les articles Wikipédia doivent présenter tous les points de vue objectivement en expliquant le contexte. De plus, toute information doit être justifiée en citant des sources de qualité. Ainsi, Wikipédia n’a pas l’ambition de « créer » de l’information mais simplement de créer des articles sur un sujet précis en reprenant diverses sources.

3- La liberté du contenu : tout le monde peut utiliser le contenu des articles et les
modifier. Tous les articles sont automatiquement mis sous
licence libre.

4- Wikipédia suit des règles de savoir vivre : les wikipédiens se doivent respect et doivent agir de manière courtoise et consensuelle sans se livrer des guerres
d’éditions
.

5- Wikipédia n’a pas d’autres règles fixes:  En plus de ces principes fondateurs, il existe des règles à respecter par les utilisateurs et des recommandations pour l’écriture des articles de manière à fournir un contenu et une organisation homogène entre les articles.

  La vérifiabilité des informations

Comme tout le monde peut modifier les articles librement, plusieurs problèmes apparaissent naturellement.

Une personne peut écrire une information non exacte de manière intentionnée ou pas (l’erreur est humaine). Dans ce cas, ces erreurs sont relativement vite décelées et corrigées soit par la lecture d’un lecteur averti sur le sujet traité, soit grâce au système de suivi de Wikipédia. Le système de suivi des articles permet à un contributeur de suivre une série d’articles qui l’intéresse et est donc informé en temps réel de toute modification et peut alors contrôler constamment l’évolution d’un article.

Néanmoins, le risque de lire une information erronnée est bel et bien présent et il faut toujours être vigilant et vérifier les informations tout en conservant un esprit critique et ne pas avaler toutes ces informations goulûment : Wikipédia n’a en aucune façon la prétention de détenir la « vérité ». C’est pour cette raison que l’on trouve le fameux « Wikipedia ne garantit pas le contenu mis en ligne » en fin de page.

Un autre problème de Wikipédia est le vandalisme de certains articles par des personnes mal intentionnées. Dans ce cas, il existe des administrateurs élus par la communauté qui peuvent bloquer des adresses IP et des utilisateurs identifiés comme « vandales ». De plus, les administrateurs ont le pouvoir de protéger des articles à différents niveaux :

La protection du titre : Le titre ne peut pas être modifié. Une centaine de pages sont concernées. Ex : article
Régime de Vichy.
La semi-protection : en raison de vandalisme répété sur une page, les administrateurs peuvent  empêcher la modification de la page par des utilisateurs anonymes ou par des utilisateurs ayant créé un compte wikipedia il y a moins de 4 jours. Environ 500 articles concernés. Ex :
Carla Bruni-Sarkozy
– La protection complète : concerne généralement les pages d’aides et les modèles de Wikipédia (pas les articles). Dans ce cas, seuls les administrateurs peuvent modifier ces pages. Cependant, un utilisateur peut soumettre des modifications aux administrateurs pour approbation.

Les métiers de Wikipédia

Wikipédia est avant tout basée sur la collaboration entre les internautes et possède une excellente autogestion grâce à la multitude des « métiers » que les gens peuvent exercer selon leurs désirs et leurs aptitudes. Citons par exemple : les wikificateurs (améliorent la typographie, normalisent les articles à la manière Wikipédia, rajoutent des liens sur des mots, etc.), les rédacteurs, les graphistes, les patrouilleurs, les traqueurs, les infirmiers, les chasseurs de lauriers, les pompiers, les arbitres, les catégorisateurs, les traducteurs, Les listomaniaques, les votants, etc.


De nombreuses personnes se spécialisent dans une tâche particulière mais tous les contributeurs sont tout de même « multi-casquettes ». Il en découle une organisation et un traitement efficace du contenu encyclopédique. Par exemple, un rédacteur va commencer à écrire un article, un graphiste va agrémenter l’article d’une illustration, un catégorisateur va venir classer cet article de manière intelligente au sein des categories de Wikipedia (ce qui n’est pas toujours trivial) et un traducteur viendra traduire cet article pour la version roumaine de Wikipédia. Et si un vandale passe par là et vandalise l’article, un patrouilleur remettra en ligne la version précédente grâce à l’historique.

Wikimedia

Wikipédia n’est jamais qu’un projet parmi d’autres de la fondation Wikimedia qui est un organisme américain de bienfaisance ayant pour tâche d’administrer et d’héberger des projets collaboratifs de wiki. A ce titre, elle n’a aucun droit éditorial sur les contenus.

wikionary

Les projets actuels de Wikimedia sont les
suivants :

La compression de données

Voila un terme que l’on comprend aisément mais dont on explique difficilement le fonctionnement. C’est justement ce genre de notions que j’aime expliquer dans ce blog.

compression donneesDe manière générale, comprimer des données est un problème simple à formuler : «  Réduire l’espace occupé par une information ». Cette compression peut se réaliser sans altération du contenu, on parle alors de compression sans perte mais il existe aussi des systèmes de compression altérant légèrement l’information originale de manière à accroitre la compression. Cette dernière opération est ainsi qualifiée de compression avec pertes car dans ce cas, l’opération inverse (la décompression) ne redonne pas exactement l’original.

En informatique, la compression de données peut être formulée ainsi : « Transformer une série de bits en une autre série de bits plus petite à l’aide d’un algorithme tout en conservant l’information, c’est-à-dire que l’opération inverse doit être possible»

Compression sans perte

L’algorithme de compression sans perte le plus simple à comprendre est le système de codage RLE (Run Length Encoding) qui consiste à compter les répétitions d’un caractère (ou d’un bit).

Exemple de codage RLE : le mot « ouuuuuaauuuuuu » est interprété comme étant une suite d’un « o », de 5 « u », de 2 « a » et de 6 « u », soit : « o5u2a6u ». Nous avons donc compressé 14 caractères en 7 caractères (taux de compression de 50%). Il est évident que ce type de codage est pertinent uniquement si de grandes chaines de caractères sont répétées. C’est le cas pour l’encodage des fax pour coder la succession des points
noirs et blancs sur une feuille (codage CCITT).

Les autres techniques de compression sans perte sont des techniques de compression entropique. Ces algorithmes sont basés sur une étude statistique de l’information à compresser de manière à encoder les caractères récurrents sur très peu de bit. Les algorithmes entropiques les plus connus sont l’algorithme de Huffman et l’algorithme
LZ77.

L’algorithme de Huffman

Le mieux pour comprendre cet algorithme est de donner un exemple. Fixons nous comme objectif de compresser la phrase « LES SCIENTIFIQUES SONT INTELLIGENTS ».

En représentation ASCII classique, il faut 7 bits par lettre (2^7 = 128 caractères au total) : cette phrase de 35 caractères occupera donc un espace mémoire de 35*7=245 bits. 

Maintenant, en utilisant le codage de Huffman, nous allons étudier le nombre d’occurrences de chaque lettre dans le texte à compresser de manière à attribuer un plus petit nombre de bits aux lettres les plus utilisées :

  • C, F, Q, U, O, G : 1 occurrence
  • L, ESPACE : 3 occurrences
  • T, N : 4 occurrences
  • E, S, I : 5 occurrences

On construit alors un arbre ou chaque feuille représente une lettre accompagnée de son poids (le nombre d’occurrences). On prend alors les 2 poids les plus faibles pour les regrouper et obtenir un nœud ayant un poids égal à la somme des 2 feuilles et ainsi de suite jusqu’à obtenir un seul nœud à la fin.

Avec notre exemple :

  • a) On regroupe les lettres de poids « 1 » et on les additionne pour faire des nœuds de poids « 2 » (jaune)
  • b) On ajoute les 2 lettres de poids « 3 » à 2 nœuds de poids « 2 » pour faire des nœuds de poids « 5 » (vert)
  • c) On ajoute les 2 lettres de poids « 4 » aux nœuds de poids « 2 » et « 5 » pour faire des nœuds de poids « 6 » et « 9 » (magenta).
  • d) On ajoute les 3 lettres de poids « 5 » aux nœuds de poids « 5 », « 6 » et « 9 » pour faire des nœuds de poids « 10 », « 11 » et « 14 » (orange).
  • e) On termine l’arbre jusqu’à obtenir un nœud commun de poids « 35 » (rouge).
  • f) Reste à attribuer une série de bit à chaque lettre. Pour cela, on choisit d’ajouter un bit « 0 » pour les branches de gauche et un bit « 1 » pour les branches de droites et on obtient alors l’arbre suivant : 
hauffman-copie-1.jpg

La phrase « LES SCIENTIFIQUES SONT INTELLIGENTS »est donc transcrite ainsi :

0100 011 001 1000 001 00010 11 011 101 0000 11 00011 11 10010
10011 011 001
1000 001 01010 101 0000 1000 11 101 0000 011 0100 0100 11 01011 011 101 0000 011

Ce qui représente au total 122 bits au lieu de 245 bits, soit un taux de compression de 50% environ. Le codage de Huffman est extrêmement performant et est utilisé comme dernière étape dans beaucoup d’autres algorithmes de compression.

L’algorithme LZ77 ou codage par dictionnaire

Cet algorithme permet de remplacer des séquences récurrentes par la position et la longueur de la première occurrence dans une fenêtre glissante. Par exemple, dans
cet article, on retrouve le mot « 
compression » de nombreuses fois et au lieu de le réécrire à chaque fois, on pourrait simplement dire de revenir de « n » caractères en arrière et de recopier les « p » caractères suivants (p=11 dans le cas du mot
« compression »).

Exemple :

« La compression est géniale, elle permet la compression de fichiers de toutes sortes ainsi que la compression de l’espace mémoire »

« La compression est géniale, elle permet la (41,11) de fichiers de toutes sortes ainsi que la (97,11) de l’espace mémoire »

 On a donc réduit le nombre de caractère total de cette phrase. Cet algorithme s’avère très intéressant quand de grandes suites de caractères sont très récurrentes.
ZIP

Toute personne utilisant les ordinateurs est familière du format de compression dénommé zip (le plus souvent géré à l’aide du fameux logiciel pour Windows winzip). Zip est en fait un algorithme de compression sans perte permettant de compresser n’importe quel fichier informatique (texte, image, son, etc.). En fait, le zip utilise un algorithme dénommé deflate qui n’est rien d’autre que la succession d’un codage Huffman puis d’un codage LZ77.
winzip Compression avec pertes

Ici, le principe consiste à exploiter les faiblesses de l’homme. En effet, notre ouïe et notre vue ne sont pas parfaites et de nombreuses informations contenues dans les fichiers audios ou visuels sont souvent inutiles car imperceptibles par nos sens. On comprend donc aisément que ce type de compression ne s’applique qu’aux fichiers audio, aux images, et aux films. De plus, une altération moindre de la qualité audio ou vidéo peut permettre de très importants taux de compression (supérieurs à 10).

Les formats les plus répandus sont bien évidemment le mp3 pour la musique, le jpeg pour les images et le mpeg-4 pour la vidéo (utilisé par divX et Xvid).
divxToutes ces méthodes de compression reposent sur de très nombreux phénomènes de nos sens comme notre plus ou moins bonne sensibilité à différentes couleurs ou lumière ou bien notre sensibilité à différentes fréquences sonores. Néanmoins, toutes les techniques de compressions avec pertes utilisent la quantification pour réduire drastiquement la taille des fichiers puis une technique de codage sans perte à la fin peut être appliqués : c’est par exemple le cas dans les images jpeg où un codage RLE puis Huffman sont appliqués après la quantification.

glu.jpg
 
 Mon chat en jpeg qualité 8 (44ko) et qualité 0 (21ko)
La quantification numérique

Pour coder une information sonore ou visuelle en format numérique, il faut procéder à une discrétisation du signal d’origine. Cette expression barbare, également appelée quantification, signifie que pour transformer un son ou une suite d’images (analogique) en format numérique (une suite binaire de « 1 » et de « 0 »), il faut « découper » l’information en petits éléments dans le temps mais aussi dans l’espace. Par exemple, un son étant caractérisé par une amplitude et une fréquence (voir billet précédent sur le
son
), il faut segmenter le signal dans le temps ainsi que son amplitude (quantification temporelle et spatiale).

quantif.jpg    
Quantification d’un signal

En général, on choisit un débit de données cible à atteindre et le pas de quantification adéquat est ensuite déduit. La réduction du débit de données d’un média sonore ou visuel entrainera donc une réduction de sa taille mais également une dégradation de sa qualité en conséquence.

Exemple de quantification dans les mp3

Outre différentes techniques utilisées par le format mp3 pour réduire la taille des fichiers audio sans altérer notre perception des morceaux, la quantification est l’étape capitale de compression.

Par exemple pour un morceau de musique que l’on souhaite compresser en mp3, si on choisit un débit cible de 192 kbits / seconde, la qualité du morceau reste très bonne tout en réduisant le fichier CD de base d’un facteur 7 environ (il faut une oreille experte et un très bon matériel Hi-Fi pour déceler la différence). En revanche, si l’on compresse ce même morceau à un débit de 32 kbits / seconde, la qualité sera médiocre, toute personne verra immédiatement la différence mais le fichier sera 24 fois plus petit !

Le contrôle industriel

Les raffineries de pétrole, les centrales nucléaires, les sucreries, les chaines d’assemblage automobile, les stations d’épuration, les fabriques de textiles, les aciéries, etc. Toutes ces industries ont un point commun : elles sont pilotées de manière plus ou moins automatique, mais comment ?

Chaplin Modern Times

La discipline qui s’occupe de répondre à cette question s’appelle le contrôle industriel et regroupe un ensemble très divers de techniques, de technologies et de disciplines scientifiques pour automatiser les différents processus industriels.

L’industrie

Un processus industriel représente un ensemble de machines et d’équipements permettant la fabrication ou la transformation de produits identiques en grande quantité.

Le contrôle industriel est né naturellement avec l’Organisation Scientifique du Travail (OST) à la fin du 19ème siècle (taylorisme puis fordisme) dont l’objectif était de développer scientifiquement une nouvelle technique pour chaque aspect de la tâche d’un travailleur, pour remplacer la méthode empirique utilisée traditionnellement. En gros: remplacer les hommes par des machines !

fordisme

Les systèmes de contrôle

Pour contrôler ces machines industrielles modernes, l’homme a du créer des systèmes de contrôle capables de piloter ces machines. Ainsi, on voit se dessiner naturellement 3 entités distinctes interagissant au sein des industries :

  • 1 – Les hommes (directions, ingénieurs, techniciens, opérateurs)
  • 2 – Les systèmes de contrôle (systèmes de communication, d’archivage et de calcul)
  • 3 – Les processus (les équipements et les machines)

Entre chaque entité, il existe des interfaces permettant d’échanger des informations. Ces interfaces ont fortement évoluées durant les dernières décennies grâce au « boom » des télécommunications. Ces 3 interfaces sont les suivantes:

  • – L’instrumentation : communication entre le système de contrôle et les machines au travers de capteurs (capteur de température, de pression, etc.) et d’actionneurs (vannes, vérins, moteurs, etc.).
  • L’Interface Homme Machine (IHM ou HMI en anglais) : système de supervision
    permettant de surveiller et de diagnostiquer l’état des équipements mais aussi d’agir sur eux en dialoguant avec le système de contrôle.
  • L’Interface locale : interaction physique directe entre les hommes et les machines en cas d’opération manuelle nécessaire sans avoir recours au système de contrôle (ex : ouverture d’une vanne à la main).

 Le système de contrôle peut alors être divisé en 3 couches distinctes:

  • a) Couche de terrain : système de communication avec le processus. Cette communication se fait généralement par le biais de bus de terrain (un réseau robuste adapté au milieu industriel pour dialoguer avec les capteurs et actionneurs).
  • b) Couche de contrôle : contient la logique de fonctionnement du processus pour le piloter. C’est ici que toute la connaissance est stockée et que les calculs sont effectués, généralement par des PC industriels ou des Automates Programmables Industriels (API ou PLC anglais). En général, c’est un algorithme informatique qui est exécuté de manière cyclique en temps réel. Cet algorithme lit les données du processus (entrées) et calcule la position des différents actionneurs (sorties) pour piloter le processus.
  • c) Couche de supervision : permet de réaliser l’Interface Homme Machine. En général un système de base de données archive les données des processus et les opérateurs agissent et surveillent les installations via des terminaux de supervision comme des ordinateurs ou des écrans tactiles reliés à cette base de données via un réseau Ethernet.

syst controle

L’automatique

Une fois toutes ces infrastructures de contrôle mises en place, il faut étudier le fonctionnement et la dynamique des processus pour pouvoir les contrôler à partir d’un programme informatique exécuté dans la couche de contrôle.

La science qui étudie la modélisation, l’analyse, la commande et la régulation
des systèmes dynamiques s’appelle l’automatique. Cette discipline (qui est le cœur de mon métier) peut faire partie de la physique, de l’informatique ou des sciences de l’ingénieur selon l’approche adoptée (c’est d’ailleurs une question qui divise malheureusement notre communauté). Dans l’industrie, on parle le plus souvent de contrôle-commande pour parler de cette discipline lorsqu’elle est appliquée à un système industriel.

J’ai déjà fait sur ce blog trois billets pour l’automatique (une Introduction, La Modélisation et La Commande) et je ne vais pas donc entrer dans les détails ici. Il faut juste retenir que pour mettre en place des systèmes de régulation (par exemple maintenir la température d’un four à 1000°C ou maintenir un ratio précis entre du propane et du butane dans une colonne de distillation), une modélisation dynamique des processus est nécessaire (il faut mettre les différentes grandeurs physiques des processus en équations) de manière à venir étudier la stabilité et le comportement des systèmes pour pouvoir mettre en place une loi de commande pour piloter les actionneurs (vannes, chauffages, moteurs, vérins, etc).

Les applications

Il est impossible de lister de manière exhaustive tous les domaines d’application du contrôle industriel car il intervient dans absolument tous les domaines de l’industrie. On peut juste citer l’aérospatial, l’agroalimentaire, l’automobile, la chimie, l’énergie, l’environnement, la médecine, l’extraction des sols (mines), le pétrole, la pharmacie, le papier, le transport, les textiles, le verre, la céramique, la sidérurgie, etc.

 Cependant, il est utile de préciser que les techniques du contrôle industriel peuvent être utilisées en dehors des industries et des usines. C’est le cas par exemple dans les grands instruments scientifiques comme les accélérateurs de particules. En effet, ces machines sont très similaires aux installations industrielles et elles utilisent les mêmes outils que l’industrie en matière de contrôle, même si parfois il faut développer des solutions spécifiques à ces machines uniques au monde. Ainsi, tout le système de contrôle permettant le refroidissement des 27 km d’aimants supraconducteurs du LHC (le plus puissant accélérateur de particules du monde au CERN à Genève) est analogue aux systèmes de contrôle que l’on pourrait trouver dans une raffinerie de pétrole. Pour info, le système de contrôle pour le refroidissement des aimants (un système parmi tant d’autres dans le LHC) comprend à lui seul 42 000 entrées/sorties et plus de 5000 boucles de régulation: on voit bien ici l’intérêt d’un système de contrôle industriel !!

 qsrb

Ecran de supervision du système de contrôle pilotant un réfrigérateur à hélium pour le LHC

Wolfram : un moteur de calcul de connaissances !

Un nouveau site vient de voir le jour sur la toile : Wolfram
Alpha
. A priori, rien d’exceptionnel, mais le principe et l’efficacité de ce « moteur » m’a plutôt impressionné… Evidement, il n’a pas réponse à tout, mais quand même… Quand on tape « Dieu » (God anglais) on apprend que « god » est le 486ème mot le plus cité en anglais à l’écrit et le 273ème mot le plus cité à l’oral (un mot sur 3300) mais Wolfram ne nous dit pas qui il est et s’il existe…

Je me suis retrouvé un peu bête la première fois devant la barre de recherche, je ne savais pas quoi taper alors j’ai essayé simplement « helium » et le site m’a donné sa place dans le tableau périodique des éléments avec toutes les propriétés atomiques, chimiques, thermodynamiques et magnétiques de l’hélium avec ses isotopes de manière joliment présentée avec toutes les unités configurables, plutôt pas mal, mais bon, rien d’extraordinaire non plus (j’aurais été impressionné qu’il me donne la variation de chaleur spécifique en fonction de la température). J’ai également tenté « helium phase diagram » et il m’a fourni un beau diagramme de phase de l’hélium (nettement mieux que ceux qu’on trouve habituellement sur le web).

 

Le site se définit comme un moteur de calcul des connaissances (computational knowledge engine). En gros, c’est un peu une sorte de moteur de recherche comme Google mais Wolfram permet de calculer tout ce qui peut être calculé à propos de n’importe quoi, c’est le site qui le dit : make it possible to compute whatever can be computed about anything. Désolé, le site est uniquement en anglais pour l’instant.

Wolfram fournit un résultat unique comme une encyclopédie, contrairement à un moteur de recherche classique qui fournit une quantité impressionnante de sources où l’on peut souvent se perdre. L’idée est de faire une requête sur une question, quelle qu’elle soit et d’y répondre le mieux possible. Les questions peuvent être évidemment scientifiques mais pas seulement, Wolfram répond aussi à des questions de géographie, de musique, de sport, d’histoire, etc. Bref, c’est un peu comme un super Quid. La réponse est ensuite téléchargeable en format pdf.

Etant proche de la Suisse et aimant le gruyère, j’ai donc tenté de connaitre la densité du gruyère suisse, j’ai donc tapé « cheese gruyère density » et Wolfram m’a répondu sans ciller 0,92 g/cm3:

L’algorithme utilisé par Wolfram utilise pas moins de 5 millions de lignes de codes écrites en langage Mathematica pour ceux qui connaissent, sans commentaires…. Le tout est relié à une base de données qui contient (selon le site) environ 10 milliards d’entrées et plus de 50 000 types d’algorithmes et de modèles. J’ai également tenté de taper la ville où j’habite (Gex) et j’ai eu ma réponse :

Il y a également, toutes les possibilités de calcul de manière formelle comme dans Mathematica. J’ai tapé « cos(2x) + sin(x) + tan(x)^2 » et Wolfram m’a répondu pleins de choses, entre autres :

En revanche, des déceptions, je n’ai rien trouvé en tapant : superfluid helium, Euler flow et Théodulf (évêque d’Orléans pendant la Renaissance carolingienne).

 A vous de jouer maintenant en vous amusant un peu avec ce nouvel outil du web: http://www39.wolframalpha.com/

Internet, Google et Ecologie

L’informatique contribue au niveau mondial pour environ 2% des rejets des gaz à effet de serre selon le cabinet d’analyse Gartner, ce qui est loin d’être négligeable.

Le processeur est l’organe qui effectue les calculs dans les ordinateurs. Un processeur consomme de l’électricité et dégage de la chaleur. C’est pour cette raison que tous les ordinateurs sont équipés de ventilateurs (parfois bruyants). A titre d’exemple, votre Pentium 4 à 3 GHz exploserait au bout de 28
minutes sans ventilateur !

Nous utilisons tous des ordinateurs de bureau (qui consomment relativement peu) mais également des centaines d’autres ordinateurs à travers le monde lorsque nous surfons sur Internet. De manière générale, nous utilisons des ressources informatiques en termes de calcul et de stockage lorsqu’on accède à
une page internet, lorsqu’on télécharge un fichier et lorsqu’on effectue une requête sur un moteur de recherche comme Google. Dans ce cas, on ne parle plus d’ordinateurs de bureau mais de fermes de serveurs (des milliers de processeurs disposés côte à côte en train de faire des calculs), et ce n’est plus des ventilateurs mais bien des stations de climatisation industrielles qui sont nécessaires pour les refroidir.

 Pour cette raison, on trouve souvent les centres de calcul à proximité des centrales électriques et des cours d’eau pour l’alimentation électrique et le refroidissement des processeurs.



Centre de données Google à The Dalles en Oregon au bord de la Rivière  Columbia. Ce centre, grand comme 2 terrains de football, consommerait 103 MW pour fonctionner. Photo: Craig Mitchelldyer/Getty Images

 L’empreinte carbone

C’est très à la mode de calculer son « empreinte carbone », voir par exemple http://www.calculateurcarbone.org relativement bien fait et facile à faire moyennant une petite demi heure si vous connaissez déjà un peu vos habitudes de consommation.

 Résultat : je consomme 1,1t de carbone par an avec 25% d’erreur, soit 4,3t de CO2/an. Ca fait tout de même peur ! La moyenne mondiale est de 4t de CO2/an, la moyenne française de 6t de CO2/an et un américain moyen est à 20t CO2/an. Je suis donc en dessous du Français moyen mais au-dessus de la moyenne mondiale, pas de quoi de vanter… Néanmoins, ce test ne prend pas en compte le temps passé sur internet ni l’utilisation de moteur de recherche.  J’ai donc cherché à connaitre l’impact d’internet sur mon empreinte carbone.

 Attention, l’utilisation de l’ordinateur seul est prise en compte via ma facture d’électricité et des questions sur mes achats informatiques. Je m’intéresse ici au fait d’utiliser des ressources informatiques délocalisées via internet.

 Après le Cochon, la Chèvre et le Mouton, une nouvelle fable contemporaine : Google, le Carbone et la Tasse de thé

J’ai récemment lu un article sur Le Monde.fr au sujet d’un scientifique dénommé Alexander Wissner-Gross de l’université d’Harvard qui disait que : «  deux requêtes sur Google consommeraient autant de carbone qu’une tasse de thé bien chaud. Selon les travaux de ce scientifique, deux requêtes sur Google généreraient 14 grammes d’émission de carbone, soit quasiment l’empreinte d’une bouilloire électrique (15 g) ». Quid de cette information ?


La différence entre le bon scientifique et le mauvais scientifique c’est que quand un mauvais scientifique voit une information, il l’ingurgite alors que le bon scientifique, lui, quand il voit une information, il la vérifie. Nous allons donc vérifier cette information avant de l’ingurgiter bêtement…

 J’ai lu l’article du Times auquel Le Monde.fr se réfère et là, premier problème : le Times parle d’émission de gaz à effet de serre en équivalent CO2 et non équivalent Carbone comme dans l’article du Monde.fr… Il faut déjà se mettre d’accord sur les unités !! En général, on parle en équivalent CO2, ce que je ferai dans la suite de ce billet (pour info, 1kg équivalent CO2 = 0,27 kg équivalent carbone).

J’ai également pu constater que ce chiffre a été quelque peu déformé au fil d’articles à en croire cet article de Futura-Science. Néanmoins, Futura-Science n’est pas très bon en arithmétique apparemment car l’article dit que « le calcul est dès lors rapide à faire : si l’on admet le chiffre de 7 grammes par requête, ainsi que l’affirme le Times, les serveurs de Google rejettent quotidiennement 2.450 tonnes de CO2 dans l’atmosphère, soit autant que le Japon en six mois ! » Ce dernier calcul a été effectivement fait trop vite par Futura-Science car en prenant ma calculette et en admettant le chiffre de 7g/requête, Google génère bien 2450t de CO2/jour mais cela correspond à 1 minute d’émission du Japon (qui rejette 1236 millions de tonnes de CO2/an) et pas à 6 mois !! Je tenais à rectifier cette comparaison aberrante qu’ils ont publiée. De toute manière, ce chiffre de 7g/requête n’a aucune justification scientifique valable pour l’instant.

Le fameux chercheur interviewé par le Times a en fait publié un article disant que la consultation d’une page web classique consommait environ 20mg de CO2/seconde, soit 72g de CO2/heure. Mais attention, la consultation d’une page très riche en information, style vidéo youtube, multiplie ce chiffre par 10, soit 720g de CO2/heure. Une heure de vidéo youtube correspondrait alors en terme de rejet de gaz à effet de serre à prendre une petite voiture moderne diesel et à rouler 6 km (une petite voiture diesel moderne rejette 115g CO2/km).

 Pour une réflexion plus sérieuse sur ce débat, je vous conseille plutôt de lire cet article qui traite la question de fond sous-jacente, à savoir comment diminuer le rejet de CO2 lié à l’informatique dans le monde.

 De quoi est-on sûr alors?

Au final, on a du mal à y voir clair et on ne sait plus qui croire. Le Times a fait un erratum à son article en accord avec la réponse de Google ayant répondu qu’une requête Google qui dure en moyenne moins d’une seconde rejette 0,2g équivalent CO2, et pas 7g (voir explication Google). Google rejetterai donc 25 500t de CO2/an à cause des requêtes sur le moteur de recherche, soit autant que  4000 Français moyens, ce qui est relativement peu pour une entreprise comme Google.

Cependant, la méthode de calcul me chagrine un peu. Je ne suis pas sûr que toute la chaine soit prise en compte dans ce calcul. A mon avis, la meilleure méthode englobant tout Google serait la suivante :

  •  Calculer la facture d’électricité de Google en kWh sur une année (l’énergie consommée totale pour Google).
  • La multiplier par la quantité de CO2 produite pour produire 1 kWh. On prend comme hypothèse le ratio américain  de 550g de CO2/kWh électrique (contre 90g de CO2/kWh électrique en France).
  • Diviser le tout par le nombre de requêtes Google dans une année  (estimé à 365*350 millions = 127 milliards de requêtes).

 Certes, le nombre final trouvé ne correspondra pas directement à la quantité de CO2 rejeté lors d’une simple requête car il prendra en compte toutes les infrastructures nécessaires à cette requête ainsi que les autres services de Google (car les serveurs ne sont pas dédiés qu’au moteur de recherche).
Cependant, cette quantité reflètera l’émission totale générée par Google pour traiter une requête tout en incluant les autres services proposés (google earth, google map, google doc, etc.).

 L’estimation de la puissance électrique consommée par Google est secrète mais plusieurs personnes (comme ici) et certains journaux (comme Le Monde) ont tenté le calcul et aboutissent autour des 2 TWh/an. Dans ce cas, notre calcul donne le résultat suivant : 8,6g C02 / requête en incluant les services Google. En une année, Google consommerait donc 1 million de tonnes de CO2/an, ce qui correspond à l’émission du Niger, classé 144ème pays le plus émetteur (sur un total de 181 pays).

Pour en revenir à mon bilan carbone annuel, je pense faire environ 5000 recherches Google par an (environ 15 par jour). Si je prends l’hypothèse haute de 8,6g/requête, cela correspondrait à émettre 43 kg équivalent CO2 supplémentaire dans mon bilan, soit une part de 1% de mon rejet annuel. Au premier abord, l’impact de mes recherches Google sur mon empreinte carbone est donc relativement faible.

 Ne pas non plus diaboliser Internet et Google

Google essaye de surfer sur la vague éco en consommant le moins possible d’électricité avec des serveurs informatiques les moins gourmands possible. Google explique volontiers les mesures énergétiques prises car cela améliore son image de marque mais ce n’est pas que pour le plaisir mais bien pour gagner plus d’argent car l’électricité est la principale dépense de Google ! Cependant, il est évident qu’ils font des efforts non négligeables sur ce plan.



Par exemple ils ont équipé le Googleplex de panneaux solaire à hauteur de 1,6 MW, ce qui est une grosse centrale solaire aujourd’hui. Ils construisent également des centres de données en Finlande où il fait froid pour consommer moins d’électricité en refroidissement.

Combien de CO2 pour ce billet de blog ?

Pour ce billet de blog, j’ai effectué 28 requêtes Google, soit 240g CO2 en prenant l’hypothèse haute des 8,6g/requête. J’ai passé 5 heures à faire des recherches et à écrire sur mon ordinateur portable qui consomme 80W (il est gros, vieux et bruyant), soit 400 Wh au total, ce qui correspond en France à 35 g CO2 rejeté. De plus, j’ai dû surfer pendant environ 1 heure sur Internet, soit 72g de CO2 supplémentaire. J’ai donc rejeté au total 347g de CO2 pour vous offrir ce
billet.

Si j’avais dû aller à la bibliothèque de Genève en voiture pour faire des recherches (j’habite à la campagne à 35 km de Genève, pas de transport en commun),  j’aurais émis 8 kg de CO2 (avec une petite voiture diesel), soit 23 fois plus, à méditer…

 Sources : Rapport 2009 de l’Agence Internationale pour l’énergie (IEA) : http://www.iea.org/co2highlights/co2highlights.pdf

Cartographie de la physique V2

Ceci est la suite du billet Cartographie
de la physique
. Je propose ici une deuxième version en fonction des remarques faites en commentaire dans le billet précédent et des différentes conversations de vive voix que j’ai eues avec collègues et amis au sujet d’un « découpage de la physique ».



Voici les modifications notables :

– Ajout de la Biophysique que je n’avais absolument pas considérée

– Ajout de la physique du globe qui était également absente

– Ajout de la physique mathématique  que j’avais décidé de ne pas mettre au début mais je me suis
rendu compte que cette branche ne pouvait pas être délaissée ou rattachée à un autre domaine particulier

– J’ai renommé la « physique théorique » en « théories des unifications »
car toutes les théories présentées étaient des théories d’unification

– Ajout de la mécanique quantique relativiste dans les théories d’unification


Pour les versions PDF en meilleure qualité, c’est ici :

Voir le planisphère V2 en haute définition

Voir le schéma V2 du début en haute définition

La question des sciences de l’ingénieur

J’insiste encore sur le fait de ne pas détailler les sciences de l’ingénieur ici car ce n’est pas le but. La physique signifie « l’étude de la nature » étymologiquement, ce que font toutes les disciplines de cette carte (électromagnétisme, mécanique, astronomie, etc.). On ne peut donc pas inclure directement dans la physique l’électronique qui résulte de l’étude de circuits construits par l’homme : pour moi, l’électronique fait parti des sciences de l’ingénieur. En revanche, la physique des semi-conducteurs, elle, étudie le comportement physique (de la nature) des composants électroniques comme les transistors. Certes, la
physique des semi-conducteurs n’est pas explicitement représentée sur ma carte mais elle est implicitement incluse dans la physique des solides qui appartient à la physique de la matière condensée : eh oui, je ne peux pas détailler toutes les spécialités sur la carte, cela serait trop compliqué, prendrait trop de place et la carte ,perdrait de la clarté.

Les relations entre les domaines

Beaucoup de personnes m’ont reproché de ne pas représenter les liens entre les domaines pour bien comprendre les dynamiques qui existent entre les différents domaines comme Nina qui disait en commentaire que pour faire de la physique des plasmas il faut faire « de la mécanique quantique, de la physique atomique, de la thermodynamique (classique et statistique)… et j’en passe! ». En réponse, j’ai proposé de faire une matrice évaluant les relations entre les domaines (car la représentation graphique serait trop illisible). J’ai donc réalisé 2 matrices distinctes :

– Une que j’ai nommé matrice de liaison

– Une que j’ai nommé matrice de dépendance

 Chaque ligne et chaque colonne de ces matrices représente un « grand domaine », i.e. les rectangles bleus dans le schéma ou les continents sur la carte. J’ai simplement écarté la physique mathématique car par définition elle agit avec toutes les disciplines et j’ai également séparé la mécanique classique et relativiste.

Matrice de liaison

Dans la matrice de liaison, on place un ‘1’ à l’intersection de 2 domaines s’il existe un lien (quel qu’il soit) entre les deux et ‘0’ sinon. On voit tout de suite que cette matrice aura une diagonale de ‘1’ et sera symétrique. Le résultat est le suivant :



(Astro :Astronomie / Globe :Physique du gobe / M Cond. : Physique de la Matière Condensée /Thermo : Thermodynamique / EM : Electromagnétisme / Bio : Biophysique / Quant :Physique Quantique / M Cl : Mécanique Classique / M Rel : Mécanique Relativiste /Plas : Physique desPlasmas / Opt :Optique / Unif : Théories d’unification)

Cette matrice contient 55% de ‘1’ ce qui signifie qu’en moyenne, chaque domaine entretient des relations avec 55% des autres domaines (parmi les domaines prédéfinis bien sûr). Dans la dernière colonne, j’ai totalisé le nombre de liens par domaine et on peut voir que c’est l’astronomie, la matière condensée et l’électromagnétisme qui entretiennent le plus de relations. A l’inverse, la biophysique et la les théories d’unifications entretiennent peu de rapports avec les autres domaines.

Matrice de dépendance

Pour affiner la matrice de liaison, j’ai décidé de représenter les dépendances entre les domaines. Je m’explique : à l’intersection d’un domaine X en abscisse et d’un domaine Y en ordonnée, on place un ‘1’ si X dépend de Y. En gros, si le domaine X est nécessaire pour travailler dans le domaine Y, on place un ‘1’. On voit tout de suite que dans ce cas, on aura toujours une diagonale de ‘1’ mais la matrice ne sera plus symétrique car les relations de dépendance ne sont pas
réciproques.  Voici le résultat :


J’ai également totalisé le nombre de ‘1’ (hors diagonale) dans les lignes et les colonnes. On peut alors dire que les totaux des lignes correspondent à la
nécessité d’un domaine car beaucoup d’autres domaines font appel à lui alors que les totaux des colonnes représentent la dépendance d’un domaine, à savoir le nombre de domaines dont il a besoin pour exister.

On s’aperçoit que l’astronomie, la physique du globe, la biophysique et les
théories d’unifications ne sont pas nécessaires aux autres domaines alors que l’électromagnétisme et la physique quantique sont nécessaires dans beaucoup de domaines, on peut alors dire que se sont des domaines plus « fondamentaux » au sein de la physique.

Concernant la dépendance des domaines, l’astronomie est de loin le domaine le plus dépendant car il utilise presque tous les autres (seul la biophysique et la physique du globe ne sont pas nécessaires à l’astronomie). A l’opposé, l’électromagnétisme, la physique quantique et la mécanique classique sont entièrement indépendants dans le sens où il ne font pas appel aux autres domaines de la physique.

Finalement, si vous voulez une vision graphique, c’est possible et on obtient le schéma ci dessous. Ce sont les relations de dépendances qui sont représentées : une flèche de X vers Y signifie «X dépend de Y» :



Une méthode pertinente ?

Je ne pense pas que l’on puisse faire des jugements de valeurs pertinents en se reposant sur ces matrices uniquement pour deux principales raisons. Premièrement, les résultats dépendent très fortement du choix des domaines qui a été fait à la base. Pour avoir une vision plus juste il faudrait inclure tous les sous-domaines et cela ferait une matrice gigantesque très compliquée à remplir. Deuxièmement, j’ai rempli moi-même ces cases sans être forcément spécialiste d’un domaine donc certaines dépendances ne sont peut être pas forcement justifiées (je compte d’ailleurs sur vous pour me corriger). Cependant, ces matrices sont intéressantes pour apprécier qualitativement les relations
entre les domaines de la physique.

Une méthode qui serait plus juste serait de faire des pondérations sur les dépendances car dans ma méthode, il n’y a pas de « mesure » d’une dépendance. Pour reprendre l’exemple de la physique des plasmas, la dépendance à l’électromagnétisme est sans doute plus « forte » que la dépendance avec la thermodynamique. Quoique ce soit très difficile à évaluer. Une méthode serait de regarder le nombre d’articles de journaux qui font référence à des articles de
domaines différents, ce serait ainsi une manière de quantifier les dépendances entre les domaines mais ça demande pas mal de travail… D’autant plus que je me suis cantonné à la physique exclusivement. Il est évident que les relations avec des sciences « externes » existent. Par exemple, la biophysique est fortement liée à la biologie qui ne fait pas partie de la physique.

Bref, le découpage de la physique est à méditer et les relations entre les domaines sont très difficiles à évaluer.

Partager l’article : Cartographie de la physique V2
 
Ceci est la suite du billet Cartographie de la physique. Je propose ici une deuxième version en fonction des remarques…

Cartographie de la physique

C’est un constat que peu de personnes peuvent réfuter : depuis le début du 20ième siècle, les scientifiques se spécialisent de plus en plus. Même les physiciens ont du mal à s’y retrouver dans toutes les disciplines d’aujourd’hui !

Le temps des scientifiques philosophes

Depuis l’antiquité grecque jusqu’au 18ième siècle, les scientifiques étaient philosophes, mathématiciens, physiciens, biologistes, astronomes, voire médecin. Certes, il y avait des petites préférences, mais ils touchaient un peu à tout et ils avaient une assez bonne vue d’ensemble de la science de leur époque, bien que les moyens de communications étaient très loin de ceux d’aujourd’hui. Prenons par exemple Descartes (1596-1650), il est étudié par de nombreux
étudiants:

  • Les étudiants en philosophie l’étudient en détail
  • Il est présent dans les cours de mathématiques en algèbre et en géométrie
  • En mécanique, il est mentionné pour la loi des chocs
  • Il est omniprésent dans les cours d’optique géométrique

 Le début des spécialisations

Durant le 18ième jusqu’au début du 20ième siècle, les scientifiques commencèrent à se spécialiser, par exemple en physique ou en mathématiques, mais les champs d’applications restaient relativement vastes et il y avait d’importantes passerelles entre les disciplines. Carl Friedrich Gauss (1777-1855), l’un des plus fameux mathématiciens de tous les temps, a par exemple apporté de nombreux résultats en astronomie et il est également à la base du magnétisme avec Weber.

 L’apogée du scientifique ultra spécialiste

La physique du début du 20ième siècle va voir deux grandes révolutions :

  • La naissance de la physique quantique avec la théorie des quanta de Planck (1900)
  •  La relativité restreinte (1905) et générale (1915) d’Einstein

 A partir de cet instant, les théories vont se complexifier, les artifices mathématiques vont être de plus en plus sophistiqués et l’accès à la connaissance d’un domaine va être de plus en plus ardu.

Non seulement les scientifiques du 20ième siècle vont se cantonner à la physique ou aux mathématiques pures mais ils vont se spécialiser encore et encore. Un chercheur au CNRS travaille en général sur un sujet précis relatif à un domaine faisant lui-même parti d’une discipline. Je prends comme exemple mon directeur de thèse qui est au CNRS : il travail dans les Sciences et Technologies de l’Information et de l’Ingénierie (ST2I), son domaine est l’automatique et son sujet d’étude porte sur les systèmes à retard. C’est évidemment très obscur pour une personne étrangère au domaine !

  Les avancées dans tous les domaines ont été telles, que la connaissance complète d’un domaine de la physique moderne demande plusieurs dizaines d’années de travail. Aujourd’hui, personne ne peut être à la pointe dans plusieurs domaines disjoints. Cependant, toutes les disciplines entretiennent des relations plus ou moins fortes. Je prends un exemple que je connais bien : la cryogénie (science qui a pour objectif l’étude des basses températures et de ses effets sur la matière), il faut faire de la thermodynamique, de la mécanique des fluides, voire de la physique quantique, d’où la difficulté d’établir une carte des domaines de la physique !

 Une carte de la physique moderne

Je me suis donc dit, comment élaborer une « carte de la physique » pour que monsieur tout le monde puisse y voir un peu plus clair? Il faut avant tout essayer de différencier les disciplines, les domaines, les théories et les spécialisations. Le  découpage est loin d’être trivial, une hiérarchie entre les différentes entités est impossible car tout se recoupe plus ou moins. Après plusieurs tentatives sur des feuilles A3 avec presque une centaine d’entités et des flèches dans tous les sens, j’ai compris que c’était impossible et que ma belle idée n’était pas réalisable : l’architecture de la physique est complexe !

Je me suis donc résolu à donner mon interprétation personnelle de l’organisation de la physique, faute de mieux.
Cette représentation est entièrement subjective, il manque sans doute des entités et j’ai sans doute mis des choses insignifiantes. J’ai décidé volontairement de ne pas détailler les sciences de l’ingénieur pour des raisons de clarté. C’est pour cette raison que l’informatique, l’automatique, la robotique, l’électronique, la micro électronique, etc. sont absents de cette carte.

 Voilà le résultat après quelques heures de réflexion : 

J’ai ensuite transposé ce schéma sur un planisphère terrestre (l’image du début de l’article). Je précise d’avance que l’attribution des domaines aux continents et aux pays n’a rien à voir avec l’endroit géographique en question, la répartition a été faite selon la « place » disponible dans les continents. Pour voir les images en meilleure qualité :

Voir le planisphère du début en haute définition (PDF-115ko)

– Voir le schéma ci-dessus en haute définition (PDF-80ko)

 Vous constaterez que le découpage peut être refait de nombreuses manières différentes. J’ai par exemple créé une section « optique » contenant « l’optique ondulatoire » et « l’optique quantique » alors que ces dernières pourraient être respectivement rattachées à « l’électromagnétisme » et à la « physique quantique », mais dans ce cas je ne savais plus où mettre « l’optique géométrique ». Eh oui, c’est un vrai casse-tête ! Ceci n’est qu’un exemple parmi d’autres. Vous constaterez également que la « physique des plasmas » est toute seule car je n’ai pas su où la classer. Concernant ma section « physique théorique », c’est principalement de la « physique quantique » mais ce découpage permet de séparer la physique expérimentale et la physique théorique pure, ce qui me paraît plus élégant…

 Vos réactions sont les bienvenues

J’attends vos commentaires au sujet de cette carte. Que voudriez-vous voir apparaître (ou disparaître), pensez-vous que certains liens sont justifiés ? Si je récolte suffisamment de propositions (constructives), j’essayerai, en me basant sur vos remarques, de faire une deuxième version de cette carte qui n’est encore qu’une ébauche…

La deuxième version se trouve ici : Cartographie de la physique V2

Les yeux rouges sur les photos

C’est arrivé à tout le monde, une photo avec flash et surprise: les yeux sont rouges vifs tel un lapin atteint de myxomatose! Cet effet n’est pas un problème des appareils photos comme beaucoup de gens le croient, nous avons vraiment les yeux rouges lors d’une photo prise de face avec un flash, mais pourquoi ?



Notre œil est composé de l’iris qui fait la couleur de nos yeux et d’une pupille noire en son centre. Les rayons lumineux entrent par la pupille et une image se forme sur notre rétine. La zone de convergence des faisceaux au centre de la rétine est appelée la macula. De nombreux vaisseaux sanguins irriguent la rétine et la macula, ce qui confère une couleur rouge à cette zone. Nos pupilles se dilatent plus ou moins selon la lumière, ainsi, dans la nuit, notre pupille est dilatée au maximum pour absorber le maximum de lumière. Si un éclair bref et violent comme un flash est émis, notre pupille n’a pas le temps de se rétracter et le flash éclaire alors directement le fond de notre œil. Si la photo est prise de face, le flash éclaire directement la macula qui est bel et bien rouge. Résultat : Nos pupilles apparaissent rouges sur la photo.

 

Fond de l’œil : la rétine parcourue par des vaisseaux sanguins avec au centre la macula

Pour éviter cet effet yeux rouges, certains appareils possèdent un flash anti-yeux rouges qui émet un premier flash avant d’émettre le flash final permettant de prendre la photo dans l’obscurité. De cette manière, notre pupille se rétracte lors du premier flash et nous n’avons donc plus les yeux rouges lors du second flash vu que la pupille n’est plus dilatée.

Pour conclure, on peut éviter les yeux rouges sur une photo avec un « pré-flash » ou en prenant la photo de biais de manière à ne pas éclairer le fond de l’œil directement. On trouve également des filtres anti-yeux rouges dans les logiciels de retouche photo afin de remplacer le rouge par une couleur foncée. Cela marche bien mais il ne faut pas trop zoomer auquel cas la retouche est visible.

INTERNET : HTTP, TCP/IP et WWW

Le Nouveau Petit Robert 2007 sur mon bureau dit :

Internet : « n.m. – répandu vers 1995 ; mot anglais américain de internetworking (réseau). Anglicisme. Réseau mondial télématique utilisant le même protocole de communication »

Web : «n.m. – 1994 ; abréviation anglaise de World Wide Web (toile d’araignée mondiale). Anglicisme. Système basé sur les liens hypertextuels, permettant l’accès aux ressources du réseau Internet ».


InternetMonde.jpg

A la fin des années soixante, aux Etats-Unis, un premier réseau informatique, appelé ARPANET voit le jour. Ce réseau fut le premier a échanger des « paquets » de données informatique entre différentes universités américaines.

En 1974, le protocole TCP/IP voit le jour. On peut juste retenir que TCP/IP (Transmission Control Protocol / Internet Protocol) est un ensemble de 2 protocoles : le protocole TCP permet d’établir une connexion, de découper les données à envoyer en différents paquets alors que le protocole IP s’occupe du transport de ces paquets sur le réseau pour trouver le meilleur chemin, il ne se préoccupe pas du contenu des paquets.

A la fin des années quatre-vingt, la NST (National Science Foundation) ouvre le réseau ARPANET pour tous les américains désirant se connecter en mettant en service 5 serveurs
informatique sur le sol américain. Ce réseau ayant remporté un grand succès, il fut étendu et a donné naissance à INTERNET, un réseau où tous les ordinateurs peuvent communiquer dans le monde avec même langage : le TCP/IP. A ce stade, on ne parle pas encore de site Internet. Ces protocoles de communications doivent ensuite être exploités par ce que l’on appelle une couche application (comprenez un programme informatique). Au début, Internet permettait uniquement à des personnes (le plus souvent des scientifiques) de pouvoir échanger des fichiers informatiques entre eux.
internet.jpg

En 1989, à Genève, au CERN (l’Organisation Européenne pour la Recherche Nucléaire), un informaticien dénommé Tim Berners-Lee propose de mettre en place un système de liens hypertextes ayant pour objectif de simplifier l’échange des informations au sein du réseau du CERN. Le HTTP (Hypertext Transfer Protocol) était né. Il fit cette proposition au CERN en mars 1989, consultable en intégralité à cette adresse : http://www.w3.org/History/1989/proposal.html. Tim Berners-Lee inventa ensuite un système de navigation pour passer d’une page à l’autre à travers ces fameux liens hypertextes. En mai 1990, en partenariat avec un autre ingénieur système du CERN, Robert Cailliau, le système est baptisé World Wide Web, le fameux WWW des adresses Internet. http://info.cern.ch/ est l’adresse du tout premier site et serveur Web, qui était hébergé par un ordinateur NeXT du CERN.


Tim.jpg
Tim Berners-Lee  et son ordinateur NeXTen 1990 exposé au CERN à Genève

A cette époque, le CERN commençait à utiliser le TCP/IP et il était en train de se connecter sur Internet : le projet WWW allait s’étendre et devenir ce que l’on connaît : une gigantesque toile d’araignée. En 1991, le premier serveur Web non-européen voyait le jour aux Etats-Unis en Californie, hébergé au SLAC (Centre de l’accélérateur linéaire de Stanford). Il y a 15 ans, en 1992, il y avait 26 sites web dans le monde (voir la liste) !! Fin 1993, on dénombre 623 sites web, puis 3 000, 23 000, 230 000, plus de 1 millions de sites en 1997 et désormais on en compte plus de 110 millions. Le nombre d’utilisateurs a augmenté encore plus vite, selon le cabinet d’analyses Research and Markets, le nombre d’utilisateurs d’Internet pourrait grimper à un joli 1,35 milliard en 2007.

Aujourd’hui, le Web n’a plus grand chose à voir avec son aspect originel et ses utilisations sont bien plus diverses que ce à quoi ses concepteurs s’attendaient. Il a été créé pour naviguer dans des informations concernant la physique des particules et maintenant c’est un véritable commerce mondial qui a lieu sur le Web. Une entreprise non présente sur le Web est une entreprise qui n’existe pas !!

On parle également du Web 2.0. La définition est quelque peu délicate car il y a beaucoup de désaccords mais grosso modo, le Web 2.0 est un web non plus statique mais entièrement dynamique ou chacun possède ses propres données et peut interagir avec d’autres utilisateurs pour créer ainsi différents réseaux sociaux. Techniquement parlant, les sites Internet faisant parti du Web 2.0 possèdent un squelette graphique (un template) compatible avec toutes les plates-formes et le contenu des pages évolue en fonction de bases de données dynamiques qui changent constamment en fonction des différents utilisateurs. Le Web 2.0 ne contient pas vraiment des « sites » mais plutôt des « services ». En exemple, on peut citer Wikipédia, Picassa, LinkedFeed, DailyMotion, YouTube