Archives pour la catégorie Technologie et Innovation

INTERNET : HTTP, TCP/IP et WWW

Le Nouveau Petit Robert 2007 sur mon bureau dit :

Internet : « n.m. – répandu vers 1995 ; mot anglais américain de internetworking (réseau). Anglicisme. Réseau mondial télématique utilisant le même protocole de communication »

Web : «n.m. – 1994 ; abréviation anglaise de World Wide Web (toile d’araignée mondiale). Anglicisme. Système basé sur les liens hypertextuels, permettant l’accès aux ressources du réseau Internet ».


InternetMonde.jpg

A la fin des années soixante, aux Etats-Unis, un premier réseau informatique, appelé ARPANET voit le jour. Ce réseau fut le premier a échanger des « paquets » de données informatique entre différentes universités américaines.

En 1974, le protocole TCP/IP voit le jour. On peut juste retenir que TCP/IP (Transmission Control Protocol / Internet Protocol) est un ensemble de 2 protocoles : le protocole TCP permet d’établir une connexion, de découper les données à envoyer en différents paquets alors que le protocole IP s’occupe du transport de ces paquets sur le réseau pour trouver le meilleur chemin, il ne se préoccupe pas du contenu des paquets.

A la fin des années quatre-vingt, la NST (National Science Foundation) ouvre le réseau ARPANET pour tous les américains désirant se connecter en mettant en service 5 serveurs
informatique sur le sol américain. Ce réseau ayant remporté un grand succès, il fut étendu et a donné naissance à INTERNET, un réseau où tous les ordinateurs peuvent communiquer dans le monde avec même langage : le TCP/IP. A ce stade, on ne parle pas encore de site Internet. Ces protocoles de communications doivent ensuite être exploités par ce que l’on appelle une couche application (comprenez un programme informatique). Au début, Internet permettait uniquement à des personnes (le plus souvent des scientifiques) de pouvoir échanger des fichiers informatiques entre eux.
internet.jpg

En 1989, à Genève, au CERN (l’Organisation Européenne pour la Recherche Nucléaire), un informaticien dénommé Tim Berners-Lee propose de mettre en place un système de liens hypertextes ayant pour objectif de simplifier l’échange des informations au sein du réseau du CERN. Le HTTP (Hypertext Transfer Protocol) était né. Il fit cette proposition au CERN en mars 1989, consultable en intégralité à cette adresse : http://www.w3.org/History/1989/proposal.html. Tim Berners-Lee inventa ensuite un système de navigation pour passer d’une page à l’autre à travers ces fameux liens hypertextes. En mai 1990, en partenariat avec un autre ingénieur système du CERN, Robert Cailliau, le système est baptisé World Wide Web, le fameux WWW des adresses Internet. http://info.cern.ch/ est l’adresse du tout premier site et serveur Web, qui était hébergé par un ordinateur NeXT du CERN.


Tim.jpg
Tim Berners-Lee  et son ordinateur NeXTen 1990 exposé au CERN à Genève

A cette époque, le CERN commençait à utiliser le TCP/IP et il était en train de se connecter sur Internet : le projet WWW allait s’étendre et devenir ce que l’on connaît : une gigantesque toile d’araignée. En 1991, le premier serveur Web non-européen voyait le jour aux Etats-Unis en Californie, hébergé au SLAC (Centre de l’accélérateur linéaire de Stanford). Il y a 15 ans, en 1992, il y avait 26 sites web dans le monde (voir la liste) !! Fin 1993, on dénombre 623 sites web, puis 3 000, 23 000, 230 000, plus de 1 millions de sites en 1997 et désormais on en compte plus de 110 millions. Le nombre d’utilisateurs a augmenté encore plus vite, selon le cabinet d’analyses Research and Markets, le nombre d’utilisateurs d’Internet pourrait grimper à un joli 1,35 milliard en 2007.

Aujourd’hui, le Web n’a plus grand chose à voir avec son aspect originel et ses utilisations sont bien plus diverses que ce à quoi ses concepteurs s’attendaient. Il a été créé pour naviguer dans des informations concernant la physique des particules et maintenant c’est un véritable commerce mondial qui a lieu sur le Web. Une entreprise non présente sur le Web est une entreprise qui n’existe pas !!

On parle également du Web 2.0. La définition est quelque peu délicate car il y a beaucoup de désaccords mais grosso modo, le Web 2.0 est un web non plus statique mais entièrement dynamique ou chacun possède ses propres données et peut interagir avec d’autres utilisateurs pour créer ainsi différents réseaux sociaux. Techniquement parlant, les sites Internet faisant parti du Web 2.0 possèdent un squelette graphique (un template) compatible avec toutes les plates-formes et le contenu des pages évolue en fonction de bases de données dynamiques qui changent constamment en fonction des différents utilisateurs. Le Web 2.0 ne contient pas vraiment des « sites » mais plutôt des « services ». En exemple, on peut citer Wikipédia, Picassa, LinkedFeed, DailyMotion, YouTube

GALILEO : Le système de positionnement qui va remplacer le GPS

Présentation

En 2010, vous pourrez mettre vos GPS à la poubelle (non c’est pas tout à fait vrai car les récepteurs GPS et GALILEO seront les mêmes). Eh oui, si vous n’êtes pas encore au courant, l’Union Européenne et l’Agence Spatiale Européenne (ESA) développent un nouveau système de positionnement géodésique par satellites civile dans le but de ne plus être dépendant du système GPS appartenant à l’armée américaine et d’avoir une bien meilleure précision. Nom de code : GALILEO

Ce système de positionnement doté de 30 satellites coûtant 3,4 milliards d’euros émettra dix signaux destinés à plusieurs utilisations :

  • Une utilisation gratuite pour tous les gens, style GPS, mais avec une précision de l’ordre de 1 mètre (nettement meilleure que le GPS classique qui fournit une précision de 20m).
  • Une utilisation commerciale pour les professionnels. Dans ce cadre l’intégrité des signaux est garanti, la précision est meilleure et il y a possibilité de faire passer des informations cryptées.
  • Un service de sûreté de la vie pour les applications sensibles comme la navigation maritime et aérienne
  • Une utilisation publique réglementée pour les services publics nécessitant des informations sûres et une bonne fiabilité (services d’urgence, transport de matières dangereuses…)
  • Une utilisation de recherche et de secours pour les balises de détresse maritimes.



A l’heure actuelle, 4 pays hors UE ont déjà signé des accords de coopération dans le but d’utiliser le futur système (Chine, Inde, Israël, Ukraine) mais une dizaine d’autres pays sont en négociation.

Bien évidemment l’atout majeur de GALILEO, c’est son aspect civil qui permettra des applications publiques nécessitant une sécurisation et une intégrité minimal. De ce fait, GALILEO sera reçu de manière continu sans risque de brouillage ou cryptage par l’armée comme le GPS. La précision sera meilleure que le GPS brut (je ne parle pas du GPS différentiel, le DGPS, qui fait intervenir des stations fixes au sol car dans ce cas la précision est nettement augmentée) et des signaux de diagnostic seront disponibles pour les applications sensibles dans le but d’avoir une bonne estimation d’erreur.

Il faut aussi souligner que les récepteurs recevront les deux signaux (GPS et GALILEO). Une utilisation harmonieuse des deux systèmes sera possible et la précision sera encore meilleure (l’infrastructure globale de navigation par satellite : GNSS).

Le positionnement géodésique

GALIELO et GPS utilisent le même principe de positionnement. C’est d’ailleurs un des exemples d’un de mes cours de cette année à l’UTC intitulé Méthodes Temps-Réel d’observation pour la Commande et le Diagnostic. Ces systèmes se basent sur de la fusion de données statique. Les données fournies par les satellites sont les éphémérides (c’est à dire la position dans l’espace des satellites) et les temps. On cherche évidemment la position du récepteur sur Terre : x,y,z qui sont la latitude, la longitude et l’altitude. La Terre étant ronde, on doit faire une projection et en général tous les systèmes utilisent le système géodésique WGS84 (World Geodetic System qui date de 1984) pour calculer les coordonnées. Je ne m’étendrais pas sur ce sujet, pourtant très intéressant, ce n’est pas l’objectif de cet article.

Ici, le temps est une donnée clef car tous les satellites et le récepteur doivent indiquer exactement la même heure (un erreur de 1 microseconde provoque une erreur de 300m sur la position terrestre). Tous les satellites sont donc pourvus d’une horloge atomique incluant une correction relativiste (eh oui selon la relativité d’Einstein, le temps ne s’écoule pas à la même vitesse dans le satellite qui va très vite et qui est loin de la Terre que sur Terre mais bon maintenant on sait calculer cette correction parfaitement). Le problème se situe sur récepteur dans votre voiture par exemple, vous n’allez pas vous trimbaler une horloge atomique (bien que ce soit plus très gros). La solution à ce problème est très simple : on considère le décalage temporel entre l’heure du satellite et du récepteur comme une inconnue.

 On a donc affaire à un nouveau problème à 4 inconnues : on cherche les 3 coordonnées spatiales du récepteur (x,y,z) ainsi que son décalage temporel (dt). Pour cela il nous faut donc 4 équations pour résoudre le problème c’est à dire que l’on doit posséder les informations d’au moins 4 satellites. Avec ce principe, si vous avez moins de 4 satellites à porté de vue, c’est fichu, c’est d’ailleurs ce qui se passe dans des canyons ou des avenues jonchées de grattes-ciel car vous n’avez qu’une zone de ciel étroite et dans ce cas, l’erreur commise est très grande. 

La suite est réservée au gens un peu scientifique…

Dans cette partie je vais développer les équations de chaque satellite ansi que leur résolution pour avoir une meilleure idée d’un algorithme de positionnement géodésique (GPS ou GALILEO). On se rend compte que c’est vraiment très simple mais attention : ici j’ai fait beaucoup de simplifications, normalement il faut rajouter des termes de corrections pour l’allongement ionosphérique et troposphérique, les erreurs relativistes et une estimation du décalage du décepteur.

Les équations fournies par les satellites sont des pseudo-distances.Supposons qu’à un instant donné, « n » satellites soient visibles et on suppose n>4. Comme les satellites diffusent leurs positions, on suppose que leurs coordonnées (xi, yi, zi) sont connues sans erreur.

Le système à résoudre s’écrit :

Ici les pseudo-distances de chaque satellite ri dépendent de la distance réelle et de la pseudo-distance dû au décalage temporel dt entre le satellite et le récepteur (comme ce sont des ondes électromagnétique la vitesse de propagation de l’information est égale à la vitesse de la lumière : c)

On doit alors résoudre ce système de n équations non-linéaires redondant : C’est un problème de fusion de données statique. En général on utilise la méthode de résolution numérique de Newton-Raphson.

Si on met le système précédent sous forme matricielle on obtient une équation matricielle : Z=h(X) où X=(x,y,z,dt). Dans ce cas cela revient à trouver X tel que h(X)-Z = 0 , c’est à dire trouver X tel que f(X)=0. Pour résoudre ce système on vient linéariser le système autour d’un point X: f(X0 + dX) = f(X0) + f ’(X0).dX

Cherchons dX tel que la tangente coupe l’axe des abscisses :

f(X0)+f’(X0).dX=0 <=>f’(X0).dX= – f(X0)or f’(X0)= h’(X0)=M


M.dX= – f(X0)

Si il y a 4 satellites et si M est inversible dX= – M-1. f(X0).

Si il y a plus de 4 satellites, dX=-[MT . M]-1.MT.f(X0) à condition que [MT . M]soit inversible et bien conditionnée

On obtient ainsi un nouveau point X1=X0+dX Tant que la norme de dX n’est pas plus petite qu’un seuil prédéterminé, on itère le processus. En pratique, on constate que le processus converge souvent en une ou deux itérations.Des facteurs caractérisant la qualité de la configuration géométrique des satellites sont souvent utilisés pour décrire la « dilution de précision » c’est-à-dire la confiance que l’on peut accorder aux résultats. Le plus connu est le GDOP (Global Dilution Of Precision).



 où Mj est la dernière matrice jacobienne calculée lors de la méthode de Newton- Raphson. On admet que des valeurs de 1 à 3 sont bonnes et, qu’au delà d’une valeur de 6, la position est à rejeter à cause d’une configuration géométrique trop défavorable.

Les Nanotechnologies et les Nanosciences

Ce sont des mots bien à la mode, beaucoup de personnes croient à un avenir « nano » (qui en grec signifie « très petit »). On entend dire que c’est un secteur clé et stratégique, qu’après l’ère de l’information avec Internet, ça sera au tour du « nano » de faire son boom et d’envahir notre quotidien et notre économie mais qu’est-ce que c’est exactement ?

Ces termes regroupent les sciences et les technologies intervenant à des échelles extrêmement petites, en général entre 1nm et 100nm (1 nm est égal à un nanomètre, soit un milliardième de mètre, soit 30 000 fois plus fin qu’un cheveu ).

Pour avoir une idée des différentes échelles, vous pouvez aller voir ce lien du CERN :  http://microcosm.web.cern.ch/Microcosm/P10/french/welcome.html

A titre de comparaison, tous les composants électroniques (majoritairement les transistors dans les ordinateurs) peuvent être classés dans le monde « micro », on parle d’ailleurs de « microinformatique » car la taille des composants descend jusqu’à 10µm (10 micromètres = 10 000 nanomètres ). Beaucoup de chercheurs et d’entreprises veulent laisser tomber le monde « micro » pour rentrer dans ce nouveau monde « nano ».

Dans le monde micro, on venait découper et assembler différents composants, on partait de quelque chose d’assez gros pour arriver à quelque chose d’assez petit, on parle alors d’approche descendante (top-down). Pour le nano, c’est l’inverse, c’est une approche montante (bottom-up) : on vient assembler des petites briques élémentaires (qui sont des atomes soit autour de 0.1nm) pour créer quelque chose de plus gros (enfin c’est relatif, ce quelque chose fait moins de 100nm). Pour manipuler ces atomes, on utilise des microscopes à effet tunnel (STM) pour les matériaux conducteurs et des microscopes à force atomique (AFM) pour les matériaux isolants. Ces deux microscopes permettent de reconstituer des images avec une finesse de l’ordre de l’atome et permettent également d’attraper un atome et de le déposer sur une surface. Pour savoir comment fonctionne ces deux microscopes vous pouvez aller voir ici.


 Grâce à ces instruments, on peut alors créer librement un assemblage d’atomes en les manipulant un par un. Les images ci-dessus représentent un bonhomme constitué d’atomes de carbone et un corral quantique (des atomes disposés en cercle) qui ont été créés par le laboratoire d’IBM en Californie à l’aide d’un STM. Evidemment, faire un bonhomme de quelque nanomètres c’est rigolo mais ça ne sert pas à grand chose… Quelles sont les applications pour que ce secteur soit tant convoité par tous les grands groupes technologiques du monde ?

Pour le moment, on voit trois grands domaines capables d’exploiter les nanotechnologies (les mots ne sont pas encore dans le dictionnaire mais ça ne va tarder à mon avis) :

  • Les nanomatériaux
  • La nanoinformatique
  • La nanobiotechnologie et la nanomédecine

Les nanomatériaux constituent la voie la plus prometteuse et c’est également elle qui exploite le plus de ressources humaines et financières depuis leurs découvertes en 1991 par les laboratoires japonais. Les produits phares sont bien entendu les nanotubes de carbones : 7 fois plus légers et 200 fois plus résistants que de l’acier et en plus ils sont souples et peuvent se « tordre ». Les laboratoires arrangent des atomes de carbones en pentagones et en hexagones dans le même plan pour venir ensuite l’enrouler comme du grillage et ainsi fabriquer un tube creux composé à 100% de carbone. Ces matériaux peuvent être utilisés dans l’aérospatiale et l’aéronautique pour des raisons de résistance et de poids mais aussi dans des raquettes de tennis ou dans l’industrie en général.



Mais il n’y a pas que les propriétés mécaniques qui font rêver, les propriété électroniques de ces matériaux sont aussi très convoitées. Suivant leur structure spatiale, ils peuvent être conducteurs ou semi-conducteurs (les semi-conducteurs sont les matériaux électroniques par excellence et composent tous les transistors et les diodes dans nos ordinateurs) d’où un avenir très prometteur pour développer la nanoinformatique. C’est bien pour cela qu’IBM et Intel dépensent des sommes gigantesques dans la recherche sur les nanotubes. En effet, IBM étudie très sérieusement la fabrication à échelle industrielle de transistors composés de nanotubes en carbone car ces matériaux seraient la solution pour continuer de respecter la loi de Moore qui va sûrement devenir fausse dans une petite dizaine d’années à cause d’une trop grande miniaturisation des transistors en Silicium. En effet, Gordon Moore, cofondateur de la société Intel avait affirmé en 1965 pour une conférence de presse, que « le nombre de transistors par circuit de même taille va doubler tous les 18 mois ». Cette affirmation a marqué les esprits, puisqu’elle est devenue un défi à tenir pour les fabricants de microprocesseurs, et plus particulièrement pour Intel. Entre 1971 et 2001, la densité des transistors a doublé chaque 1,96 année, les PC étaient donc de plus en plus puissants et de moins en moins chers. Mais on est encore loin du compte pour la nanoinformatique car pour le moment on fabrique ces transistors du futur « à la main » en petite quantité et c’est très long, l’étape industrielle va être un pas difficile à franchir. Mais il y a de fortes raisons de penser que nos micro-ordinateurs en silicium vont être détrônés par des nano-odinateurs en carbone.

Les nanosciences ont également de vent en poupe pour la biologie et la médecine. Des recherches actives sont menées dans ces domaines et les premières applications commencent à apparaître. Particulièrement des nano-diffuseurs implantés sous la peau qui vont diffuser un produit chimique en continu dans notre corps pour réguler certaines substances. On trouve ce genre de texte en cherchant un peu sur le net : « des nanoparticules implantées sous la peau, qui permettent l’affichage d’un écran de 6cm sur 5, le tout relié à des puces qui surveillent notre corps afin de pouvoir afficher un bilan complet » ou bien encore dans Courrier International : « Des ensembles moléculaires de la taille d’un brin d’ADN s’introduiront dans nos cellules malades afin de les réparer de l’intérieur. Tout cela en cachette de notre système immunitaire ». Non, ce n’est pas de la science fiction mais bien des projets pour notre avenir qui nous transformera peut être en cyborg ????

Il y a encore les nanorobots, les nanomachines, les nanocequevousvoulez et je suis persuadé qu’ils ne vont pas tarder à remplir notre quotidien….