Tag Archives: internet

Wikipédia : quel crédit lui conférer ?

Désormais, tout le monde connait et utilise Wikipédia dans notre pays. On trouve des fervents défenseurs et des détracteurs. Mais alors, quel crédit accorder à cette wiki-encyclopédie mondialement reconnue ?

wikipedia-copie-1.jpg
Je pense sans trop me mouiller que Wikipedia est désormais en France la première source de données utilisée pour faire des recherches à tous les niveaux d’éducation, aussi bien par les professeurs que par les élèves  (collèges, lycées, universités, grandes écoles). Je me demande même s’il arrive qu’un élève en charge de faire une recherche sur un sujet pour un exposé puisse ne jamais être confronté à un moment ou à un autre à cette wiki encyclopédie.

De même, Wikipédia est utilisée abondamment dans tous les centres de recherche. Cependant son utilisation est ici différente car c’est plutôt pour faire des petites recherches rapides pour retrouver telle ou telle information reconnue unanimement par la communauté scientifique mais dont on ne se souvient plus. Par exemple, un chercheur peut utiliser Wikipedia plusieurs
fois dans une journée pour retrouver la valeur d’une constante, l’expression d’une formule simple, voir la définition d’un concept un peu flou.


Mais alors, la majorité des individus utiliseraient la même source pour faire des recherches ? Qui plus est, via un media qui n’est soumis à aucun comité de lecture !  N’est-ce pasn dangereux ? N’y a-t-il pas risque de manipuler la masse par des informations erronées ? Surtout lorsqu’en bas de la page d’accueil de la célèbre encyclopédie on peut lire « Wikipedia ne garantit pas le contenu mis en ligne »

Eh bien les réponses à toutes ces questions légitimes sont à mon avis négatives. Je vais donc essayé de vous en convaincre ici.


Wikipedia : Définition

Wikipedia est un assemblage de 2 mots :

- « Wiki » est un mot hawaiien signifiant « rapide ». On utilise aujourd’hui ce terme pour décrire les pages web d’un site ayant un contenu dynamique pouvant être modifié par un ensemble d’utilisateurs (restreint ou pas) de manière à créer des espaces collaboratifs. Le premier wiki date de 1995 et était destiné à un projet collaboratif de programmation informatique : WikiWikiWeb

- « Encyclopedia » est le mot anglais  signifiant « encyclopédie ». Une encyclopédie est un ouvrage censé contenir toutes les connaissances de l’homme à un instant donné.

Wikipédia est donc une encyclopédie collaborative du Web dans laquelle tout un chacun peu contribuer librement. Il n’existe donc pas de version définitive de cette encyclopédie étant donné que son contenu évolue perpétuellement mais des versions sont parfois figées et éditées sur
CD-ROM.


Principes fondateurs de Wikipédia

Wikipédia a été créé selon des valeurs et des principes de liberté, fortement inspirés par Richard Stallman, le pionnier du logiciel libre.
stallman.JPG

Richard Stallman, le père des logiciels libres GNU et des premières idées à la base de Wikipédia

Wikipédia est basée sur 5 principes fondateurs permettant de garantir un contenu encyclopédique de qualité :


1- 
Wikipedia est une encyclopédie : elle ne vise qu’à exposer des informations déjà établies et reconnues. A ce titre, Wikipédia ne présente jamais d’informations
inédites.

2- La neutralité de point de vue : Wikipédia a pour ambition de présenter des informations de manière neutre sans jamais prendre parti ou porter de jugement de valeur. Lors d’un sujet controversé, les articles Wikipédia doivent présenter tous les points de vue objectivement en expliquant le contexte. De plus, toute information doit être justifiée en citant des sources de qualité. Ainsi, Wikipédia n’a pas l’ambition de « créer » de l’information mais simplement de créer des articles sur un sujet précis en reprenant diverses sources.

3- La liberté du contenu : tout le monde peut utiliser le contenu des articles et les
modifier. Tous les articles sont automatiquement mis sous
licence libre.

4- Wikipédia suit des règles de savoir vivre : les wikipédiens se doivent respect et doivent agir de manière courtoise et consensuelle sans se livrer des guerres
d’éditions
.

5- Wikipédia n’a pas d’autres règles fixes:  En plus de ces principes fondateurs, il existe des règles à respecter par les utilisateurs et des recommandations pour l’écriture des articles de manière à fournir un contenu et une organisation homogène entre les articles.

  La vérifiabilité des informations

Comme tout le monde peut modifier les articles librement, plusieurs problèmes apparaissent naturellement.

Une personne peut écrire une information non exacte de manière intentionnée ou pas (l’erreur est humaine). Dans ce cas, ces erreurs sont relativement vite décelées et corrigées soit par la lecture d’un lecteur averti sur le sujet traité, soit grâce au système de suivi de Wikipédia. Le système de suivi des articles permet à un contributeur de suivre une série d’articles qui l’intéresse et est donc informé en temps réel de toute modification et peut alors contrôler constamment l’évolution d’un article.

Néanmoins, le risque de lire une information erronnée est bel et bien présent et il faut toujours être vigilant et vérifier les informations tout en conservant un esprit critique et ne pas avaler toutes ces informations goulûment : Wikipédia n’a en aucune façon la prétention de détenir la « vérité ». C’est pour cette raison que l’on trouve le fameux « Wikipedia ne garantit pas le contenu mis en ligne » en fin de page.

Un autre problème de Wikipédia est le vandalisme de certains articles par des personnes mal intentionnées. Dans ce cas, il existe des administrateurs élus par la communauté qui peuvent bloquer des adresses IP et des utilisateurs identifiés comme « vandales ». De plus, les administrateurs ont le pouvoir de protéger des articles à différents niveaux :

- La protection du titre : Le titre ne peut pas être modifié. Une centaine de pages sont concernées. Ex : article
Régime de Vichy.
- La semi-protection : en raison de vandalisme répété sur une page, les administrateurs peuvent  empêcher la modification de la page par des utilisateurs anonymes ou par des utilisateurs ayant créé un compte wikipedia il y a moins de 4 jours. Environ 500 articles concernés. Ex :
Carla Bruni-Sarkozy
La protection complète : concerne généralement les pages d’aides et les modèles de Wikipédia (pas les articles). Dans ce cas, seuls les administrateurs peuvent modifier ces pages. Cependant, un utilisateur peut soumettre des modifications aux administrateurs pour approbation.

Les métiers de Wikipédia

Wikipédia est avant tout basée sur la collaboration entre les internautes et possède une excellente autogestion grâce à la multitude des « métiers » que les gens peuvent exercer selon leurs désirs et leurs aptitudes. Citons par exemple : les wikificateurs (améliorent la typographie, normalisent les articles à la manière Wikipédia, rajoutent des liens sur des mots, etc.), les rédacteurs, les graphistes, les patrouilleurs, les traqueurs, les infirmiers, les chasseurs de lauriers, les pompiers, les arbitres, les catégorisateurs, les traducteurs, Les listomaniaques, les votants, etc.


De nombreuses personnes se spécialisent dans une tâche particulière mais tous les contributeurs sont tout de même « multi-casquettes ». Il en découle une organisation et un traitement efficace du contenu encyclopédique. Par exemple, un rédacteur va commencer à écrire un article, un graphiste va agrémenter l’article d’une illustration, un catégorisateur va venir classer cet article de manière intelligente au sein des categories de Wikipedia (ce qui n’est pas toujours trivial) et un traducteur viendra traduire cet article pour la version roumaine de Wikipédia. Et si un vandale passe par là et vandalise l’article, un patrouilleur remettra en ligne la version précédente grâce à l’historique.

Wikimedia

Wikipédia n’est jamais qu’un projet parmi d’autres de la fondation Wikimedia qui est un organisme américain de bienfaisance ayant pour tâche d’administrer et d’héberger des projets collaboratifs de wiki. A ce titre, elle n’a aucun droit éditorial sur les contenus.

wikionary

Les projets actuels de Wikimedia sont les
suivants :

Wolfram : un moteur de calcul de connaissances !

Un nouveau site vient de voir le jour sur la toile : Wolfram
Alpha
. A priori, rien d’exceptionnel, mais le principe et l’efficacité de ce « moteur » m’a plutôt impressionné… Evidement, il n’a pas réponse à tout, mais quand même… Quand on tape « Dieu » (God anglais) on apprend que « god » est le 486ème mot le plus cité en anglais à l’écrit et le 273ème mot le plus cité à l’oral (un mot sur 3300) mais Wolfram ne nous dit pas qui il est et s’il existe…

Je me suis retrouvé un peu bête la première fois devant la barre de recherche, je ne savais pas quoi taper alors j’ai essayé simplement « helium » et le site m’a donné sa place dans le tableau périodique des éléments avec toutes les propriétés atomiques, chimiques, thermodynamiques et magnétiques de l’hélium avec ses isotopes de manière joliment présentée avec toutes les unités configurables, plutôt pas mal, mais bon, rien d’extraordinaire non plus (j’aurais été impressionné qu’il me donne la variation de chaleur spécifique en fonction de la température). J’ai également tenté « helium phase diagram » et il m’a fourni un beau diagramme de phase de l’hélium (nettement mieux que ceux qu’on trouve habituellement sur le web).

 

Le site se définit comme un moteur de calcul des connaissances (computational knowledge engine). En gros, c’est un peu une sorte de moteur de recherche comme Google mais Wolfram permet de calculer tout ce qui peut être calculé à propos de n’importe quoi, c’est le site qui le dit : make it possible to compute whatever can be computed about anything. Désolé, le site est uniquement en anglais pour l’instant.

Wolfram fournit un résultat unique comme une encyclopédie, contrairement à un moteur de recherche classique qui fournit une quantité impressionnante de sources où l’on peut souvent se perdre. L’idée est de faire une requête sur une question, quelle qu’elle soit et d’y répondre le mieux possible. Les questions peuvent être évidemment scientifiques mais pas seulement, Wolfram répond aussi à des questions de géographie, de musique, de sport, d’histoire, etc. Bref, c’est un peu comme un super Quid. La réponse est ensuite téléchargeable en format pdf.

Etant proche de la Suisse et aimant le gruyère, j’ai donc tenté de connaitre la densité du gruyère suisse, j’ai donc tapé « cheese gruyère density » et Wolfram m’a répondu sans ciller 0,92 g/cm3:

L’algorithme utilisé par Wolfram utilise pas moins de 5 millions de lignes de codes écrites en langage Mathematica pour ceux qui connaissent, sans commentaires…. Le tout est relié à une base de données qui contient (selon le site) environ 10 milliards d’entrées et plus de 50 000 types d’algorithmes et de modèles. J’ai également tenté de taper la ville où j’habite (Gex) et j’ai eu ma réponse :

Il y a également, toutes les possibilités de calcul de manière formelle comme dans Mathematica. J’ai tapé « cos(2x) + sin(x) + tan(x)^2 » et Wolfram m’a répondu pleins de choses, entre autres :

En revanche, des déceptions, je n’ai rien trouvé en tapant : superfluid helium, Euler flow et Théodulf (évêque d’Orléans pendant la Renaissance carolingienne).

 A vous de jouer maintenant en vous amusant un peu avec ce nouvel outil du web: http://www39.wolframalpha.com/

Internet, Google et Ecologie

L’informatique contribue au niveau mondial pour environ 2% des rejets des gaz à effet de serre selon le cabinet d’analyse Gartner, ce qui est loin d’être négligeable.

Le processeur est l’organe qui effectue les calculs dans les ordinateurs. Un processeur consomme de l’électricité et dégage de la chaleur. C’est pour cette raison que tous les ordinateurs sont équipés de ventilateurs (parfois bruyants). A titre d’exemple, votre Pentium 4 à 3 GHz exploserait au bout de 28
minutes sans ventilateur !

Nous utilisons tous des ordinateurs de bureau (qui consomment relativement peu) mais également des centaines d’autres ordinateurs à travers le monde lorsque nous surfons sur Internet. De manière générale, nous utilisons des ressources informatiques en termes de calcul et de stockage lorsqu’on accède à
une page internet, lorsqu’on télécharge un fichier et lorsqu’on effectue une requête sur un moteur de recherche comme Google. Dans ce cas, on ne parle plus d’ordinateurs de bureau mais de fermes de serveurs (des milliers de processeurs disposés côte à côte en train de faire des calculs), et ce n’est plus des ventilateurs mais bien des stations de climatisation industrielles qui sont nécessaires pour les refroidir.

 Pour cette raison, on trouve souvent les centres de calcul à proximité des centrales électriques et des cours d’eau pour l’alimentation électrique et le refroidissement des processeurs.



Centre de données Google à The Dalles en Oregon au bord de la Rivière  Columbia. Ce centre, grand comme 2 terrains de football, consommerait 103 MW pour fonctionner. Photo: Craig Mitchelldyer/Getty Images

 L’empreinte carbone

C’est très à la mode de calculer son « empreinte carbone », voir par exemple http://www.calculateurcarbone.org relativement bien fait et facile à faire moyennant une petite demi heure si vous connaissez déjà un peu vos habitudes de consommation.

 Résultat : je consomme 1,1t de carbone par an avec 25% d’erreur, soit 4,3t de CO2/an. Ca fait tout de même peur ! La moyenne mondiale est de 4t de CO2/an, la moyenne française de 6t de CO2/an et un américain moyen est à 20t CO2/an. Je suis donc en dessous du Français moyen mais au-dessus de la moyenne mondiale, pas de quoi de vanter… Néanmoins, ce test ne prend pas en compte le temps passé sur internet ni l’utilisation de moteur de recherche.  J’ai donc cherché à connaitre l’impact d’internet sur mon empreinte carbone.

 Attention, l’utilisation de l’ordinateur seul est prise en compte via ma facture d’électricité et des questions sur mes achats informatiques. Je m’intéresse ici au fait d’utiliser des ressources informatiques délocalisées via internet.

 Après le Cochon, la Chèvre et le Mouton, une nouvelle fable contemporaine : Google, le Carbone et la Tasse de thé

J’ai récemment lu un article sur Le Monde.fr au sujet d’un scientifique dénommé Alexander Wissner-Gross de l’université d’Harvard qui disait que : «  deux requêtes sur Google consommeraient autant de carbone qu’une tasse de thé bien chaud. Selon les travaux de ce scientifique, deux requêtes sur Google généreraient 14 grammes d’émission de carbone, soit quasiment l’empreinte d’une bouilloire électrique (15 g) ». Quid de cette information ?


La différence entre le bon scientifique et le mauvais scientifique c’est que quand un mauvais scientifique voit une information, il l’ingurgite alors que le bon scientifique, lui, quand il voit une information, il la vérifie. Nous allons donc vérifier cette information avant de l’ingurgiter bêtement…

 J’ai lu l’article du Times auquel Le Monde.fr se réfère et là, premier problème : le Times parle d’émission de gaz à effet de serre en équivalent CO2 et non équivalent Carbone comme dans l’article du Monde.fr… Il faut déjà se mettre d’accord sur les unités !! En général, on parle en équivalent CO2, ce que je ferai dans la suite de ce billet (pour info, 1kg équivalent CO2 = 0,27 kg équivalent carbone).

J’ai également pu constater que ce chiffre a été quelque peu déformé au fil d’articles à en croire cet article de Futura-Science. Néanmoins, Futura-Science n’est pas très bon en arithmétique apparemment car l’article dit que « le calcul est dès lors rapide à faire : si l’on admet le chiffre de 7 grammes par requête, ainsi que l’affirme le Times, les serveurs de Google rejettent quotidiennement 2.450 tonnes de CO2 dans l’atmosphère, soit autant que le Japon en six mois ! » Ce dernier calcul a été effectivement fait trop vite par Futura-Science car en prenant ma calculette et en admettant le chiffre de 7g/requête, Google génère bien 2450t de CO2/jour mais cela correspond à 1 minute d’émission du Japon (qui rejette 1236 millions de tonnes de CO2/an) et pas à 6 mois !! Je tenais à rectifier cette comparaison aberrante qu’ils ont publiée. De toute manière, ce chiffre de 7g/requête n’a aucune justification scientifique valable pour l’instant.

Le fameux chercheur interviewé par le Times a en fait publié un article disant que la consultation d’une page web classique consommait environ 20mg de CO2/seconde, soit 72g de CO2/heure. Mais attention, la consultation d’une page très riche en information, style vidéo youtube, multiplie ce chiffre par 10, soit 720g de CO2/heure. Une heure de vidéo youtube correspondrait alors en terme de rejet de gaz à effet de serre à prendre une petite voiture moderne diesel et à rouler 6 km (une petite voiture diesel moderne rejette 115g CO2/km).

 Pour une réflexion plus sérieuse sur ce débat, je vous conseille plutôt de lire cet article qui traite la question de fond sous-jacente, à savoir comment diminuer le rejet de CO2 lié à l’informatique dans le monde.

 De quoi est-on sûr alors?

Au final, on a du mal à y voir clair et on ne sait plus qui croire. Le Times a fait un erratum à son article en accord avec la réponse de Google ayant répondu qu’une requête Google qui dure en moyenne moins d’une seconde rejette 0,2g équivalent CO2, et pas 7g (voir explication Google). Google rejetterai donc 25 500t de CO2/an à cause des requêtes sur le moteur de recherche, soit autant que  4000 Français moyens, ce qui est relativement peu pour une entreprise comme Google.

Cependant, la méthode de calcul me chagrine un peu. Je ne suis pas sûr que toute la chaine soit prise en compte dans ce calcul. A mon avis, la meilleure méthode englobant tout Google serait la suivante :

  •  Calculer la facture d’électricité de Google en kWh sur une année (l’énergie consommée totale pour Google).
  • La multiplier par la quantité de CO2 produite pour produire 1 kWh. On prend comme hypothèse le ratio américain  de 550g de CO2/kWh électrique (contre 90g de CO2/kWh électrique en France).
  • Diviser le tout par le nombre de requêtes Google dans une année  (estimé à 365*350 millions = 127 milliards de requêtes).

 Certes, le nombre final trouvé ne correspondra pas directement à la quantité de CO2 rejeté lors d’une simple requête car il prendra en compte toutes les infrastructures nécessaires à cette requête ainsi que les autres services de Google (car les serveurs ne sont pas dédiés qu’au moteur de recherche).
Cependant, cette quantité reflètera l’émission totale générée par Google pour traiter une requête tout en incluant les autres services proposés (google earth, google map, google doc, etc.).

 L’estimation de la puissance électrique consommée par Google est secrète mais plusieurs personnes (comme ici) et certains journaux (comme Le Monde) ont tenté le calcul et aboutissent autour des 2 TWh/an. Dans ce cas, notre calcul donne le résultat suivant : 8,6g C02 / requête en incluant les services Google. En une année, Google consommerait donc 1 million de tonnes de CO2/an, ce qui correspond à l’émission du Niger, classé 144ème pays le plus émetteur (sur un total de 181 pays).

Pour en revenir à mon bilan carbone annuel, je pense faire environ 5000 recherches Google par an (environ 15 par jour). Si je prends l’hypothèse haute de 8,6g/requête, cela correspondrait à émettre 43 kg équivalent CO2 supplémentaire dans mon bilan, soit une part de 1% de mon rejet annuel. Au premier abord, l’impact de mes recherches Google sur mon empreinte carbone est donc relativement faible.

 Ne pas non plus diaboliser Internet et Google

Google essaye de surfer sur la vague éco en consommant le moins possible d’électricité avec des serveurs informatiques les moins gourmands possible. Google explique volontiers les mesures énergétiques prises car cela améliore son image de marque mais ce n’est pas que pour le plaisir mais bien pour gagner plus d’argent car l’électricité est la principale dépense de Google ! Cependant, il est évident qu’ils font des efforts non négligeables sur ce plan.



Par exemple ils ont équipé le Googleplex de panneaux solaire à hauteur de 1,6 MW, ce qui est une grosse centrale solaire aujourd’hui. Ils construisent également des centres de données en Finlande où il fait froid pour consommer moins d’électricité en refroidissement.

Combien de CO2 pour ce billet de blog ?

Pour ce billet de blog, j’ai effectué 28 requêtes Google, soit 240g CO2 en prenant l’hypothèse haute des 8,6g/requête. J’ai passé 5 heures à faire des recherches et à écrire sur mon ordinateur portable qui consomme 80W (il est gros, vieux et bruyant), soit 400 Wh au total, ce qui correspond en France à 35 g CO2 rejeté. De plus, j’ai dû surfer pendant environ 1 heure sur Internet, soit 72g de CO2 supplémentaire. J’ai donc rejeté au total 347g de CO2 pour vous offrir ce
billet.

Si j’avais dû aller à la bibliothèque de Genève en voiture pour faire des recherches (j’habite à la campagne à 35 km de Genève, pas de transport en commun),  j’aurais émis 8 kg de CO2 (avec une petite voiture diesel), soit 23 fois plus, à méditer…

 Sources : Rapport 2009 de l’Agence Internationale pour l’énergie (IEA) : http://www.iea.org/co2highlights/co2highlights.pdf

INTERNET : HTTP, TCP/IP et WWW

Le Nouveau Petit Robert 2007 sur mon bureau dit :

Internet : « n.m. – répandu vers 1995 ; mot anglais américain de internetworking (réseau). Anglicisme. Réseau mondial télématique utilisant le même protocole de communication »

Web : «n.m. – 1994 ; abréviation anglaise de World Wide Web (toile d’araignée mondiale). Anglicisme. Système basé sur les liens hypertextuels, permettant l’accès aux ressources du réseau Internet ».


InternetMonde.jpg

A la fin des années soixante, aux Etats-Unis, un premier réseau informatique, appelé ARPANET voit le jour. Ce réseau fut le premier a échanger des « paquets » de données informatique entre différentes universités américaines.

En 1974, le protocole TCP/IP voit le jour. On peut juste retenir que TCP/IP (Transmission Control Protocol / Internet Protocol) est un ensemble de 2 protocoles : le protocole TCP permet d’établir une connexion, de découper les données à envoyer en différents paquets alors que le protocole IP s’occupe du transport de ces paquets sur le réseau pour trouver le meilleur chemin, il ne se préoccupe pas du contenu des paquets.

A la fin des années quatre-vingt, la NST (National Science Foundation) ouvre le réseau ARPANET pour tous les américains désirant se connecter en mettant en service 5 serveurs
informatique sur le sol américain. Ce réseau ayant remporté un grand succès, il fut étendu et a donné naissance à INTERNET, un réseau où tous les ordinateurs peuvent communiquer dans le monde avec même langage : le TCP/IP. A ce stade, on ne parle pas encore de site Internet. Ces protocoles de communications doivent ensuite être exploités par ce que l’on appelle une couche application (comprenez un programme informatique). Au début, Internet permettait uniquement à des personnes (le plus souvent des scientifiques) de pouvoir échanger des fichiers informatiques entre eux.
internet.jpg

En 1989, à Genève, au CERN (l’Organisation Européenne pour la Recherche Nucléaire), un informaticien dénommé Tim Berners-Lee propose de mettre en place un système de liens hypertextes ayant pour objectif de simplifier l’échange des informations au sein du réseau du CERN. Le HTTP (Hypertext Transfer Protocol) était né. Il fit cette proposition au CERN en mars 1989, consultable en intégralité à cette adresse : http://www.w3.org/History/1989/proposal.html. Tim Berners-Lee inventa ensuite un système de navigation pour passer d’une page à l’autre à travers ces fameux liens hypertextes. En mai 1990, en partenariat avec un autre ingénieur système du CERN, Robert Cailliau, le système est baptisé World Wide Web, le fameux WWW des adresses Internet. http://info.cern.ch/ est l’adresse du tout premier site et serveur Web, qui était hébergé par un ordinateur NeXT du CERN.


Tim.jpg
Tim Berners-Lee  et son ordinateur NeXTen 1990 exposé au CERN à Genève

A cette époque, le CERN commençait à utiliser le TCP/IP et il était en train de se connecter sur Internet : le projet WWW allait s’étendre et devenir ce que l’on connaît : une gigantesque toile d’araignée. En 1991, le premier serveur Web non-européen voyait le jour aux Etats-Unis en Californie, hébergé au SLAC (Centre de l’accélérateur linéaire de Stanford). Il y a 15 ans, en 1992, il y avait 26 sites web dans le monde (voir la liste) !! Fin 1993, on dénombre 623 sites web, puis 3 000, 23 000, 230 000, plus de 1 millions de sites en 1997 et désormais on en compte plus de 110 millions. Le nombre d’utilisateurs a augmenté encore plus vite, selon le cabinet d’analyses Research and Markets, le nombre d’utilisateurs d’Internet pourrait grimper à un joli 1,35 milliard en 2007.

Aujourd’hui, le Web n’a plus grand chose à voir avec son aspect originel et ses utilisations sont bien plus diverses que ce à quoi ses concepteurs s’attendaient. Il a été créé pour naviguer dans des informations concernant la physique des particules et maintenant c’est un véritable commerce mondial qui a lieu sur le Web. Une entreprise non présente sur le Web est une entreprise qui n’existe pas !!

On parle également du Web 2.0. La définition est quelque peu délicate car il y a beaucoup de désaccords mais grosso modo, le Web 2.0 est un web non plus statique mais entièrement dynamique ou chacun possède ses propres données et peut interagir avec d’autres utilisateurs pour créer ainsi différents réseaux sociaux. Techniquement parlant, les sites Internet faisant parti du Web 2.0 possèdent un squelette graphique (un template) compatible avec toutes les plates-formes et le contenu des pages évolue en fonction de bases de données dynamiques qui changent constamment en fonction des différents utilisateurs. Le Web 2.0 ne contient pas vraiment des « sites » mais plutôt des « services ». En exemple, on peut citer Wikipédia, Picassa, LinkedFeed, DailyMotion, YouTube

Internet, un accès à la culture pour Tous ?

Bon, l’école est gratuite depuis 6 juin 1881, puis le 29 mars 1882 elle devient obligatoire de 6 à 13 ans dans un environnement laïque grâce à Jules Ferry (attention ne SURTOUT pas confondre avec le Ministre de l’Éducation Nationale du gouvernement Raffarin : Luc Ferry, philosophe il paraît). Donc grâce à Jules, c’est l’amorce de la véritable démocratisation de l’enseignement. 

Oui, l’éducation c’est la solution pour se libérer, penser par soi-même. C’est indispensable pour mener une vie de manière autonome. Après, le problème c’est l’accès au savoir, à la culture. Avant cet accès était coûteux et réservé aux classes supérieures. Désormais il y a Internet accessible à tout le monde. Imaginez un peu si les gens d’il y a cinquante ans avaient eu une encyclopédie Wikipedia à portée de main ! Les nantis pouvaient s’acheter une encyclopédie Universalis papier actuellement à 2940€ pour 28 volumes totalisant 30 000 pages alors que l’équivalent en DVD avec tous les Machins multimédias en plus coûte 130€ !! Et oui, dans Universalis vous pouvez dégoter toutes les équations et les explications de toute la physique, la chimie… Enfin c’est dingue quand même ! Surtout quand on voit le prix d’un bouquin de Science ! Je ne sais pas si vous savez qu’un bouquin de physique dans un domaine spécialisé ça coûte la peau des fesses. Dans un cours, cette année on nous demandait un bouquin impossible à trouver en bibliothèque (Non Linear System, Hassan K. Khalil) qui coûte la modique somme de 128$ soit 108€. Evidemment, tout le monde ne peut pas l’acheter !

Mais bon, la culture n’est plus une question d’argent de nos jours mais une question de niveau social et d’intégration. Eh oui, les jeunes qui vivent dans les banlieues peuvent avoir le net et donc un accès gigantesque à la culture mais ils l’utilisent pour aller sur le site Internet de Skyrock ou de Claudia Choux Fleurs (je devrais demander a Skyrock une redirection vers Wikipedia mais ils ne vont pas vouloir à mon avis…). Bon ce n’est pas une généralité bien sûr, je rentre dans des gros clichés et stéréotypes mais il y a un peu de vrai. Je pense qu’on ne se rend pas compte de la chance que l’on a d’avoir à portée de clic le savoir entier de l’Humanité. Il en est de même pour l’information et l’actualité. Etant exilé en Espagne, je peux lire les articles du Monde gratos sur le Net tous les jours et je peux écouter France Inter en live également disposant ainsi de toutes les informations françaises en temps réel, et cela en étant n’importe où dans le monde.

Enfin Internet est peut être comme le disent certains réacs une ouverture à la débauche avec les sites de cul et une possibilité pour les terroristes de communiquer très facilement. Mais pour voir les choses sous cet angle, il faut vraiment être complètement demeuré ! Internet (le système d’interconnexions multiples) a été créé à la base par les Américains pour diffuser des articles scientifiques et le Web (le système permettant de surfer sur des sites Internet avec un navigateur) a été inventé au CERN pour démocratiser l’accès aux informations en facilitant l’usage et en le rendant agréable (un site avec des images bien présentées est tout de même plus agréable qu’un fichier texte rempli de signes cabalistiques). Après il y a forcement des problèmes de législation, de droits et de liberté qui arrivent car le Net n’est pas propriétaire et ne dépend d’aucun pays donc comme tous les pays possèdent des lois différentes eh bien c’est un beau bordel. Quand on voit que le gouvernement chinois a passé des accords avec Google et avec Wikipedia pour interdire la recherche sur certains mots clefs qualifiés « interdits » par le gouvernement, il y a un véritable problème. Exemple de censure Google en Chine : « Démocratie » et « Droits de l’Homme » ça se passe de commentaires…. Reporters Sans frontière réagit face à cet outrage à la liberté d’expression :

“Reporters sans frontières est écoeuré d’apprendre que Google a décidé de lancer en Chine une version censurée de son moteur de recherche. Désormais, les internautes chinois devront se contenter des contenus validés par les autorités de Pékin. Exit les informations sur le Tibet, la démocratie ou les Droits de l’Homme en Chine.”

Mais bon, comme disait Louis de Funès dans un film dont j’ai oublié le titre, “les pauvres sont faits pour être très pauvres et les riches pour être très riches”. Et on pourrait alors dire avec le gouvernement chinois “Les incultes sont faits pour être ignares et les libertés sont faites pour être supprimées”. C’est vraiment triste alors qu’Internet est un formidable outil pour assouvir ses soifs de connaissance…

  • Plus

 

Partager l’article : Internet, un accès à la culture pour Tous ?
 
Bon, l’école est gratuite depuis 6 juin 1881, puis le 29 mars 1882 elle devient obligatoire de 6 à 13 ans dans un…