Monthly Archives: février 2006

Internet, un accès à la culture pour Tous ?

Bon, l’école est gratuite depuis 6 juin 1881, puis le 29 mars 1882 elle devient obligatoire de 6 à 13 ans dans un environnement laïque grâce à Jules Ferry (attention ne SURTOUT pas confondre avec le Ministre de l’Éducation Nationale du gouvernement Raffarin : Luc Ferry, philosophe il paraît). Donc grâce à Jules, c’est l’amorce de la véritable démocratisation de l’enseignement. 

Oui, l’éducation c’est la solution pour se libérer, penser par soi-même. C’est indispensable pour mener une vie de manière autonome. Après, le problème c’est l’accès au savoir, à la culture. Avant cet accès était coûteux et réservé aux classes supérieures. Désormais il y a Internet accessible à tout le monde. Imaginez un peu si les gens d’il y a cinquante ans avaient eu une encyclopédie Wikipedia à portée de main ! Les nantis pouvaient s’acheter une encyclopédie Universalis papier actuellement à 2940€ pour 28 volumes totalisant 30 000 pages alors que l’équivalent en DVD avec tous les Machins multimédias en plus coûte 130€ !! Et oui, dans Universalis vous pouvez dégoter toutes les équations et les explications de toute la physique, la chimie… Enfin c’est dingue quand même ! Surtout quand on voit le prix d’un bouquin de Science ! Je ne sais pas si vous savez qu’un bouquin de physique dans un domaine spécialisé ça coûte la peau des fesses. Dans un cours, cette année on nous demandait un bouquin impossible à trouver en bibliothèque (Non Linear System, Hassan K. Khalil) qui coûte la modique somme de 128$ soit 108€. Evidemment, tout le monde ne peut pas l’acheter !

Mais bon, la culture n’est plus une question d’argent de nos jours mais une question de niveau social et d’intégration. Eh oui, les jeunes qui vivent dans les banlieues peuvent avoir le net et donc un accès gigantesque à la culture mais ils l’utilisent pour aller sur le site Internet de Skyrock ou de Claudia Choux Fleurs (je devrais demander a Skyrock une redirection vers Wikipedia mais ils ne vont pas vouloir à mon avis…). Bon ce n’est pas une généralité bien sûr, je rentre dans des gros clichés et stéréotypes mais il y a un peu de vrai. Je pense qu’on ne se rend pas compte de la chance que l’on a d’avoir à portée de clic le savoir entier de l’Humanité. Il en est de même pour l’information et l’actualité. Etant exilé en Espagne, je peux lire les articles du Monde gratos sur le Net tous les jours et je peux écouter France Inter en live également disposant ainsi de toutes les informations françaises en temps réel, et cela en étant n’importe où dans le monde.

Enfin Internet est peut être comme le disent certains réacs une ouverture à la débauche avec les sites de cul et une possibilité pour les terroristes de communiquer très facilement. Mais pour voir les choses sous cet angle, il faut vraiment être complètement demeuré ! Internet (le système d’interconnexions multiples) a été créé à la base par les Américains pour diffuser des articles scientifiques et le Web (le système permettant de surfer sur des sites Internet avec un navigateur) a été inventé au CERN pour démocratiser l’accès aux informations en facilitant l’usage et en le rendant agréable (un site avec des images bien présentées est tout de même plus agréable qu’un fichier texte rempli de signes cabalistiques). Après il y a forcement des problèmes de législation, de droits et de liberté qui arrivent car le Net n’est pas propriétaire et ne dépend d’aucun pays donc comme tous les pays possèdent des lois différentes eh bien c’est un beau bordel. Quand on voit que le gouvernement chinois a passé des accords avec Google et avec Wikipedia pour interdire la recherche sur certains mots clefs qualifiés « interdits » par le gouvernement, il y a un véritable problème. Exemple de censure Google en Chine : « Démocratie » et « Droits de l’Homme » ça se passe de commentaires…. Reporters Sans frontière réagit face à cet outrage à la liberté d’expression :

“Reporters sans frontières est écoeuré d’apprendre que Google a décidé de lancer en Chine une version censurée de son moteur de recherche. Désormais, les internautes chinois devront se contenter des contenus validés par les autorités de Pékin. Exit les informations sur le Tibet, la démocratie ou les Droits de l’Homme en Chine.”

Mais bon, comme disait Louis de Funès dans un film dont j’ai oublié le titre, “les pauvres sont faits pour être très pauvres et les riches pour être très riches”. Et on pourrait alors dire avec le gouvernement chinois “Les incultes sont faits pour être ignares et les libertés sont faites pour être supprimées”. C’est vraiment triste alors qu’Internet est un formidable outil pour assouvir ses soifs de connaissance…

  • Plus

 

Partager l’article : Internet, un accès à la culture pour Tous ?
 
Bon, l’école est gratuite depuis 6 juin 1881, puis le 29 mars 1882 elle devient obligatoire de 6 à 13 ans dans un…

Quelle confiance dans les publications ?

Je ne sais pas si vous êtes au courant mais le nombre d’articles scientifiques qui paraissent chaque mois est faramineux (tant en presse de vulgarisation que dans les revues scientifiques spécialisées). Tout est-il bien contrôlé ? Comment s’assurer que ce qui est écrit est vrai ? Eh bien, tout d’abord, la véracité des articles est directement proportionnelle à la notoriété du magazine. Comme les magazines renommés permettent une grande diffusion dans le monde, ils sont très convoités et par conséquent, l’équipe en charge d’analyser les articles avant publication est plus sévère et souvent composée de personnes très spécialisées. Les deux plus grands magazines mondialement reconnus sont Nature et Science, deux magazines américains couvrant tous les domaines scientifiques. Ces deux « géants » de la Science ne sont pas comparables aux autres. Science par exemple est en fait le magazine de la AAAS (American Association for the Advancement of Science), la plus grande communauté scientifique du monde avec 10 millions de personnes. Mais en général les fautes se glissent plutôt dans la presse ultra spécialisée où il y a 30 pékins dans la monde au fond de leur labo qui vont vraiment comprendre l’article. Les fautes passent souvent inaperçues à cause de cela. En général dans la presse vulgarisatrice c’est assez rare de trouver des gros canulars. On trouve quelques rectifications de temps en temps dans les Errata du numéro suivant mais c’est tout.

Mais il faut toujours faire attention. Le plus bel contre exemple et donc le plus grand scandale est d’ailleurs plus que jamais d’actualité. En ce mois de Février, le clonage humain fait la Une du magazine La Recherche. Pourquoi ? Parce qu’on est revenu à la case départ sans toucher les 20 000 francs (et l’euro ?) (bien que dans ce cas ça se chiffrerait plutôt en milliards plus un prix Nobel mais bon). Je ne sais pas si vous vous en souvenez mais l’année dernière, au mois de mai, tous les journaux mettaient le clonage humain à la Une suite à un article paru dans le célèbre magazine américain Science. Le chercheur Coréen W.S.Hwang y disait avoir obtenu des lignées de cellules souches à partir d’un embryon humain cloné. Eh bien non, tout était faux, tous les documents avaient été falsifiés et les cellules obtenues provenaient en réalité d’embryons conçus par fécondation in vitro. C’est comme si Le Monde ou le Times déclarait qu’il y avait une troisième guerre mondiale et qu’en fait c’était des jeunes de banlieues qui brûlaient des voitures à Paris (toute ressemblance avec des faits réels ne serait que pur hasard).

Bref, vous avez compris, tout ce qu’on lit n’est pas la sainte parole, même si ce genre de scandale est heureusement rare. Néanmoins, dans les magazines ultra spécialisés de troisièmes catégorie il y a souvent beaucoup d’erreurs. J’ai d’ailleurs à plusieurs reprises étudié des articles en cours où le prof nous disait « Bon, faut jamais croire ce qu’il y a écrit, alors épluchez l’article et trouvez toutes les fautes » (pas les fautes d’orthographes, mais bel et bien les fautes de raisonnement ou de calcul).

En général, un article paraît dans la presse spécialisée, dans une revue bien précise et si après quelque temps le résultat paraît pertinent alors l’article est publié en vulgarisation avec des mots compréhensibles pour le commun des mortels. Pour illustrer ce cheminement, j’ai choisi un tout petit article de La Recherche du mois de février dans la rubrique Mathématiques accompagné de la publication originale :

Dans La Recherche : 

"La forme de l’oreille

Envoyons un son sur le tympan d’une oreille et mesurons la façon dont celui-ci le renvoie : peut-on, à partir de la structure du son émis et du son renvoyé, déterminer la forme géométrique du canal auditif ? Alexander Ramm, de l’université d’Etat du Kansas, vient de montrer que, sous certaines conditions, la réponse est oui. Il propose un algorithme pour retrouver informatiquement la forme du canal auditif à partir de cette analyse des sons. »

Et maintenant l’article original : http://fr.arxiv.org/PS_cache/math/pdf/0511/0511359.pdf

Je pense que si vous n’avez pas fait de prépa scientifique vous ne comprendrez que le titre (enfin si vous parlez anglais en plus). Voilà pourquoi la vulgarisation c’est cool : on peut comprendre !

Un autre exemple de publication scandaleuse a été réalisé par Alan Sokal aux Etats-Unis de manière consciente. J’ai d’ailleurs écrit un article sur son dernier livre (http://science-for-everyone.over-blog.com/article-1689690.html). Ce Alan Sokal, physicien renommé de l’université de New York en physique a décidé d’écrire un article sans queue ni tête, complètement faux en utilisant des techniques utilisées par les pseudo-sciences voulant se faire passer pour intelligentes. Eh bien l’article a été publié dans le magazine Social Text jusqu’au jour où il a révélé la supercherie en publiant un autre article expliquant pourquoi il avait fait cela et pourquoi l’article n’avait pas de consistance. Voici l’article en question qui s’appelle si on tente une traduction : « Transgresser les frontières : vers une herméneutique transformative de la gravitation quantique », faut vraiment s’accrocher pour comprendre et ça fait 40 pages :

http://www.physics.nyu.edu/faculty/sokal/transgress_v2_noafterword.pdf

et pour tous les articles et autres choses concernant ce sujet :

http://www.physics.nyu.edu/faculty/sokal/

Ca m’énerve j’aimerais vous citer plein de trucs de lui mais les bouquins que j’ai lus de lui sont restés en France chez mes parents et je n’y ai donc pas accès pour le moment. Enfin l’affaire Sokal, c’est un peu différent que notre problématique originale, son objectif était surtout de montrer que les sciences sociales permettent de publier tout et n’importe quoi.

  • Plus

 

Partager l’article : Quelle confiance dans les publications ?
 
Je ne sais pas si vous êtes au courant mais le nombre d’articles scientifiques qui paraissent chaque mois est…

Réflexions Einsteiniennes 2

Suite du petit jeu avec les citations du bon vieil Albert mais on rajoute un invité surprise.

 Albert, la pensée, la théorie… et Henri ?

Pourquoi Albert est-il célèbre et connu par toutes les classes de population alors que Henri ne l’est que par les scientifiques (Je parle évidemment d’Einstein et de Poincaré) ? Eh bien Einstein avait le chic pour faire des phrases chocs et pour la métaphore, voila pourquoi ! Le génie d’Albert et de Henri sont au même niveau sauf que Albert nous explique la relativité avec un train et un talus ou avec des choses de la vie de tous les jours : « Placez votre main sur un poêle une minute et ça vous semble durer une heure. Asseyez vous auprès d’une jolie fille une heure et ça vous semble durer une minute. C’est ça la relativité » alors que Henri nous explique comment manipuler des espaces non euclidiens à n dimensions. On sait parfaitement que c’est Poincaré en 1900 qui publie pour la première fois le fameux E=mc2 mais cela passe quasiment incognito alors que Einstein, lui, va venir renverser la pensée publique et ne se cantonne pas qu’aux spécialistes. Albert disait d’ailleurs « Si vous ne pouvez expliquer un concept à un enfant de six ans, c’est que vous ne le comprenez pas complètement ».



Mais Henri a aussi ses petites citations, malheureusement moins célèbres mais qui sont dans le même registre que celles d’Albert. Quand Albert dit « Inventer, c’est penser à côté », Henri lui répond « Si c’est par la logique qu’on démontre, c’est par l’intuition qu’on invente ». Tous les deux pensent aux mêmes choses et font preuve de réflexion sur comment réfléchir de façon juste et y a t il une solution ? Albert nous dit « Un problème sans solution est un problème mal posé » et Henri répond : « Il n’y a pas de problèmes résolus, il y a seulement des problèmes plus ou moins résolus ». On voit dans ces deux citations que Bébert (Einstein) est beaucoup plus optimiste que Riton (Poincaré). Je pencherai plus pour la phrase de Riton tout de même bien que Albert nous informe de l’importance de comment poser un problème. Il est certain qu’un problème mal exposé peut paraître irrésoluble alors que la solution pourrait paraître évidente en reformulant le problème initial différemment. Cette méthode est très utilisée en science sous forme « d’astuces » ou « tricks » en anglais. C’est d’ailleurs cela qui entraîne de mauvaises notes à tous les élèves de classes préparatoires. Pour résoudre les problèmes mathématiques il y a toujours une astuce qui ne vient jamais à l’esprit naturellement sauf quand on la connaît déjà et qu’on a l’habitude.

 

Albert parfois nous dit des choses peu communes qui peuvent paraître vraiment douteuses du style « Si les faits ne correspondent pas à la théorie, changez les faits », ici je pense qu’il ne faut évidemment pas prendre la phrase au premier degré : on ne va pas changer des mesures expérimentales pour que ça colle à la théorie bien entendu. Il s’agit je pense de ne pas avoir une confiance absolue dans des mesures car il y a toujours des éléments extérieurs qui peuvent venir perturber la mesure et ainsi introduire un biais. Mais après réflexion Albert prenait peut être la phrase au premier degré, et il a d’ailleurs utilisé cette technique avec la fameuse « constante cosmologique » qui, il faut l’avouer, était pour le moins douteuse. Cette constante introduite dans les équations d’Albert permettait de fixer l’Univers, de lui donner une expansion ou de le réduire, en gros, son comportement dynamique. Et comme Albert voyait dans sa tête un Univers statique il a fixé cette constante à la valeur adéquate, il disait d’ailleurs a son ami Ehrenfest dans une lettre « J’ai encore commis quelque chose à propos de la théorie de la gravitation qui, d’une certaine façon, m’expose au danger de me faire interner dans un asile de fou ». Mais quelques années plus tard on observe un décalage vers le rouge des étoiles ce qui signifie qu’elles s éloignent toutes et donc que notre Univers est en expansion « Si l’Univers n’est pas quasi-statique, alors au diable la constante cosmologique » Il rajoutera même un peu plus tard que cette constante était « la plus grande bêtise de sa vie ». Mais depuis quelques années on ressort cette constante des vieux cartons avec une valeur différente pour prendre en compte l’accélération de l’Univers qui n’est toujours pas comprise, enfin son origine est mystérieuse. Einstein doit se retourner dans sa tombe en redisant  « Rien n’est plus proche du vrai que le faux », il pourrait même rajouter avec un grand sourire en tirant la langue que « La théorie, c’est quand on sait tout et que rien ne fonctionne. La pratique, c’est quand tout fonctionne et que personne ne sait pourquoi. Ici, nous avons réuni théorie et pratique : Rien ne fonctionne… et personne ne sait pourquoi ! »

  • Plus

 

Partager l’article : Réflexions Einsteiniennes 2
 
Suite du petit jeu avec les citations du bon vieil Albert mais on rajoute un invité surprise. Albert, la pensée, la…

Réflexions Einsteiniennes 1

Bon le jeu est simple : On prend des citations d’Albert (Einstein) qui sont  toutes en générale assez drôles et on essaye de voir ce qu’il y a dedans… Evidemment une citation, c’est un bout de phrase (choc) hors de son contexte donc c’est toujours dangereux à analyser…

J’invite les éventuels lecteurs, à donner également leurs opinions pour d’autres interprétations en commentaire. Je tiens a remercier H.Dugenoud pour m’avoir envoyé un diaporama avec des citations d’Albert, c’est ça qui m’a donné l’idée…

Pour avoir une vue de toutes les citations d’Albert :  

http://fr.wikiquote.org/wiki/Albert_Einstein

Einstein, Dieu, Hasard



Je rappelle avant tout que Albert est issu d’une famille juive et que la religion l’a beaucoup tourmenté, elle a amené beaucoup de questions et aussi beaucoup de motivation dans sa vie.

Dieu et le hasard reviennent sans cesse dans la bouche d’Einstein, on pourrait presque croire qu’il était obsédé par le fait de ne pas trouver Dieu dans ses équations : « Je veux connaître les pensées de Dieu ; tout le reste n’est que détail ». Pour lui l’Univers ne peut être une source de hasard, tout est trop bien agencé : « Ce qui est incompréhensible, c’est que le monde soit compréhensible ». Les mathématiques permettent de décrire la nature, il y a forcément une entité intelligente derrière : « Ce qui m’intéresse vraiment c’est de savoir si Dieu avait un quelconque choix en créant le monde ». Dans cette dernière citation il parle de Dieu comme si il l’avait déjà rencontré. Ce qui est d’ailleurs très étrange c’est que la mécanique quantique est issue en petite partie des travaux d’Einstein sur la théorie des Quanta (qui en l’occurrence l’a récompensée d’un prix Nobel) alors que lui même n’y croyait absolument pas car tout est dépendant de probabilité, donc de hasard, et c’est à cette occasion qu’il cite sa plus célèbre phrase : « Dieu ne joue pas aux dés », la physique quantique était une aberration philosophique et scientifique pour lui. Je pense qu’il serait bien étonné de voir à quel point cette théorie a fait ses preuves et commence à se développer partout. D’un autre côté, ce bon vieux Albert nous a aussi dit « Définissez-moi d’abord ce que vous entendez par Dieu et je vous dirai si j’y crois ». Il est donc en partiel désaccord avec ce que les gens entendent par Dieu.

Mais bon, c’est trop tard pour lui demander ce que lui, il entendait par Dieu… En tout cas, il définissait le hasard à partir de Dieu : « Le hasard, c’est Dieu qui se promène incognito ». Mais ça ne s’arrête pas là, pour Albert, la religion était presque son fer de lance et cette conviction lui donnait la foi pour progresser dans la Science : « J’affirme que le sentiment religieux cosmique est le motif le plus puissant et le plus noble de la recherche scientifique ». On est donc amené à penser que la Science s’arrêtera lorsqu’elle découvrira Dieu : « L’escalier de la science est l’échelle de Jacob, il ne s’achève qu’aux pieds de Dieu ». Personnellement, je pense que, en prenant cette dernière citation en référence,  la Science n’est pas prête de s’arrêter et ne se terminera certainement jamais… Mais je me demande pourquoi les gens qui ont la foi (je ne connais pas trop ce genre de truc, je suis un athée fondamentaliste) pensent que nous avons un but à accomplir au cours de notre vie comme le pensait  Einstein : « En apparence, la vie n’a aucun sens, et pourtant, il est impossible qu’il n’y en ait pas un ! ». Nous pourrions simplement être de petites ‘crottes’ issues d’un formidable hasard de la physique et de la biologie. Cette idée ne me dérange pas, et si on a un but dans la vie, eh bien c’est un but personnel ou un but de survie pour notre espèce. Par exemple essayer d’améliorer la vie sur Terre pour le bonheur des autres en évitant de trop polluer notre planète poubelle pour la préserver dans le futur, c’est ce que j’appelle un instinct de survie de l’espèce. Sinon tout le monde serait égoïste et s’entretuerait (zut ça ressemble un peu à la réalité).

  • Plus

 

Partager l’article : Réflexions Einsteiniennes 1
 
Bon le jeu est simple : On prend des citations d’Albert (Einstein) qui sont toutes en générale assez drôles et on…

Quel avenir pour les Sciences en France ?

Bon, il faut être réaliste, de moins en moins de jeunes après le BAC prennent le chemin des Sciences. En 1960, 33% des étudiants étaient en filières scientifiques, aujourd’hui c’est moins de 20%. Quant aux diplômés supérieurs en Physique-Chimie, c’est une baisse de 37% pour la France dans les 10 dernières années, ce qui reste tout de même inférieur aux 50% de chute chez nos confrères allemands !! Concernant la durée des études, les étudiants sortent diplômés de plus en plus tard mais il y a de moins en moins de doctorants, bizarre non ? Bah oui en général il est classique et faire plusieurs 1ère année et de changer de cursus de temps en temps, quoique ce dernier point est un avantage. En sortant du lycée c’est toujours difficile de savoir ce que l’on veut faire et avoir la possibilité de recommencer est importante.

Au niveau de la rentrée 2004, on a enregistré une baisse de 9% en Sciences. Mais bon, selon les chiffres, il y a une très légère hausse d’étudiants en 3ième cycle, mais 97% de cette hausse, en science, est due aux étudiants étrangers qui viennent en France. En 3ième cycle dans les domaines scientifiques, 30% des étudiants sont de nationalité étrangère. On arrive donc à la conclusion que notre système d’éducation est performant, la France est d’ailleurs très reconnue dans le monde pour les mathématiques. Nous avons d’excellents professeurs, les moyens ne sont pas comparables à ceux des Etats-Unis mais le coût des études n’est pas le même non plus ! Evidemment, les étrangers viennent se former en France, et repartent souvent quand ils ont fini. C’est pareil pour les petits étudiants français, ils partent aux Etats-Unis, en Chine, au Japon, en Angleterre ou en Allemagne où les salaires et avantages sont nettement supérieurs. C’est un grand problème ! Pour ma part, étant toujours étudiant, j’ai fait deux stages dernièrement : un en Suisse et un en Espagne… Il faut voyager, regarder ce qui se passe autour, se tenir au courant, partager et diversifier les expériences  mais si tous les jeunes chercheurs français partent à l’étranger, notre cher pays ne va pas s’améliorer. Quand on voit la paye d’un chercheur ou ingénieur classique au CNRS et des moyens dont il dispose ça fait vraiment peur si on vient de l’industrie ou des Etats-Unis. Je suis pour un mélange, surtout en Science car cela doit avant tout être un échange mais le fait de vouloir partir pour des raisons financières, c’est très dommage. Quand on voit tous les étrangers venant en France, on peut être fiers mais quand on voit tous les chercheurs français qui partent gagner de l’argent et donc amener une plus value aux Etats-Unis, je trouve cela très dommage. Dans mon école, salaire moyen à l’embauche en France : 30K€, salaire d’embauche moyen à l’étranger : 40,5K€. Il y a de quoi se poser des questions… Ensuite, si par chance (ou malchance) un étudiant décide de continuer ses études en faisant un doctorat, soit au moins trois années d’études supplémentaires, et bien le salaire d’embauches chute en dessous des 30K€. Etrange non ? Même formation pendant 5 ans et si on continue encore 3 ans et bah on gagne moins d’argent parce qu’on fait de la Recherche en général. Faut donc être complètement con pour faire ça, c’est pour ça que c’est mon choix J.

On constate 9% de baisse en Science mais une hausse de 10% dans les milieux de la santé dans les universités! Et oui ce sont les domaines comme la génétique, la biologie et la santé qui augmentent. Pourquoi ? d’une part parce qu’ils sont de plus en plus à la mode et qu’ils bénéficient d’un impact médiatique nettement plus important. De plus, les filles font de plus en plus d’études, et sont désormais plus nombreuses que les garçons en ayant également de meilleurs résultats. Evidemment, les Sciences dites « fondamentales » comme la physique, les mathématiques, la chimie n’ont pas la cote car paraissent vieillottes et ennuyeuses en étant en plus difficiles, longues et peu rémunératrices.  Pourquoi s’emmerder à faire plus de 8 ans d’études après le BAC en mathématiques (qui sont généralement difficiles et peu amusantes) pour gagner à la sortie 2 000€ par mois si on a la chance de trouver un boulot alors qu’il suffit de faire un truc à la mode comprenant les mots « qualité », « management » et « innovation » pour se faire 4000 € par mois en quelques années d’études qui ne sont pas des plus difficiles. Certes, tout le monde ne peut pas faire ce genre d’études qui demandent tout de même une personnalité et un certain intellect (quoique quand on voit les gens qui sortent on peut parfois se demander). Et ouais, plus le pays est développé, plus les découvertes scientifiques sont dissimulées dans tous nos appareils sans qu’on s’en rende compte et on en devient blasé. C’est dans « les pays en voie de développement » (j’ai horreur de ce terme, je le trouve vraiment péjoratif mais bon) que les jeunes sont les plus motivés par les Sciences dures comme en Chine, en Inde, au Pakistan…

Autre problème en France, l’organisation des études entre écoles d‘ingénieurs et de commerce avec les universités. Ce système n’existe pas vraiment dans les autres pays. En général il y a des filières « ingénieries » dans les universités, publiques ou privées,  mais pas d’entités comme en France avec le système de classes préparatoires et de grandes écoles plus ou moins prestigieuses. Article du Point selon les grandes écoles :

«Autres lieux , autres mœurs: oral de recrutement au prestigieux CERN de Genève ( l’ organisation européenne pour la recherche nucléaire ). Un jeune Français vient postuler pour un poste d’ ingénieur. Question d’ un juré: « C’ est quoi, l’ X? » Le jeune diplômé cite bien sûr fièrement l’ Ecole Polytechnique. « Mais c’ est quelle université ? insiste son interlocuteur. Vous avez un doctorat? » L’ anecdote, rapportée par un ancien haut fonctionnaire genevois, est révélatrice: les étrangers ne connaissent pas ou connaissent mal notre système des grandes écoles. Et l’ X a beau être le fleuron de notre enseignement scientifique , elle demeure à des années-lumière de la notoriété des grandes universités anglo-saxonnes comme Oxford, Stanford ou le MIT.  »

Mais nos écoles demeurent néanmoins coûteuses en comparaison de l’université française avec une loi assez vraie pour les écoles d’ingénieurs : plus c’est cher, moins l’école est bonne (c’est moins le cas en école de commerce, elles sont toutes chères). Bah oui, à polytechnique, dans les INSA et autres écoles publiques, c’est gratuit alors que dans des écoles bas de gammes il faut payer 10 000€ à l’année !! En gros, on achète un diplôme et plus on paye, moins le diplôme est bon et plus c’est facile de rentrer, logique quoi. Encore faut il différencier les écoles reconnues par l’Etat (membre de la Commission des Titres d’Ingénieurs, il y en a déjà plus de 240) des autres. Bref, ce système est incompréhensible pour les gens de l’extérieur et on espère désormais devenir plus clair avec le système européen LMD (Licence +3, Master +5, Doctorat +8) qui vient de se mettre en place. On constate en général que pour la reconnaissance internationale, il faut des relations, nombreuses, et donc beaucoup d’étudiants. Or, une école d’ingénieurs moyenne sort une centaine de diplômés chaque année et plus de la moitié n’en sortent qu’une cinquantaine. C’est un handicap…

Les Neutrinos nous attaquent!

Bon, je ne sais pas pourquoi, mais le mot « neutrino » plait beaucoup aux gens de mon entourage mais personne ne sais vraiment qu’est ce qu’un neutrino, donc cet article a pour objectif d’expliciter un peu ce mot qui désigne une particule pour le moins étrange et encore assez mal connue par les physiciens des particules…

Evidemment, avant tout il faut savoir ce qu’est une particule, et cet article ne va pas s’étendre sur ce point et expliquer le modèle standard qui nécessite 10 pages d’explication. On dira pour être simple et clair : toute la matière  (de votre cerveau à vos chaussures en passant par les carottes) est constituée de molécules faites d’atomes qui eux mêmes sont constitués de particules dites élémentaires.

Ex : une molécule d’eau (H2O) est composée de 2 atomes d’Hydrogène et d’un atome d’Oxygène. L’atome d’Hydrogène est composé d’un proton (constitué de 3 quarks) et d’un électron. (ici les particules élémentaires sont les quarks et l’électron)

Les particules élémentaires possèdent 3 caractéristiques les définissant selon la théorie qui s’appelle le modèle standard : 

  • Sa masse (en général on explicite la masse en énergie, bah oui, Einstein a dit E=mc² donc masse et énergie sont strictement équivalentes
  • Sa charge électrique
  • Son spin. Le spin c’est en gros, mais alors très gros, la rotation de la particule sur elle-même, mais attention c’est une métaphore. Disons que ça caractérise une particule au même rang que sa masse et sa charge électrique mais que c’est autre chose…

Pour faire un peu d’histoire, le neutrino a été imaginé dans les années 1930 par Wolfgang Pauli et Enrico Fermi pour régler des problèmes d’observations… Lors de mesures pendant la désintégration de noyaux radioactifs, la conservation de l’énergie n’était pas respectée. En effet, un des fondements de la physique et de la chimie est le principe de conservation de l’énergie, comme disait Lavoisier en chimie : « Rien ne se perd, rien ne se crée, tout se transforme ». En physique des particules, c’est la même chose, une grosse particule peut éclater et donner de nouvelles particules (Fission nucléaire) ou des particules peuvent s’assembler pour en former une autre (Fusion nucléaire). Donc pendant ces expériences, il manquait un « morceau » d’énergie qui disparaissait dans la nature, que personne ne pouvait détecter, Pauli a alors imaginé quelque chose qui paraissait très bizarre pour l’époque : « il doit y avoir une autre particule qu’on ne détecte pas » et Fermi lui a donné le nom de « neutrino » pour symboliser un « petit neutron » car la charge électrique de cette particule introuvable devrait être nulle et sa masse très faible voire nulle avec un spin de ½. Après maintes expériences, les conclusions étaient que ce neutrino devait très peu interagir avec la matière et sa détection était alors très difficile, il faut un détecteur gigantesque et disposer d’une source de neutrinos très importante. Dans les années 50, cette source tant recherchée est apparue : la bombe Atomique ou les réacteurs nucléaires. C’est donc en 1956 qu’est identifié (assez faiblement certes) le premier neutrino par Reines et Cowan près d’un réacteur nucléaire aux Etats-Unis, soit 25 ans après la supposition de son existence!

On est maintenant sûr de notre formule respectant la conservation de l’énergie :

Neutron = Proton + Electron + (anti)Neutrino

Le premier faisceau de neutrinos a été construit au CERN (Organisation Européenne pour la Recherche Nucléaire) au début des années 1960. En 1973, la chambre à bulles « Gargamelle » dans le faisceau de neutrinos de l’accélérateur a permis au CERN de faire l’une des plus importantes découvertes, appelée « l’interaction à courant neutre »: les neutrinos peuvent interagir avec une autre particule tout en restant des neutrinos.

Evidemment, c’était trop simple, désormais plusieurs types (saveurs) de neutrinos existent, il y a des neutrinos de muon (vm) , d’électron (ve)  et de tauon (vt). C’est le CERN en 1989 qui a montré qu’il n’en existe pas d’autres. Les premières théories élaboraient une masse nulle pour le neutrino, ce qui ne choque pas

à première vue, ceci est bien illustré par le fait que chaque homme sur terre est traversé chaque seconde par la quantité énorme de 400 000 milliards de neutrinos provenant du soleil. Les neutrinos traversent notre planète avec une très faible probabilité d’interaction avec la matière, ce qui démontre en même temps leur innocuité et la difficulté de les intercepter dans une expérience de physique.. Mais désormais, la donne a changé avec les expériences récentes qui se déroulent, particulièrement l’expérience Super-Kamiokande (http://neutrino.kek.jp) au Japon (qui a reçu un prix Nobel en 2002) qui a montré que les neutrinos peuvent se « transformer » en différentes saveurs (v
m,ve vt) au cours de leur vie et cela n’est possible que si le neutrino possède une masse (en fait il oscille en changeant de saveur) ! La photo de gauche représente le détecteur en question. Cette expérience japonaise étudie les neutrinos provenant d’explosions de supernovae ou du reste de l’Univers qui dégage une fabuleuse quantité de neutrinos. Le fait que les neutrinos possèderaient une masse arrange beaucoup de monde, et les astrophysiciens voient en cette découverte peut être une esquisse de réponse à la masse cachée de l’Univers (pour ceux qui ne sont pas au courant on a un gros problème dans notre Univers, il y a 80% de la masse de l’Univers qui est introuvable et que l’on appelle « matière sombre »).

Le CERN développe également une nouvelle expérience nommée CNGS (http://proj-cngs.web.cern.ch/proj-cngs/) car au cours des collisions provoquées dans l’accélérateur, des neutrinos sont créés, en général on ne les détecte pas car cela demanderait trop de matériel et le but n’est pas celui-ci dans l’avenir, ils sont simplement déduits… Néanmoins, un faisceau de neutrino a été créé artificiellement (ne me demandez pas comment) pour être expédié à travers la Terre à Gran Sasso en Italie à 730 km de Genève (voir dessin) pour des expériences sur l’oscillation des neutrinos et mieux comprendre cette théorie découverte par les observations de Super-Kamiokande. Pourquoi si loin ? parce que les neutrinos doivent parcourir un certain chemin pour fournir des résultats intéressants, c’est pas en restant confinés entre la Suisse et la France qu’ils vont nous donner des infos utiles.



Bref, le neutrino est une particule élémentaire neutre qui possède une masse très faible en interagissant très peu avec le reste matière. Ils sont créés lors de désintégrations nucléaires dans les étoiles, les supernovae, les bombes A, les réacteurs nucléaires… Leur apparition dans l’Univers s’est fait il y a 15 milliards d’années et ils constituent le bruit de fond cosmologique qui est le rayonnement le plus vieux (dans le temps et donc le plus loin dans l’espace) jamais observé très peu de temps après le supposé BIG-BANG. Voir l’article « La création du monde a t-elle été guidée par une forme quelconque d’intelligence, et peut-on identifier cette intelligence à un dieu créateur ? »pour plus d’info à ce sujet.

Quand vous vous coucherez ce soir pensez aux 400 000 milliards de neutrinos qui vont vous transpercer chaque seconde !

De l’expérience à la simulation

Dans un temps très ancien, il y a encore une cinquantaine d’années, avant que l’ordinateur ne perce, pour mettre à l’épreuve les diverses théories et obtenir des résultats on utilisait une chose qui désormais pourrait presque paraître étrange. Cette chose, c’était l’Expérience.
Pour vérifier l’aérodynamisme et la portance des avions, pour tester des bombes, pour fabriquer des ponts, pour mettre au point des moteurs, l’étape essentielle de tous ces développements était l’expérimentation sur un prototype ou sur une maquette. On connaît les relations permettant de passer d’une maquette à un prototype taille réel en mécanique des fluides par exemple (l’aérodynamisme est compris à l’intérieur).

Le but principal de l’expérience est de valider des calculs ou des théories établies préalablement. Cette utilisation est bien entendue toujours d’actualité mais elle a beaucoup évolué. Avant, pour construire une voiture, le constructeur automobile développait avant la mise en industrialisation un nombre de prototypes hallucinants car il y avait toujours des défauts à corriger, les corrections pouvant entraîner d’autres défauts… On faisait également énormément de crash-test ou ce genre de tests. Désormais, nos mains comptent assez de doigts pour compter le nombre de prototypes nécessaires avant industrialisation. Pourquoi ? Parce qu’on a des ordinateurs ? Oui, mais pas seulement, surtout parce que la modélisation et la simulation numérique ont fait des progrès gigantesques.

La simulation permet d’économiser beaucoup de temps, d’argent et permet de faire des choses qui n’étaient même pas soupçonnables par le passé. Elle est utilisée dans tous les domaines scientifiques, de la science fondamentale aux sciences du comportement et à la biologie en passant par les sciences de l’ingénieur. Toutes les technologies et théories sont désormais issues de simulations, je dis bien TOUTES. Je crois bien que dans 80% des sujets de thèses pour les élèves doctorants, il y a le mot « simulation » qui apparaît. La simulation est un outil incontournable. Si un scientifique vous dis qu’il ne fait pas de simulation, soit c’est un théoricien pur sang, soit c’est un fou, soit c’est un menteur. Evidemment, pour faire une simulation numérique, il faut un modèle. D’où l’importance de la modélisation avant la simulation. Maintenant, les algorithmes de résolutions numériques sont très performants, on en trouve pour tous les goûts et toutes les disciplines, donc pour faire une bonne simulation il faut un bon modèle ! Mais un modèle c’est quoi au juste ?

Un modèle permet de caractériser un système ou un processus de manière explicite grâce à des équations. Ce modèle peut être physique, c’est-à-dire qu’il est issu d’une théorie et que les différents paramètres possèdent des unités physiques qui signifient quelque chose de réel. La deuxième possibilité c’est que le modèle soit purement mathématique. C’est-à-dire que les paramètres des équations ne possèdent pas de connotations réelles, c’est un modèle issu d’observations que l’on a faites, pas d’une théorie utilisant des équations physiques. Il existe aussi d’autres types de modèle comme la logique floue et les réseaux de neurones très en vogues en ce moment…

En général, ce ne sont pas des équations algébriques mais des équations différentielles qu’il faut résoudre. De plus ces équations sont valables à un instant « t ». Si on veut étudier leurs évolutions dans le temps, par exemple pendant 5min avec une précision de 0,1seconde, il faut les résoudre 3000 fois !

Une fois le modèle en poche, on simule ! Evidemment un calcul peut vite devenir très gourmand et l’ordinateur, aussi puissant qu’il soit, est en réalité vite dépassé. C’est pour cela qu’il faut bien conditionner les problèmes, savoir la précision que l’on souhaite et qu’il faut utiliser des algorithmes peu gourmands en temps en calcul. Certaines résolutions qui à première vue peuvent paraître presque anodines, peuvent demander 1500 Milliers d’années de calcul avec l’ordinateur le plus puissant du monde. Alors que des problèmes hyper complexes arrivent à être résolus en 1h sur un PC standard… Tout cela pour dire que cela n’est pas souvent très intuitif. Le plus difficile je dirais que c’est identifier le problème :

  • Qu’est ce que je veux connaître ?
  • Quelle précision je souhaite ?
  • Une simulation dans le temps (dynamique) ou à un instant précis (statique) ?
  • Quel modèle utiliser ?
  • Qu’est-ce qu’il faut prendre en compte ?
  • Quels sont les paramètres pertinents ?
  • Quel algorithme utiliser, quel logiciel ?

A la question  « Qu’est ce qu’il faut prendre en compte ? », eh bien dans l’idéal,
tout, mais c’est évidemment impossible. Par exemple quand on veut simuler la température dans un moteur, on va dire que la température extérieure est de 25°C, on ne va pas inclure dans le modèle la météo pour avoir la température du jour…

 Le marché du logiciel possède une vaste gamme de simulateurs spécialisés le plus souvent par domaine et par technique de simulation. Une technique très en vogue et très répandue s’appelle la méthode des éléments finis. Le principe est très simple. On dessine le machin qu’on veut simuler (un morceau de carbone, une voiture, un moteur, une pompe, une aile d’avion…)  on le découpe en triangle (en 2D) ou en tétraèdres (3D), on définit les équations physiques valables (équations électromagnétiques, équations de mécanique des fluides selon les choses qui nous intéressent….), ce que l’on veut calculer (force, température, débit, déformation…), on fixe des conditions sur les limites (température extérieure, le liquide ne peut pas traverser ce mur…) et on appuie sur « play » pour voir le résultat. Genre on peut simuler un bidule à l’aide de ce machin en bidouillant un peu tout ce bazar en moins d’une heure pour un problème de base et obtenir un résultat très satisfaisant, c’est super bien fait ! Evidemment, la simulation et tout le tralala, c’est rapide ce qui est lent, c’est tout ce qu’il y a avant…

 

Voici maintenant les exemples de simulations les plus connus:

La météo, bien entendu est la simulation par excellence qui demande des ressources informatiques gigantesques. Les modèles, très complexes, doivent prendre en compte plusieurs milliers de mesures de températures, de pressions, de vents… faites dans la journée et dans les jours précédents pour anticiper le temps de demain, voir de la semaine. Tout le monde se sera aperçu qu’il y a encore des progrès à faire. Mme Météo a souvent tort mais tend à s’améliorer !!
Evidemment quand on fait une simulation de réacteur nucléaire, on peut attendre le résultat pendant une semaine de calcul mais pas en météo. S’il faut attendre le samedi pour avoir le temps qu’il faisait le lundi d’avant (mais avec des données antérieures à ce lundi), la météo n’a plus grand intérêt ! Donc en météo, les simulations se comptent en heures et les machines doivent donc être très puissantes en temps de calcul et en stockage de données. Mais la météo interagit aussi directement avec les simulations de notre bonne vieille planète bleue.

La Défense. Ce secteur est également très friand de simulation. Depuis l’arrêt des essais nucléaires en France en 1996 (Rappelez-vous donc Mururoa avec Chichi), la France a décidé de continuer sa « dissuasion nucléaire » par des simulations ! Je n’approuve pas trop ce domaine de Recherche, mais c’est malheureusement un des plus actifs, et c’est surtout celui qui a le plus d’argent (on vit dans un monde de cinglés) donc je ne peux pas faire l ‘impasse. Le CEA (Commissariat à l’Energie Atomique) vient d’ailleurs d’acquérir un super-calculateur nommé Tera-10 (60 mille milliards d’opérations à la seconde), entre autre pour ce secteur. Le CEA simule donc les futures bombes (bombe A, bombe H…) sur des PC. C’est quand même mieux que de le faire en vrai pour voir si ça marche, même si le résultat final est toujours le même. Mais évidemment, ces simulations doivent être vérifiées d’une manière ou d’une autre. C’est pour cela que le CEA a entrepris la conception et construction de plusieurs expériences permettant de vérifier les modèles et les résultats obtenus séparément. Je parle de l‘expérience Mégajoule près de Bordeaux et de leur machine AIRIX pour la radiographie. Les résultats peuvent également être confrontés aux expériences faites dans le passé pour voir si l’on peut retracer ce qui s’et passé avec précision…

La Recherche Nucléaire évidemment exploite de gigantesques calculateurs dans le but de simuler le fonctionnement de la matière mais également pour la conception de réacteurs nucléaires. Je le répète, la recherche nucléaire se rapporte à l’étude des constituants de la matière (ou anti-matière) : les particules. Ça ne veut pas dire « centrale nucléaire » ou « bombe Atomique » forcément (c’est juste inclus dedans).

Donc dans l’étude des particules, on peut simuler le comportement de ces petites boules d’énergie avant de passer à l’expérience. L’expérience, elle, est aujourd’hui primordiale pour vérifier les modèles et les simulations. Ces expériences se font dans des accélérateurs de particules où l’on va même jusqu’à accélérer des grosses particules (des protons, soit 1800 fois plus lourds qu’un pauvre petit électron) dans un anneau qui fait 27km de circonférence à 100mètres sous terre entre la France et la Suisse. Je parle bien évidemment du LHC (Large Hadron Collider) du CERN (Organisation Européenne pour la Recherche Nucléaire) à Genève qui rentrera normalement en fonctionnement en 2007. Avant cela, il a fallu un nombre de simulations hallucinant et les résultats fournis par l’accélérateurs entraîneront encore de multiples simulations dans tous les domaines de la physique fondamentale pour pouvoir aider les astrophysiciens et notre connaissance de la matière qui n’est toujours pas complète.

Concernant les réacteurs nucléaires de demain, ils sont entièrement simulés sur ordinateur avant de fonctionner. Mais ces simulations sont avant tout faites pour la recherche fondamentale pour mieux appréhender le comportement de la matière dans des situations extrêmes. Les recherches et les simulations sur les plasmas sont par exemple un atout pour la connaissance des réacteurs nucléaires.

L’astrophysique et la cosmologie n’existeraient pas sans simulations. Leurs objectifs est de fournir des modèles de notre univers pour pouvoir retracer son passé, son évolution et son futur avec précision. Pour cela, il faut bien évidemment des simulateurs. Un modèle tout seul donne un comportement mais pas un résultat. En gros, le simulateur est le « shaker » dans lequel on place notre modèle de l’Univers, nos conditions initiales et nos paramètres. Ensuite on le secoue très fort et il nous fournir l’évolution des étoiles, des galaxies et tutti quanti sur plusieurs milliards d’années. Ces disciplines s’intéressent aussi aux objets cosmiques telles que les étoiles, les galaxies, les quasars et autres objets bizarroïdes. Les simulations permettent de tester des théories avec leurs modèles pour voir si les observations sont conformes à ce que fournissent les simulations. De nombreuses simulations de notre étoile le soleil sont faites pour mieux comprendre son fonctionnement par exemple.

Des matériaux sont désormais issus de simulations numériques. Avant de concevoir un matériau, on va modéliser sa structure atomique et le simuler pour obtenir comme résultats ses propriétés mécaniques, optiques, électriques, électroniques et même chimiques. Evidemment on ne peut pas prendre en compte tous les atomes en tenant compte de leurs rapidité, ce serait trop fastidieux :  un millième de millimètre cube contient près de cent milliards d’atomes et chaque atome peut osciller à environ un millième de milliardième de seconde. On dilate ces paramètres pour obtenir un modèle plus grossier (on regroupe les atomes identiques par exemple) et les simulations nous donnent alors des résultats pertinents en un temps raisonnable. On peut ainsi améliorer de nombreux matériaux utilisés en électronique (semi-conducteurs), en optique ou dans le bâtiment (simulation des différents bétons par exemple).

L’automobile et l’aéronautique utilisent la simulation pour réduire les coûts et augmenter les performances, optimiser tout ce qui est possible. Chez PSA, on fait des crash-tests numériques, les constructeurs d’avions et de fusées testent sur ordinateur les comportements de leurs avions en situation extrême, trop dangereux à réaliser en réalité. Tout cela sans compter toutes les simulations numériques préalables pendant la conception mécanique. Bref, du manche à
balai aux ailes en passant par le matériel électronique et les moteurs, tout est simulé avant de construire le moindre prototype et d’effecteur le moindre test. Le décollage impeccable du nouveau Jumbo d’Airbus, l’A380, cette année est une preuve de la fiabilité des simulations. Dans cet avion, tout a été simulé de A à Z, ce qui a permis sa construction en un temps record et son succès au premier décollage. Le pilote ayant fait le premier décollage raconte que la sensation de pilotage faite en simulateur était extrêmement fidèle à la réalité, ce qui était rarement le cas avant. On a même fait un essai d’atterrissage automatique sans intervention humaine 35 jours après le premier décollage (on avait déjà tout simulé avant) alors que normalement ce genre de test se fait plusieurs années après. Faire décoller plus de 500 tonnes avec quatre moteurs et 80m d’envergure tout en respectant toutes les normes de sécurité voyageurs, c’était encore impossible il y a quelques années.

La Biologie également simule tout ce qui bouge
et est vivant !

La gestion des risques est maintenant assujettie à la simulation pour prévenir d’éventuels dangers et connaître leurs répercussions. Par exemple pour la propagation d’une épidémie au sein d’une population. Il existe désormais des modèles extrêmement réalistes. Il y a même eu des simulations numériques sur le crash d’un avion type A320 sur une centrale nucléaire. Modélisation du béton de la centrale, explosion de l’avion, chaleurs et température…

Mais dans l’avenir ce ne sera peut être pas des simulations numériques les plus performantes, mais des simulations analogiques… Je ferai un article sur ce sujet de plus en plus en vogue, sans parler des futurs ordinateurs quantiques qui pourraient être prometteurs…

Pour plus d’informations, des compléments et des détails :

La Recherche N°393 Janvier 2006, supplément spécial CEA : Le calcul haute
performance

Holisme Vs Reductionnisme

Holisme, Réductionnisme : voilà deux mots fondamentaux dans la Science qui méritent des définitions.

Holisme

Le Holisme (qui vient du grec « holos » signifiant « entier ») est une théorie qui explique que pour connaître une chose, quelle qu’elle soit, il faut connaître l’ensemble de son environnement. En gros c’est le « tout » qui définit les objets qui sont à l’intérieur par les relations qu’exercent tous ces objets entre eux. On peut citer une phrase pour résumer : « Le tout est plus que la somme de ses parties » (Principe d’émergence). On reviendra plus loin à la signification exacte de cette phrase avec le réductionnisme qui s’y oppose. Le holisme est très répandu en sociologie ou pour des théories de l’évolution. Un holiste va s’intéresser aux choses (les hommes, les animaux, la matière…) dans leur ensemble et ne va pas les diviser pour les analyser indépendamment de manière cartésienne, c’est ce qu’on appelle une analyse systémique. Ce qui choque les scientifiques avec le holisme, c’est que la démarche cause/conséquence n’est pas appropriée à ce genre de réflexion, c’est pour cela qu’on parle d’approche non cartésienne systémique. Dans ce genre d’analyse on définit le « tout », (souvent appelé « univers » en physique), c’est-à-dire un système possédant une forme avec des limites à l’intérieur desquelles une logique est effective et où les entités auxquelles on s’intéresse font des échanges.

Un petit texte de Pierre Duhem, La Théorie Physique, p. 284 pour mieux comprendre :



 “La Physique n’est pas une machine qui se laisse démonter ; on ne peut pas essayer chaque pièce isolement et attendre, pour ľajuster, que la solidité en ait été minutieusement contrôlée ; la science physique, c’est un système que ľon doit prendre tout entier ; c’est un organisme dont on ne peut faire fonctionner une partie sans que les parties les plus éloignées de celle-la entrent en jeu, les unes plus, les autres moins, toutes à quelque degré. Si quelque gène, quelque malaise se révèle, dans ce fonctionnement, c’est par ľeffet produit sur le système tout entier que le physicien devra deviner ľorgane qui a besoin ďêtre redressé ou modifié, sans qu’il lui soit possible ďisoler cet organe et de ľexaminer à part”.

Réductionnisme

Le Réductionnisme c’est l’anti-holisme : on décompose les choses pour étudier chaque éléments indépendamment puis ayant compris le fonctionnement des divers éléments, on les assemble pour comprendre le système de base étudié (la sociologie à partir de la psychologie, l’écologie à partir de la biologie, la thermodynamique à partir de la physique statistique, etc.). C’est-à-dire que ici toutes les parties sont inférieures à la somme du tout, c’est le principe de contrainte contrairement à la citation du début s’apparentant au principe d’émergence.

Exemple du principe de contrainte, dans une équipe de football, tous les joueurs peuvent être excellents individuellement mais ne pas savoir jouer ensemble, ils ne respectent pas cette contrainte et donc l’effet escompté n’est pas là. Les qualités de chacun sont diluées dans le système « équipe » et le résultat ne peut être supérieur à la somme de toutes les qualités car des contraintes de groupe doivent être respectées.

Exemple du principe d’émergence, on fabrique des alliages possédant des caractéristiques supplémentaires (émergentes) qui n’existaient pas dans les matériaux de départ.

Si on est réductionniste dans l’âme, pour comprendre l’homme il faut adopter une démarche qui ressemblerait à ça :

-         Etudier le comportement des particules élémentaires constituant les atomes et leurs interactions : constituant et fonctionnement de toute la matière (physique nucléaire). 

-         Comprendre les divers constituants chimiques composés d’atomes : les molécules, enzymes, ADN… (génétique, chimie…) 

-         S’intéresser  aux cellules qui composent notre corps, leur fonctionnement (Biologie cellulaire)

-         Avoir une connaissance des différents organes avec leurs fonctions car ils utilisent toutes les entités étudiées précédemment, particulièrement le cerveau. On s’intéressera également aux os, à la peau, aux muscles… (médecine, neurologie, podologie…)

-        Et après l’homme, par sa composition, sera connu !!!

A peu de choses près, pour connaître un homme il faut explorer toutes les Sciences fondamentales… Scientifiquement, ça tient la route et dans l’absolu je pense que c’est la meilleure méthode sans exclure évidemment l’analyse du comportement humain dans la société. Il est scientifiquement reconnu que la société et l’environnement influencent l’homme… Mais on peut ici se poser une question qui paraît bête mais après l’avoir dite à haute voix, elle ne paraît pas si stupide : est-ce que c’est l’homme qui fait partie de la société (donc la société englobe l’homme) ou est-ce que la société fait partie de l’homme (c’est alors l’homme qui contient en lui la société). Après réflexion, je pencherai pour la deuxième solution, le concept de société est inclus dans l’homme comme dans d’autres animaux tels que les fourmis. C’est naturel et notre fonctionnement interne nous pousse à former une société pour survivre et prospérer. Enfin je prononce ces dernières phrases avec des pincettes et ne voudrais pas tomber dans une tautologie.

 C’est avec cette démarche réductionniste que fonctionnent principalement toutes les disciplines scientifiques ne faisant pas appel à une approche systémique bien qu’une approche dite « système » peut être envisagée, particulièrement en automatique et dans les sciences de l’ingénieur se finissant par « -nique ». Je m ‘explique. Pour concevoir un appareil quelconque ou pour mettre en œuvre une régulation de température par exemple, on peut prendre en compte l’environnement dans lequel cet appareil ou régulation sera implémenté pour pouvoir avoir une bonne cohésion du système. Le système général est ainsi pris en compte dans la phase développement d’un élément le constituant. Exemple réel : une compagnie fabriquant des gros bateaux à propulsion électrique veut un moteur électrique de telle puissance fournissant tel couple qui tient dans tel volume. Le chercheur va lui fabriquer un moteur nickel dans son laboratoire… Quand on l’installe sur le bateau, au premier abord ça marche, ça marche même très bien. Ensuite, on lance le bateau à sa vitesse de croisière et là, le pont arrière se situant à l’aplomb du moteur bouge verticalement et fait  des bonds de plus de 20cm, un passager ne peut pas tenir debout ! Pourquoi ? Parce que le moteur possède une fréquence de résonance électrique et mécanique qui est la même que la fréquence de résonance du pont arrière du bateau, les deux rentrent donc en oscillation et l’effet s’amplifie au fur et à mesure (c’est comme les militaires marchant au pas sur un pont qui font écrouler le pont car la fréquence de marche est la même que la fréquence de résonance mécanique du pont). Conclusion : une année et des millions dépensés pour rien, c’est la faillite, concevoir un nouveau moteur coûte trop cher. Une analyse « système » aurait permis de prendre en compte la résonance du bateau et le moteur aurait été conçu pour ne pas fonctionner sur cette fréquence…

Il existe un vigoureux débat sur ces deux théories qui opposent souvent scientifiques et sociologues… La suite prochainement  

  • Plus

 

Partager l’article : Holisme Vs Reductionnisme
 
Holisme, Réductionnisme : voilà deux mots fondamentaux dans la Science qui méritent des définitions. Holisme Le Holisme…