Archives pour la catégorie Sc. de l’information

La biométrie, faire de son corps une identité



La biométrie désigne la science des variations biologiques, des phénomènes qui s’y attachent et des problèmes qui en découlent. Souvent couplée avec l’anthropométrie, la biométrie permet d’identifier des personnes selon leurs différences physiques. Pour qu’un caractère soit biométrisable il faut réunir plusieurs conditions, ce caractère doit être :

  • commun à tous les humains (mieux vaut que tout le monde puisse s’identifier)
  • stable dans le temps (votre coupe de cheveux est amené à changer normalement)
  • peu altérable (la voix quand vous êtes malade)
  • facile à enregistrer et accessible (vous n’allez pas vous déchausser à chaque fois pour prendre une empreinte de votre orteil droit)
  • discriminant, spécifique à chaque individu (le fait que vous ayez 10 doigts n’est pas très original)
  • difficile à « frauder »



Comme exemple de caractères étudiés on peut citer les empreintes digitales, l’iris de l’œil, les dents, la forme des lèvres, la chaleur du visage, la démarche, le sang, la voix, la signature dynamique (analysé informatiquement ave pression et angle du stylo). Après il faut discerner deux utilisations principales :

L’identification consiste à chercher les données biométriques d’un individu dans une base de données pour l’identifier et mettre un nom sur cette personne. Par exemple on utilise cette technique dans certains espaces sécurisés pour vérifier que la personne qui entre est bien un employé ayant les droits nécessaires et archiver sa visite.

L’authentification, quant à elle, a pour objectif de vérifier qu’une donnée enregistrée sur un support individuel est bien la même que celle de la personne qui détient ce support, dans ce cas il n’y a pas de création de base de données. Par exemple, cette technique permet de confirmer que votre carte bancaire ou votre carte d’identité vous appartient.



Il y a de nombreux débats sur la biométrie, particulièrement sur le point de vue éthique. Est-ce que ce n’est pas en contradiction avec la liberté des Droits de l’Homme que de recenser toutes les personnes dès leur naissance ? Evidemment en cas d’infraction à la loi, on peut de ce fait retrouver la personne facilement mais un tiers pourrait utiliser ces données à des fins non prévues à cet effet. Une base de données n’est jamais sûre à 100% et il y a donc une possibilité de dérive. Il ne faut pas oublier de respecter la vie privée et l’intimité des gens pour ne pas créer un « Big Brother ». En France, c’est la Cnil (Commission Nationale de l’Informatique et des Libertés) qui gère ce genre de problème. La Cnil doit donner son autorisation pour tout système biométrique privé et formule un avis si cette décision émane de l’état.

Pour donner cette autorisation, il y a 3 critères :

  • La nature de la technique
  • Le mode de stockage de l’information
  • Le caractère volontaire ou obligatoire du dispositif

 Ainsi que 2 principes à respecter :

  • La finalité du projet doit être exclusive à tout autre usage.
  • Le risque de dérive encouru lié à la technique choisie doit être à la hauteur de l’impératif de sécurité recherché (pour pénétrer dans le placard à balai d’une station service on va pas imposer une reconnaissance rétinienne )



En 2007-2008, en France, la future carte d’identité nationale électronique sécurisée (Ines) sera obligatoire et payante. Elle sera de la taille d’une carte bancaire et contiendra 2 informations biométriques : les empreintes digitales et le visage.

Automatique 3

Je suis désolé celui-là est un peu long mais j’ai pas réussi à faire plus court (c’et aussi pour ça que j’ai découpé l’automatique en 3 partie). Voir automatique1 et automatique2 avant celui-ci bien sûr !

Je vais essayer ici de présenter très succinctement sans artéfact mathématique les différentes techniques de contrôle des procédés. Je rappelle qu’on appelle procédé un système physique pourvu d’entrées (que l’on manipule) et de sorties (que l’on souhaite réguler ou maintenir dans certaines plages). Pour plus d’information, je vous renvoie à Wikipédia. Jusqu’à la semaine dernière, la partie automatique de Wikipédia France était quasiment vide (imaginez vous que le terme PID n’était mentionné nulle part, pourtant j’ai bien cherché partout), cela m’ étonne un peu d’ailleurs qu’il n’y avait aucun article traitant de la théorie du contrôle, je me suis donc investi de la mission de compléter cette encyclopédie libre au mieux possible mais c’est un travail de longue haleine. Vous pouvez donc désormais vous reporter à mes articles Wikipédia suivants (qui sont tous à étoffer donc si vous êtes spécialiste automaticien, ne vous gênez pas pour les modifier) :



Le contrôleur roi de l’industrie : le PID

 Un sigle qui signifie régulateur à action Proportionnelle-Intégrale-Dérivée ! Kesako ? Eh bien le principe est plutôt simple. C’est un régulateur qui fonctionne en boucle  fermée (voir Automatique1), il donne donc une action sur le procédé en fonction de l’erreur consigne/mesure. Mais l’astuce ici est qu’on s’intéresse aussi à l’historique de cette erreur. En gros, on regarde son évolution dans le temps. Si l’erreur diminue très vite (on se rapproche du point désiré rapidement) on va venir diminuer notre action pour ne pas trop dépasser la consigne et si l’erreur diminue lentement, on va booster notre action pour arriver plus vite au point désiré. Pour cela, on dispose de 3 paramètres P, I et D à régler (à « tunner »). Ceci est un problème loin d’être évident même si on peut arriver à un résultat potable de manière empirique. En tout cas, dans ce régulateur, tout est question de compensation et de compromis, quand on améliore quelque chose (par exemple la rapidité) on vient dégrader autre chose (par exemple le dépassement). L’ingénieur contrôle doit donc faire des compromis et trouver un résultat qui satisfait un cahier des charges, bien sûr la solution n’est pas unique, il n’y a pas de méthode parfaite !! Il faut tout de même savoir que dans 70% des industries utilisant des PID (j’avance au hasard ce chiffre mais a mon avis c est encore pire que ça), ils sont réglés à la main de manière empirique, avec l’habitude et la pratique. A titre d’exemple votre ordinateur comporte plusieurs centaines de boucles PID !! Bah oui pour réguler le ventilateur, les tensions, les courants, la position de la tête de lecture de votre disque dur, DVD, les moteurs qui font tourner tout ce bazar, tout ce petit monde est contrôlé avec des PID… Evidement ici on ne règle pas à la main, c’est trop long, on fait de l’ « auto-tunning », comme ça tout se règle automatiquement (on automatise l’automatisme en fait), je vous passe les détails théoriques complexes, mais il faut savoir que ça existe. Je vous parle de ça car aujourd’hui j’ai assisté à une conférence à ce propos. Bref, si vous n’avez jamais entendu ce terme PID avant, sachez que vous en êtes dépendant tous les jours !

Contrôle avancé

 Bien sûr le PID atteint ses limites très rapidement quand les systèmes sont complexes, surtout quand il y a beaucoup de variables à réguler en même temps, quand il y a des retards importants et le pire de tout lorsque le système est à phase non minimale. Ce dernier terme un peu barbare signifie que si on demande par exemple à un truc d’aller vers la gauche, il va d’abord aller vers la droite pour aller ensuite à gauche. En gros, il produit la réponse inverse à ce qu’on avait prévu, dans ce cas là, le PID est complètement perdu (du style, dans les systèmes cryogéniques du CERN pour refroidir les aimants supraconducteurs, c’est ce qui se passe: quand on demande au bidule de ce refroidir, il se réchauffe avant !!!). La solution ? eh bien le contrôle avancé (c’est à dire tout sauf les retours d’état, les PID et les correcteurs simples)!!

Voici ce qui existe :

La commande prédictive, mon contrôle préféré ! Ici on parle de MPC (Model Predictive Control) car c’est un système de contrôle qui utilise un modèle du procédé. On connaît à priori le système et on vient prédire dans le futur jusqu’à un certain horizon ce qui va se passer pour anticiper. C’est le problème du conducteur automobile qui regarde au loin la route. S’il voit un feu vert depuis un bout de temps au loin, il va lever le pied de l’accélérateur au cas ou celui-ci passe au rouge (je parle des conducteurs sages évidemment, pas des branleurs en R5 avec des vitres fumées écoutant de la techno à l’aide de leur caisson de basse avec un sticker « tunning touch » sur la vitre arrière). Voir Commande prédictive sur Wikipédia pour plus de détails, j’ai fait quelque chose de plutôt accessible mais c’est loin d’être fini.

La commande adaptative : C’est une méthode de régulation qui peut être de n’importe quel ordre (un PID par exemple) mais l’ajustement des paramètres de contrôle se fait en temps réel. Pour cela, on vient effectuer une identification (voir automatique 2 ) en temps réel. C’est très utile lorsque les modèles des systèmes sont amenés à varier énormément. Par exemple en aéronautique, les composants d’un avion se comportent différemment au décollage au raz du sol et à 10 000 mètres d’altitudes (températures, pressions…). On actualise en permanence le modèle qui permet de changer les paramètres du contrôle.

Les commandes Robustes, souvent non-linéaires, également utilisation des LMI en linéaire, s’appuyant sur la théorie de Lyapunov (Tu vois de quoi je parle Milouze ? Je te vois sourire en Suisse depuis l’Espagne).  Ici on vient élaborer un contrôleur garantissant la stabilité et la robustesse du système (le genre d’applications où on a pas le droit à l’erreur du style centrale nucléaire). Donc dans cette rubrique mathématiquement barbare je m’étendrais pas trop parce que c’est vraiment impossible à vulgariser. Enfin si, au contraire, c’est même passionnant et peu même être abordé philosophiquement mais je laisserais à S.N ce plaisir avec ses futurs étudiants J Je projète un futur article sur le théorème de Lyapunov dans Wikipédia d’ailleurs (Milouze tu me prêteras le bouquin de Khalil j’espère, j’ai pas envie de débourser 120€).

Les contrôleurs flous (fuzzy logic: Ici, deux principales techniques, les systèmes experts et les réseaux de neurones.

  • Pour les systèmes experts, on vient formuler une base de connaissances. Cette base est constituée d’un ensemble de lois empiriques (si je cours j’ai très chaud, si je bois un coca je me rafraîchit un peu, si un pote me serre la main, ça me fait rien, si je vois une superbe fille qui vient me parler dans un bar, j’ai très très chaud et si son copain arrive alors je me refroidit à la vitesse de l’éclair). On ne quantifie jamais précisément, juste en disant, beaucoup, un peu, pas du tout… Grâce à ces connaissances empiriques on vient élaborer une technique de contrôle permettant de tenir compte de toutes ces contraintes mais à différents degrés (plus la fille est mignonne et plus j’ai chaud).
  • Pour les réseaux de neurones, c’est toujours un peu flou mais très différent. Cette méthode se base en effet sur le fonctionnement des réseaux de neurones de notre cerveau. C’est à dire que tout le monde communique sur différents niveau et il y a un phénomène d’apprentissage par l’expérience. La statistique est le maître mot ici. A titre de comparaison, avec un ordinateur super puissant, la vitesse de calcul est encore 1000 fois inférieur à celle de notre cerveaux en considération du nombre de neurones. En gros, si vous aviez cet ordinateur dans la tête il vous faudrait plus de 3h pour traverser un passage piéton modeste, au lieu de 20 secondes (ce que je dis est un peu débile mais cette comparaison m’est venu naturellement). Chaque neurone effectue un calcul très simple du style s’il reçoit un chiffre entre 10 et –10 il fait rien, si c’est supérieur à 10, il envoie 1, sinon il renvoie 0 (ou -1). Un neurone peut posséder un grand nombre d’entrées mais toujours une seule sortie (appelée axone) et on effectue alors plusieurs sommes pondérées entre toutes les actions des neurones. Pour l’apprentissage, ce sont les poids de ces sommes qui vont varier. On entraîne les neurones avec des exemples dont on connaît la solution et au fur et à mesure, les différentes pondérations se modifient (en fait on renforce ou diminue les liaisons). Donc plus l’entraînement est long, plus le réseau sera performant. Je rentre pas plus dans les détails, peut être un article dédié un de ces quatre.

Je mentionne juste vite fait que bien sûr, tout cela nécessite souvent des systèmes de supervision dans l’industrie (SCADA) pour contrôler tout en temps en réel sur des écrans et vérifier tout le bazar qui fonctionne. Ca emploie pas mal de monde en général, des opérateurs, pour manipuler les procédés et les surveiller. Cet aspect ne doit jamais être négligé en industrie, il garanti une bonne maintenance et une bonne utilisation.(en photo salle de control du CERN)

FIN DE L’AUTOMATIQUE 

 En espérant désormais que le monde de l’automatique vous est un peu plus familier. Si vous avez trouvez ça ennuyeux, je vous le dit tout de suite, je ne traiterai plus ce sujet, je passe sur Wikipédia pour ce domaine, je conserve ici mes loisirs hors boulot qui sont plutôt tournés vers la réflexion sur la Science et la physique fondamentale (surtout les particules).

 A venir : les trous noirs, la cosmologie et l’expansion de l’univers pour sortir du monde Terre à Terre de l’Automatique et se mettre la tête dans les étoiles (je ne sais pas s’il y a beaucoup de lecteurs qui arriveront jusqu’à cette ligne mais bon… le principal c’est d’y croire)

Bien sûr vous pouvez m’envoyer des petits mails si vous voulez des détails

Automatique 1

Bon je m’attaque à quelque chose difficile à vulgariser pour moi, pour la bonne et simple raison que c’est mon quotidien et mon métier : l’Automatique. Un mot qui paraît commun et anodin, mais il représente également une science, ou plutôt une démarche et une technique… C’est une discipline qui fait partie de l’électronique. En anglais on utilise le terme « Automatic Control » ou tout simplement « Control ». Pour être général on parle souvent de « Control Theory ». Cette théorie du control repose essentiellement sur des fondements mathématiques. Quand vous répondez à quelqu’un de votre famille (pour l’essentielle constituée de profs dans des domaines littéraires ne sachant pas ce que signifie une simple fonction affine) qui vous interroge sur votre métier, c’est toujours difficile de répondre aux mêmes questions:

  • Tu fais quoi dans la vie ?
  • Je vais être ingénieur et je veux faire de la Recherche.
  • Ingénieur en quoi ? Recherche en quoi ?
  • En génie électrique, électronique, spécialisé en automatique.
  • Et ça consiste en quoi ?

La conversation ne va guère plus loin, c’est pour cela que je fais cet article !!Comme le sujet est vaste, je vais dans un premier temps aborder le terme « automatique » dans un sens très large. Je vais commencer par décrire ce que l’on appelle l’asservissement et l’automatisme (en parlant un peu d’instrumentation), puis ensuite introduire la modélisation, l’identification et enfin les différences entre systèmes continus, discrets ou hybrides. Dans un dernier temps, je vais essayer d’entrevoir un peu ce qu’est l’automatique à proprement parler avec différentes techniques. 

L’asservissement est l’art d’asservir. Facile non ? Cela veut tout simplement dire que l’on veut contrôler quelque chose de concret, qui se comporte comme on le souhaite. Il existe deux grands types d’asservissement :

  • La régulation qui consiste à réguler une grandeur physique, un exemple pourrait être de réguler la température dans une pièce (un thermostat en fait).
  • Le suivi qui a pour objectif de contrôler une trajectoire, par exemple pour le décollage d’une fusée on doit asservir tous les moteurs de la fusée pour qu’elle respecte bien sa trajectoire pour sortir de l’attraction terrestre.

On comprend aisément que l’asservissement régit notre quotidien et qu’il est de plus en plus présent dans notre vie de tous les jours : voitures, ascenseurs, ordinateurs… En général on peut asservir trois type de grandeurs : une position, une vitesse ou une accélération. L’objectif est d’être précis, rapide, stable et de limiter les dépassements. Je m ‘explique, si on veut réguler la vitesse d’une voiture, on veut atteindre la consigne (on parle toujours de consigne à atteindre, par exemple la consigne de vitesse est de 100km/h) le plus vite possible et on ne veut pas aller à 105 km/h ou 95 km/h, on veut rouler pile à 100km/h. De plus, avant d’atteindre cette vitesse de manière stable et durable, on veut la dépasser le moins possible (autant éviter de passer par 150km/h pour aller de 80 à 100). Voilà le challenge !

L ‘astuce de l’asservissement est de « boucler » le système à contrôler. Avant d’expliquer ce qu’est le bouclage, je vais d’abord introduire les concepts de base avec l’exemple d’asservissement de la vitesse de la voiture :

 

Nous autres automaticiens, on adore les petites boites, on va donc placer notre système (la voiture) dans une boite. Cette boite possède deux entrées et une sortie. Les entrées sont ce qui va influencer la sortie. Dans notre cas, la vitesse de la voiture dépend de la pression appliquée sur l’accélérateur (on simplifie, pas de boite de vitesse ni quoique ce soit d’autre) et des perturbations extérieures inconnues (la pente de la route…). Pour asservir notre vitesse on a une seule action possible : l’accélérateur. Si je résume en automaticien ça donne :

  • Une variable à controler (CV) : la vitesse
  • Une variable à manipuler (MV) : la pression de l’accélérateur
  • Une perturbation : la pente de la route

Le système tel qu’il est représenté au dessus est dit en « boucle ouverte » car la vitesse n’influence en rien la pression de l’accélérateur. On va donc venir créer une « boucle fermée » pour asservir le système :

 De cette manière, la pression sur l’accélérateur dépend de la vitesse de la voiture. Si la voiture roule à 80km/h, on va venir induire une pression sur l’accélérateur de 100-0.5*80 = 60%. Une fois la vitesse de 100km/h atteinte, on aura une pression sur l’accélérateur de 100-100*0.5 = 50%. Si cette valeur est celle permettant de stabiliser la vitesse de la voiture à 100km/h alors le système est stable, si par contre pour rester à 100km/h il faut respecter une pression sur l’accélération de 40%, la consigne va être dépassée et la vitesse va venir osciller autour de 100km/h sans jamais y rester. Quand la perturbation agit sur le système, la vitesse de la voiture s’en trouve affectée, et donc automatiquement, la pression sur l’accélérateur va changer. Si il y a une côte, la vitesse va chuter ce qui va entraîner une hausse de l’accélération. Notre vitesse est donc bien régulée.

Après, toute la finesse réside dans le fait de trouver le fameux coefficient « 0.5 » utilisé dans le retour de la boucle. Pour calculer ce gain, de nombreuses méthodes mathématiques existent. Cela s’appelle de retour d’état ! Il n’y a pas de solution unique, cela dépend de ce que l’on veut. Si on utilise un gain de retour important, le système va être lent mais le dépassement de la consigne sera minimal. Pour un gain petit, le système va réagir très vite mais on risque de passer par 150km/h avant de retomber à 100km/h. De plus on doit d’assurer que le système va être stable et qu’il n’y aura pas d’erreur de précision. Par exemple si le gain vaut « 1 », on n’atteindra sûrement jamais les 100km/h.

 Cette méthode est la plus simple et la plus intuitive. Le conducteur produit naturellement ce comportement. Il accélère jusqu’à atteindre la vitesse souhaitée, il lève le pied si il la dépasse et réaccélère si sa voiture perd de la vitesse (en simplifiant énormément car ici je ne tiens pas compte de l’anticipation que peut avoir un conducteur en regardant au loin, cet aspect sera décrit plus tard dans une technique appelée commande prédictive). Pour mettre en place ce contrôle automatique, il faut faire appel à l’automatisme. L’automatisme représente les différentes technologies utilisées pour mettre en œuvre l’asservissement à l’aide de capteurs et d’actionneurs que l’on regroupe sous le terme instrumentation. Il faut choisir quel capteur utiliser pour mesurer la vitesse de la voiture (l’information du compteur, des capteurs situés sur les roues servant à l’ABS ou les données du GPS) et comment modifier la vitesse de la voiture. Il paraît plus logique d’actionner la vanne papillon de l’injection d’essence plutôt que de mettre un petit vérin hydraulique pour appuyer directement sur la pédale !! Concernant les capteurs, le choix n’est pas si simple qu’il n’y paraît sur nos voitures modernes. Une voiture peut disposer jusqu’à 6 ou 7 informations de vitesse, toutes différentes. Il existe alors des théories dite de « fusion de données » pour approcher la valeur la plus vraisemblable en utilisant toutes ces informations en même temps. Là encore, c’est beaucoup de mathématiques et d’algorithmes, ça rappellera sûrement un petit cours de filtrage de Kalman à certains J.

E=MCblog

Je voulais vous conseiller un autre blog de vulgarisation scientifique, E=MCblog.

 

 C’est bien fait, la science est abordée de manière décontractée, ça peut être drôle, les illustrations sont agréables, on peut apprendre plein de choses. J’appelle ça tout simplement de la bonne vulgarisation.

 Je vous donne quand même l’adresse : http://eegalmcblog.over-blog.com/

Automatique 2

Evidemment, avant de lire cet article, il faut lire l’article Automatique 1.

Je vais ici m’intéresser à la modélisation et à l’identification. Le lecteur pourra trouver plus de détails concernant les simulations numériques dans l’article « de l’expérience à la simulation ».

Pour automatiser un système quel qu’il soit, la vitesse d’une voiture, la température d’une pièce, la trajectoire d’une fusée ou une centrale nucléaire, ça paraît logique de bien connaître le système en question !

 La première approche paraissant naturelle est la modélisation rigoureuse des phénomènes physiques. Pour contrôler la vitesse d’un moteur électrique on peut le modéliser grâce aux équations électriques ou bien en utilisant les équations électromagnétiques. On est déjà confronté à deux choix possibles. Le gros problème de la modélisation c’est de savoir ce qu’on veut modéliser ! Attention, cette question est loin d’être triviale. Premièrement, on peut modéliser un système de manière statique ou dynamique. Une modélisation statique ne fait pas intervenir le temps. Par exemple, on dit que la vitesse de la voiture est égale à la moitié de la pression sur l’accélérateur pour reprendre l’exemple de l’article précédent (si on enfonce l’accélérateur à 50% on roule à 100km/h). Une modélisation dynamique consisterait à dire que la vitesse de la voiture est égale à 0.5* accélérateur*exp(-1/10t). Cela signifie que la voiture met 10 secondes pour atteindre pratiquement sa vitesse finale de manière inversement exponentielle. Ensuite on peut aborder le problème de manière continue ou discrète, voire hybride. Par exemple si dans un système on a une vanne ouverte ou fermée, on ne va pas la modéliser de manière continue. Comment choisir ? Eh bien avec l’expérience et quelques règles. Cela dépend quelle précision on souhaite et si on s’occupe du temps ou pas…

Il existe néanmoins une autre technique nommée identification, très utilisée pour modéliser les systèmes en automatique. En effet, les modèles rigoureux sont souvent très lourds à manipuler même avec nos ordinateurs puissants. L’identification permet d’obtenir un modèle avec exactement ce que l’on veut. Cette méthode se base sur l’observation et sur des déductions empiriques, néanmoins, cette théorie fortement mathématique et statistique à fait ses preuves plus d’une fois et peut même s’avérer meilleure qu’un modèle rigoureux qui ne peut pas prendre en compte des phénomènes stochastiques. Pour ceux qui ne connaissent pas l’adjectif « stochastique », il s’oppose à « déterministe ». Un phénomène stochastique est un phénomène aléatoire dont on ne peut prévoir le comportement. Par exemple, quand il pleut, les gouttes de pluie ne tombent jamais au même endroit, elle se répartissent de manière stochastique sur le sol car ce phénomène dépend de trop de facteurs que l’on ne peut pas prendre en compte. L’identification fait appel à la technique de la boite noire (on peut également parler de boite grise quand tout n’est pas inconnu). Cette technique suppose qu’on ne connaît absolument pas le système étudié, c’est une boite noire. On s’intéresse uniquement à ses entrées (que l’on veut manipuler) et à ses sorties (que l’on veut contrôler). On va venir, grâce à un protocole de mesures sur le système en question, élaborer des relations mathématiques entre ces entrées et ces sorties.

Prenons comme exemple une colonne de distillation utilisée dans les raffineries de pétroles pour séparer le butane du propane à partir de GPL (je ne prends pas cet exemple complètement au hasard).

 

A titre d’information, le modèle rigoureux de cette colonne comporte 2789 grandeurs physiques, manipule des matrices jacobiennes de taille 165×165 avec 39 sous-systèmes couplés de manière non-linéaire pour plus de 200 équations différentielles (ça parle sûrement pas à tout le monde mais on retiendra que c’est très compliqué). Avec l’identification, ça se résume à 4 équations algébriques linéaires. Explications :

On veut contrôler les concentrations de butane et de propane en manipulant deux débits qu’on appellera par souci de simplicité débit A et débit B. On va venir faire varier le plus aléatoirement possible les deux débits pour voir ce que ça donne au niveau des concentrations : on observe et on mesure. Attention, la théorie adéquate permettant de faire ça scientifiquement n’est pas facile, c’est de la statistique. Grâce à toutes les données recueillies on peut déduire des relations entre toutes les grandeurs à l’aide de différents algorithmes. Exemple de résultat : la concentration de butane est égale à 2 fois le débit A d’il y a 5min plus 1 fois le débit B d’il y a 3min moins 4 fois le débit A actuel. Voilà, on fait une identification et on a un modèle simple, empirique. Il n’y a aucune réalité physique dans ce modèle, c’est juste ce que l’on observe en moyenne. Evidemment le modèle obtenu en réalité est un peu plus complexe, il y a 150 coefficients dans chaque équation.

Une fois ce modèle obtenu, on peut l’étudier pour ensuite le contrôler. Avant de mettre en œuvre un contrôle sur un processus réel, on le simule dans tout les sens pour vérifier que la stabilité sera bien vérifiée. Parfois il en faut peu pour rendre un système instable. Avouez que ça serait dommage que l’alternateur d’une centrale nucléaire ou d’un barrage s’emballe. Et pourtant ce genre de problème arrive assez souvent. Je me rappelle avoir vu en cours la photo d’un rotor de barrage fendu comme un épi de maïs.

On se rend compte ici qu’un automaticien doit être pluridisciplinaire. En effet, automatiser un alternateur de centrale, une colonne de distillation, une voiture, un système de ventilation ou une fabrique de béton, ce n’est pas pareil. Il faut avoir des connaissances en électricité, en chimie, en électrotechnique, en thermodynamique, en mécanique des fluides… D’autant que tout ceci nécessite de bonnes connaissances en programmation, instrumentation et statistique.

Internet, un accès à la culture pour Tous ?

Bon, l’école est gratuite depuis 6 juin 1881, puis le 29 mars 1882 elle devient obligatoire de 6 à 13 ans dans un environnement laïque grâce à Jules Ferry (attention ne SURTOUT pas confondre avec le Ministre de l’Éducation Nationale du gouvernement Raffarin : Luc Ferry, philosophe il paraît). Donc grâce à Jules, c’est l’amorce de la véritable démocratisation de l’enseignement. 

Oui, l’éducation c’est la solution pour se libérer, penser par soi-même. C’est indispensable pour mener une vie de manière autonome. Après, le problème c’est l’accès au savoir, à la culture. Avant cet accès était coûteux et réservé aux classes supérieures. Désormais il y a Internet accessible à tout le monde. Imaginez un peu si les gens d’il y a cinquante ans avaient eu une encyclopédie Wikipedia à portée de main ! Les nantis pouvaient s’acheter une encyclopédie Universalis papier actuellement à 2940€ pour 28 volumes totalisant 30 000 pages alors que l’équivalent en DVD avec tous les Machins multimédias en plus coûte 130€ !! Et oui, dans Universalis vous pouvez dégoter toutes les équations et les explications de toute la physique, la chimie… Enfin c’est dingue quand même ! Surtout quand on voit le prix d’un bouquin de Science ! Je ne sais pas si vous savez qu’un bouquin de physique dans un domaine spécialisé ça coûte la peau des fesses. Dans un cours, cette année on nous demandait un bouquin impossible à trouver en bibliothèque (Non Linear System, Hassan K. Khalil) qui coûte la modique somme de 128$ soit 108€. Evidemment, tout le monde ne peut pas l’acheter !

Mais bon, la culture n’est plus une question d’argent de nos jours mais une question de niveau social et d’intégration. Eh oui, les jeunes qui vivent dans les banlieues peuvent avoir le net et donc un accès gigantesque à la culture mais ils l’utilisent pour aller sur le site Internet de Skyrock ou de Claudia Choux Fleurs (je devrais demander a Skyrock une redirection vers Wikipedia mais ils ne vont pas vouloir à mon avis…). Bon ce n’est pas une généralité bien sûr, je rentre dans des gros clichés et stéréotypes mais il y a un peu de vrai. Je pense qu’on ne se rend pas compte de la chance que l’on a d’avoir à portée de clic le savoir entier de l’Humanité. Il en est de même pour l’information et l’actualité. Etant exilé en Espagne, je peux lire les articles du Monde gratos sur le Net tous les jours et je peux écouter France Inter en live également disposant ainsi de toutes les informations françaises en temps réel, et cela en étant n’importe où dans le monde.

Enfin Internet est peut être comme le disent certains réacs une ouverture à la débauche avec les sites de cul et une possibilité pour les terroristes de communiquer très facilement. Mais pour voir les choses sous cet angle, il faut vraiment être complètement demeuré ! Internet (le système d’interconnexions multiples) a été créé à la base par les Américains pour diffuser des articles scientifiques et le Web (le système permettant de surfer sur des sites Internet avec un navigateur) a été inventé au CERN pour démocratiser l’accès aux informations en facilitant l’usage et en le rendant agréable (un site avec des images bien présentées est tout de même plus agréable qu’un fichier texte rempli de signes cabalistiques). Après il y a forcement des problèmes de législation, de droits et de liberté qui arrivent car le Net n’est pas propriétaire et ne dépend d’aucun pays donc comme tous les pays possèdent des lois différentes eh bien c’est un beau bordel. Quand on voit que le gouvernement chinois a passé des accords avec Google et avec Wikipedia pour interdire la recherche sur certains mots clefs qualifiés « interdits » par le gouvernement, il y a un véritable problème. Exemple de censure Google en Chine : « Démocratie » et « Droits de l’Homme » ça se passe de commentaires…. Reporters Sans frontière réagit face à cet outrage à la liberté d’expression :

“Reporters sans frontières est écoeuré d’apprendre que Google a décidé de lancer en Chine une version censurée de son moteur de recherche. Désormais, les internautes chinois devront se contenter des contenus validés par les autorités de Pékin. Exit les informations sur le Tibet, la démocratie ou les Droits de l’Homme en Chine.”

Mais bon, comme disait Louis de Funès dans un film dont j’ai oublié le titre, “les pauvres sont faits pour être très pauvres et les riches pour être très riches”. Et on pourrait alors dire avec le gouvernement chinois “Les incultes sont faits pour être ignares et les libertés sont faites pour être supprimées”. C’est vraiment triste alors qu’Internet est un formidable outil pour assouvir ses soifs de connaissance…

  • Plus

 

Partager l’article : Internet, un accès à la culture pour Tous ?
 
Bon, l’école est gratuite depuis 6 juin 1881, puis le 29 mars 1882 elle devient obligatoire de 6 à 13 ans dans un…

Quelle confiance dans les publications ?

Je ne sais pas si vous êtes au courant mais le nombre d’articles scientifiques qui paraissent chaque mois est faramineux (tant en presse de vulgarisation que dans les revues scientifiques spécialisées). Tout est-il bien contrôlé ? Comment s’assurer que ce qui est écrit est vrai ? Eh bien, tout d’abord, la véracité des articles est directement proportionnelle à la notoriété du magazine. Comme les magazines renommés permettent une grande diffusion dans le monde, ils sont très convoités et par conséquent, l’équipe en charge d’analyser les articles avant publication est plus sévère et souvent composée de personnes très spécialisées. Les deux plus grands magazines mondialement reconnus sont Nature et Science, deux magazines américains couvrant tous les domaines scientifiques. Ces deux « géants » de la Science ne sont pas comparables aux autres. Science par exemple est en fait le magazine de la AAAS (American Association for the Advancement of Science), la plus grande communauté scientifique du monde avec 10 millions de personnes. Mais en général les fautes se glissent plutôt dans la presse ultra spécialisée où il y a 30 pékins dans la monde au fond de leur labo qui vont vraiment comprendre l’article. Les fautes passent souvent inaperçues à cause de cela. En général dans la presse vulgarisatrice c’est assez rare de trouver des gros canulars. On trouve quelques rectifications de temps en temps dans les Errata du numéro suivant mais c’est tout.

Mais il faut toujours faire attention. Le plus bel contre exemple et donc le plus grand scandale est d’ailleurs plus que jamais d’actualité. En ce mois de Février, le clonage humain fait la Une du magazine La Recherche. Pourquoi ? Parce qu’on est revenu à la case départ sans toucher les 20 000 francs (et l’euro ?) (bien que dans ce cas ça se chiffrerait plutôt en milliards plus un prix Nobel mais bon). Je ne sais pas si vous vous en souvenez mais l’année dernière, au mois de mai, tous les journaux mettaient le clonage humain à la Une suite à un article paru dans le célèbre magazine américain Science. Le chercheur Coréen W.S.Hwang y disait avoir obtenu des lignées de cellules souches à partir d’un embryon humain cloné. Eh bien non, tout était faux, tous les documents avaient été falsifiés et les cellules obtenues provenaient en réalité d’embryons conçus par fécondation in vitro. C’est comme si Le Monde ou le Times déclarait qu’il y avait une troisième guerre mondiale et qu’en fait c’était des jeunes de banlieues qui brûlaient des voitures à Paris (toute ressemblance avec des faits réels ne serait que pur hasard).

Bref, vous avez compris, tout ce qu’on lit n’est pas la sainte parole, même si ce genre de scandale est heureusement rare. Néanmoins, dans les magazines ultra spécialisés de troisièmes catégorie il y a souvent beaucoup d’erreurs. J’ai d’ailleurs à plusieurs reprises étudié des articles en cours où le prof nous disait « Bon, faut jamais croire ce qu’il y a écrit, alors épluchez l’article et trouvez toutes les fautes » (pas les fautes d’orthographes, mais bel et bien les fautes de raisonnement ou de calcul).

En général, un article paraît dans la presse spécialisée, dans une revue bien précise et si après quelque temps le résultat paraît pertinent alors l’article est publié en vulgarisation avec des mots compréhensibles pour le commun des mortels. Pour illustrer ce cheminement, j’ai choisi un tout petit article de La Recherche du mois de février dans la rubrique Mathématiques accompagné de la publication originale :

Dans La Recherche : 

"La forme de l’oreille

Envoyons un son sur le tympan d’une oreille et mesurons la façon dont celui-ci le renvoie : peut-on, à partir de la structure du son émis et du son renvoyé, déterminer la forme géométrique du canal auditif ? Alexander Ramm, de l’université d’Etat du Kansas, vient de montrer que, sous certaines conditions, la réponse est oui. Il propose un algorithme pour retrouver informatiquement la forme du canal auditif à partir de cette analyse des sons. »

Et maintenant l’article original : http://fr.arxiv.org/PS_cache/math/pdf/0511/0511359.pdf

Je pense que si vous n’avez pas fait de prépa scientifique vous ne comprendrez que le titre (enfin si vous parlez anglais en plus). Voilà pourquoi la vulgarisation c’est cool : on peut comprendre !

Un autre exemple de publication scandaleuse a été réalisé par Alan Sokal aux Etats-Unis de manière consciente. J’ai d’ailleurs écrit un article sur son dernier livre (http://science-for-everyone.over-blog.com/article-1689690.html). Ce Alan Sokal, physicien renommé de l’université de New York en physique a décidé d’écrire un article sans queue ni tête, complètement faux en utilisant des techniques utilisées par les pseudo-sciences voulant se faire passer pour intelligentes. Eh bien l’article a été publié dans le magazine Social Text jusqu’au jour où il a révélé la supercherie en publiant un autre article expliquant pourquoi il avait fait cela et pourquoi l’article n’avait pas de consistance. Voici l’article en question qui s’appelle si on tente une traduction : « Transgresser les frontières : vers une herméneutique transformative de la gravitation quantique », faut vraiment s’accrocher pour comprendre et ça fait 40 pages :

http://www.physics.nyu.edu/faculty/sokal/transgress_v2_noafterword.pdf

et pour tous les articles et autres choses concernant ce sujet :

http://www.physics.nyu.edu/faculty/sokal/

Ca m’énerve j’aimerais vous citer plein de trucs de lui mais les bouquins que j’ai lus de lui sont restés en France chez mes parents et je n’y ai donc pas accès pour le moment. Enfin l’affaire Sokal, c’est un peu différent que notre problématique originale, son objectif était surtout de montrer que les sciences sociales permettent de publier tout et n’importe quoi.

  • Plus

 

Partager l’article : Quelle confiance dans les publications ?
 
Je ne sais pas si vous êtes au courant mais le nombre d’articles scientifiques qui paraissent chaque mois est…

De l’expérience à la simulation

Dans un temps très ancien, il y a encore une cinquantaine d’années, avant que l’ordinateur ne perce, pour mettre à l’épreuve les diverses théories et obtenir des résultats on utilisait une chose qui désormais pourrait presque paraître étrange. Cette chose, c’était l’Expérience.
Pour vérifier l’aérodynamisme et la portance des avions, pour tester des bombes, pour fabriquer des ponts, pour mettre au point des moteurs, l’étape essentielle de tous ces développements était l’expérimentation sur un prototype ou sur une maquette. On connaît les relations permettant de passer d’une maquette à un prototype taille réel en mécanique des fluides par exemple (l’aérodynamisme est compris à l’intérieur).

Le but principal de l’expérience est de valider des calculs ou des théories établies préalablement. Cette utilisation est bien entendue toujours d’actualité mais elle a beaucoup évolué. Avant, pour construire une voiture, le constructeur automobile développait avant la mise en industrialisation un nombre de prototypes hallucinants car il y avait toujours des défauts à corriger, les corrections pouvant entraîner d’autres défauts… On faisait également énormément de crash-test ou ce genre de tests. Désormais, nos mains comptent assez de doigts pour compter le nombre de prototypes nécessaires avant industrialisation. Pourquoi ? Parce qu’on a des ordinateurs ? Oui, mais pas seulement, surtout parce que la modélisation et la simulation numérique ont fait des progrès gigantesques.

La simulation permet d’économiser beaucoup de temps, d’argent et permet de faire des choses qui n’étaient même pas soupçonnables par le passé. Elle est utilisée dans tous les domaines scientifiques, de la science fondamentale aux sciences du comportement et à la biologie en passant par les sciences de l’ingénieur. Toutes les technologies et théories sont désormais issues de simulations, je dis bien TOUTES. Je crois bien que dans 80% des sujets de thèses pour les élèves doctorants, il y a le mot « simulation » qui apparaît. La simulation est un outil incontournable. Si un scientifique vous dis qu’il ne fait pas de simulation, soit c’est un théoricien pur sang, soit c’est un fou, soit c’est un menteur. Evidemment, pour faire une simulation numérique, il faut un modèle. D’où l’importance de la modélisation avant la simulation. Maintenant, les algorithmes de résolutions numériques sont très performants, on en trouve pour tous les goûts et toutes les disciplines, donc pour faire une bonne simulation il faut un bon modèle ! Mais un modèle c’est quoi au juste ?

Un modèle permet de caractériser un système ou un processus de manière explicite grâce à des équations. Ce modèle peut être physique, c’est-à-dire qu’il est issu d’une théorie et que les différents paramètres possèdent des unités physiques qui signifient quelque chose de réel. La deuxième possibilité c’est que le modèle soit purement mathématique. C’est-à-dire que les paramètres des équations ne possèdent pas de connotations réelles, c’est un modèle issu d’observations que l’on a faites, pas d’une théorie utilisant des équations physiques. Il existe aussi d’autres types de modèle comme la logique floue et les réseaux de neurones très en vogues en ce moment…

En général, ce ne sont pas des équations algébriques mais des équations différentielles qu’il faut résoudre. De plus ces équations sont valables à un instant « t ». Si on veut étudier leurs évolutions dans le temps, par exemple pendant 5min avec une précision de 0,1seconde, il faut les résoudre 3000 fois !

Une fois le modèle en poche, on simule ! Evidemment un calcul peut vite devenir très gourmand et l’ordinateur, aussi puissant qu’il soit, est en réalité vite dépassé. C’est pour cela qu’il faut bien conditionner les problèmes, savoir la précision que l’on souhaite et qu’il faut utiliser des algorithmes peu gourmands en temps en calcul. Certaines résolutions qui à première vue peuvent paraître presque anodines, peuvent demander 1500 Milliers d’années de calcul avec l’ordinateur le plus puissant du monde. Alors que des problèmes hyper complexes arrivent à être résolus en 1h sur un PC standard… Tout cela pour dire que cela n’est pas souvent très intuitif. Le plus difficile je dirais que c’est identifier le problème :

  • Qu’est ce que je veux connaître ?
  • Quelle précision je souhaite ?
  • Une simulation dans le temps (dynamique) ou à un instant précis (statique) ?
  • Quel modèle utiliser ?
  • Qu’est-ce qu’il faut prendre en compte ?
  • Quels sont les paramètres pertinents ?
  • Quel algorithme utiliser, quel logiciel ?

A la question  « Qu’est ce qu’il faut prendre en compte ? », eh bien dans l’idéal,
tout, mais c’est évidemment impossible. Par exemple quand on veut simuler la température dans un moteur, on va dire que la température extérieure est de 25°C, on ne va pas inclure dans le modèle la météo pour avoir la température du jour…

 Le marché du logiciel possède une vaste gamme de simulateurs spécialisés le plus souvent par domaine et par technique de simulation. Une technique très en vogue et très répandue s’appelle la méthode des éléments finis. Le principe est très simple. On dessine le machin qu’on veut simuler (un morceau de carbone, une voiture, un moteur, une pompe, une aile d’avion…)  on le découpe en triangle (en 2D) ou en tétraèdres (3D), on définit les équations physiques valables (équations électromagnétiques, équations de mécanique des fluides selon les choses qui nous intéressent….), ce que l’on veut calculer (force, température, débit, déformation…), on fixe des conditions sur les limites (température extérieure, le liquide ne peut pas traverser ce mur…) et on appuie sur « play » pour voir le résultat. Genre on peut simuler un bidule à l’aide de ce machin en bidouillant un peu tout ce bazar en moins d’une heure pour un problème de base et obtenir un résultat très satisfaisant, c’est super bien fait ! Evidemment, la simulation et tout le tralala, c’est rapide ce qui est lent, c’est tout ce qu’il y a avant…

 

Voici maintenant les exemples de simulations les plus connus:

La météo, bien entendu est la simulation par excellence qui demande des ressources informatiques gigantesques. Les modèles, très complexes, doivent prendre en compte plusieurs milliers de mesures de températures, de pressions, de vents… faites dans la journée et dans les jours précédents pour anticiper le temps de demain, voir de la semaine. Tout le monde se sera aperçu qu’il y a encore des progrès à faire. Mme Météo a souvent tort mais tend à s’améliorer !!
Evidemment quand on fait une simulation de réacteur nucléaire, on peut attendre le résultat pendant une semaine de calcul mais pas en météo. S’il faut attendre le samedi pour avoir le temps qu’il faisait le lundi d’avant (mais avec des données antérieures à ce lundi), la météo n’a plus grand intérêt ! Donc en météo, les simulations se comptent en heures et les machines doivent donc être très puissantes en temps de calcul et en stockage de données. Mais la météo interagit aussi directement avec les simulations de notre bonne vieille planète bleue.

La Défense. Ce secteur est également très friand de simulation. Depuis l’arrêt des essais nucléaires en France en 1996 (Rappelez-vous donc Mururoa avec Chichi), la France a décidé de continuer sa « dissuasion nucléaire » par des simulations ! Je n’approuve pas trop ce domaine de Recherche, mais c’est malheureusement un des plus actifs, et c’est surtout celui qui a le plus d’argent (on vit dans un monde de cinglés) donc je ne peux pas faire l ‘impasse. Le CEA (Commissariat à l’Energie Atomique) vient d’ailleurs d’acquérir un super-calculateur nommé Tera-10 (60 mille milliards d’opérations à la seconde), entre autre pour ce secteur. Le CEA simule donc les futures bombes (bombe A, bombe H…) sur des PC. C’est quand même mieux que de le faire en vrai pour voir si ça marche, même si le résultat final est toujours le même. Mais évidemment, ces simulations doivent être vérifiées d’une manière ou d’une autre. C’est pour cela que le CEA a entrepris la conception et construction de plusieurs expériences permettant de vérifier les modèles et les résultats obtenus séparément. Je parle de l‘expérience Mégajoule près de Bordeaux et de leur machine AIRIX pour la radiographie. Les résultats peuvent également être confrontés aux expériences faites dans le passé pour voir si l’on peut retracer ce qui s’et passé avec précision…

La Recherche Nucléaire évidemment exploite de gigantesques calculateurs dans le but de simuler le fonctionnement de la matière mais également pour la conception de réacteurs nucléaires. Je le répète, la recherche nucléaire se rapporte à l’étude des constituants de la matière (ou anti-matière) : les particules. Ça ne veut pas dire « centrale nucléaire » ou « bombe Atomique » forcément (c’est juste inclus dedans).

Donc dans l’étude des particules, on peut simuler le comportement de ces petites boules d’énergie avant de passer à l’expérience. L’expérience, elle, est aujourd’hui primordiale pour vérifier les modèles et les simulations. Ces expériences se font dans des accélérateurs de particules où l’on va même jusqu’à accélérer des grosses particules (des protons, soit 1800 fois plus lourds qu’un pauvre petit électron) dans un anneau qui fait 27km de circonférence à 100mètres sous terre entre la France et la Suisse. Je parle bien évidemment du LHC (Large Hadron Collider) du CERN (Organisation Européenne pour la Recherche Nucléaire) à Genève qui rentrera normalement en fonctionnement en 2007. Avant cela, il a fallu un nombre de simulations hallucinant et les résultats fournis par l’accélérateurs entraîneront encore de multiples simulations dans tous les domaines de la physique fondamentale pour pouvoir aider les astrophysiciens et notre connaissance de la matière qui n’est toujours pas complète.

Concernant les réacteurs nucléaires de demain, ils sont entièrement simulés sur ordinateur avant de fonctionner. Mais ces simulations sont avant tout faites pour la recherche fondamentale pour mieux appréhender le comportement de la matière dans des situations extrêmes. Les recherches et les simulations sur les plasmas sont par exemple un atout pour la connaissance des réacteurs nucléaires.

L’astrophysique et la cosmologie n’existeraient pas sans simulations. Leurs objectifs est de fournir des modèles de notre univers pour pouvoir retracer son passé, son évolution et son futur avec précision. Pour cela, il faut bien évidemment des simulateurs. Un modèle tout seul donne un comportement mais pas un résultat. En gros, le simulateur est le « shaker » dans lequel on place notre modèle de l’Univers, nos conditions initiales et nos paramètres. Ensuite on le secoue très fort et il nous fournir l’évolution des étoiles, des galaxies et tutti quanti sur plusieurs milliards d’années. Ces disciplines s’intéressent aussi aux objets cosmiques telles que les étoiles, les galaxies, les quasars et autres objets bizarroïdes. Les simulations permettent de tester des théories avec leurs modèles pour voir si les observations sont conformes à ce que fournissent les simulations. De nombreuses simulations de notre étoile le soleil sont faites pour mieux comprendre son fonctionnement par exemple.

Des matériaux sont désormais issus de simulations numériques. Avant de concevoir un matériau, on va modéliser sa structure atomique et le simuler pour obtenir comme résultats ses propriétés mécaniques, optiques, électriques, électroniques et même chimiques. Evidemment on ne peut pas prendre en compte tous les atomes en tenant compte de leurs rapidité, ce serait trop fastidieux :  un millième de millimètre cube contient près de cent milliards d’atomes et chaque atome peut osciller à environ un millième de milliardième de seconde. On dilate ces paramètres pour obtenir un modèle plus grossier (on regroupe les atomes identiques par exemple) et les simulations nous donnent alors des résultats pertinents en un temps raisonnable. On peut ainsi améliorer de nombreux matériaux utilisés en électronique (semi-conducteurs), en optique ou dans le bâtiment (simulation des différents bétons par exemple).

L’automobile et l’aéronautique utilisent la simulation pour réduire les coûts et augmenter les performances, optimiser tout ce qui est possible. Chez PSA, on fait des crash-tests numériques, les constructeurs d’avions et de fusées testent sur ordinateur les comportements de leurs avions en situation extrême, trop dangereux à réaliser en réalité. Tout cela sans compter toutes les simulations numériques préalables pendant la conception mécanique. Bref, du manche à
balai aux ailes en passant par le matériel électronique et les moteurs, tout est simulé avant de construire le moindre prototype et d’effecteur le moindre test. Le décollage impeccable du nouveau Jumbo d’Airbus, l’A380, cette année est une preuve de la fiabilité des simulations. Dans cet avion, tout a été simulé de A à Z, ce qui a permis sa construction en un temps record et son succès au premier décollage. Le pilote ayant fait le premier décollage raconte que la sensation de pilotage faite en simulateur était extrêmement fidèle à la réalité, ce qui était rarement le cas avant. On a même fait un essai d’atterrissage automatique sans intervention humaine 35 jours après le premier décollage (on avait déjà tout simulé avant) alors que normalement ce genre de test se fait plusieurs années après. Faire décoller plus de 500 tonnes avec quatre moteurs et 80m d’envergure tout en respectant toutes les normes de sécurité voyageurs, c’était encore impossible il y a quelques années.

La Biologie également simule tout ce qui bouge
et est vivant !

La gestion des risques est maintenant assujettie à la simulation pour prévenir d’éventuels dangers et connaître leurs répercussions. Par exemple pour la propagation d’une épidémie au sein d’une population. Il existe désormais des modèles extrêmement réalistes. Il y a même eu des simulations numériques sur le crash d’un avion type A320 sur une centrale nucléaire. Modélisation du béton de la centrale, explosion de l’avion, chaleurs et température…

Mais dans l’avenir ce ne sera peut être pas des simulations numériques les plus performantes, mais des simulations analogiques… Je ferai un article sur ce sujet de plus en plus en vogue, sans parler des futurs ordinateurs quantiques qui pourraient être prometteurs…

Pour plus d’informations, des compléments et des détails :

La Recherche N°393 Janvier 2006, supplément spécial CEA : Le calcul haute
performance