Archives mensuelles : juin 2006

Trou Noir

 Les trous noirs sont des objets astrophysiques que tout le monde connaît, même les enfants car c’est un objet qui intrigue. Sans mauvais jeu de mots, les trous noirs attirent… le grand public ! Un des spécialistes des trous noirs est bien sûr Stephen Hawking, de l’université de Cambridge, qui détient actuellement la chaire de Isaac Newton (je vous conseille d’ailleurs son livre « l’univers dans une coquille de noix » chez Odile Jacob très ludique et agréablement illustré). 

  L’existence des trous noirs a été pensée dès le XVIIIième siècle mais leur existence n’est confirmée théoriquement qu’en 1916 par l’astronome allemand Karl Schwartzschild. En revanche, le terme trou noir n’apparaît qu’en 1967 avec un physicien américain, John Archibald Wheeler, avant on utilisait le terme singularité de Schwartzschild (on verra plus tard pourquoi). En résolvant les équations de la relativité d’Einstein, Schwartzschild a trouvé une solution : s’il y avait suffisamment de matière dans un espace suffisamment restreint (donc une densité de matière très importante) alors l’espace-temps était tellement déformé aux bord de cet objet exotique que même la lumière ne pouvait s’en échapper. Autrement dit, c’était comme un trou (car la fabuleuse masse de l’astre attire par gravitation tout ce qui passe, comme une étoile, mais perce un trou dans l’espace-temps) et il est tout noir car aucun photon ne peut parvenir à s’échapper au delà de ce que l’on appelle l’horizon d’événement du trou noir (ou horizon de Schwartzschild). Lorsqu’un objet, quel qu’il soit, dépasse cet horizon, il n’y a plus moyen de retour car la vitesse nécessaire pour s’échapper serait supérieure à la vitesse de la lumière (donc impossible selon la relativité). Einstein, de son vivant, n’a jamais cru à l’existence des trous noirs et pensait que c’était simplement une solution  singulière aberrante. 

 On a longtemps pensé que de tels objets ne pouvaient exister en raison de la densité formidable nécessaire, mais en fait, lorsque les étoiles meurent (eh oui, tout a un début et une fin…) elles s’effondrent sur elles-mêmes et si elles sont suffisamment massives, alors un trou noir peut se créer. On parle souvent de singularités spatio-temporelles pour désigner les trous noirs car ils sont assimilables à  « un seul point » du fait que derrière cet horizon, toutes les variables deviennent infinies ou nulles et on ne sait pas tout ce qui peut se passer derrière cette barrière infranchissable par nos télescopes vu qu’aucune lumière n’est émise, pas de chance ! Les calculs mathématique deviennent alors très étranges mais néanmoins ils peuvent fonctionner et on peut facilement calculer le rayon de l’horizon d’événement et même la température du trou noir qui contrairement à ce qu’on pourrait penser est plutôt froide. Un trou noir de quelques masses solaires possèderait une température de quelques millionièmes de kelvins (en gros -273°C). Evidemment, plus le trou noir est petit, plus il est chaud. Autre détail que j’ai oublié de mentionner : théoriquement, derrière cet horizon, le temps d’arrête ! Eh  oui, plus il y a de la masse, plus le temps s’écoule moins vite. La relativité considère la gravité non pas comme une force mais comme une déformation de l’espace-temps. Mathématiquement, un trou noir possède en son sein une densité infinie, le résultat est un « trou » dans l’espace-temps et dans cette configuration, le temps n’avance plus ! Pour toutes ces raisons, l’existence des trous noirs a été longtemps très controversée et Stephen Hawking raconte comment ses petits camarades physiciens français lui riaient au nez au tout début car en général, le travail de l’astrophysicien est de trouver des explications pour éradiquer les singularités qui constituent leur pire ennemi car qui dit singularité, dit question ouverte, on ne comprend plus, ça dépasse notre entendement de misérable être humain. Néanmoins, désormais, ces objets astronomiques sont reconnus dans la majorité de la communauté scientifique.

Les recherches sur les trous noirs sont toujours d’actualité, et on découvre toujours de nouvelles choses. Particulièrement le fait que certains trous noirs microscopiques issus du BIG-BANG (dit primordiaux)  et ? pourraient perdre de l’énergie et ainsi libérer des particules issues des fluctuations quantiques du vide. Lorsqu’une paire de particules est créée au niveau de l’horizon, une des deux particule pourrait s’échapper et ainsi émettre un rayonnement observable et le trou noir perdrait alors son invisibilité (je ne détaille pas cet aspect, on pourrait y passer 3h mais je peux essayer de répondre à vos question en commentaire). Concernant les trous noirs primordiaux je ne peux que vous conseiller le numéro de La Recherche n°362, Mars 2003. Si vous ne l’avez pas, mailez-moi.

 Dans la détection des trous noirs également, on a fait beaucoup de progrès, évidemment, on ne les voit pas mais on peut déduire leur présence par leur influence gravitationnelle sur les astres voisins (la photo au dessus représente la détection éventuelle d’un trou noir). Par exemple si notre cher soleil était concentré dans une sphère assez petite pour être un trou noir, on ne pourrait pas le voir mais les planètes continueraient à tourner autour par gravité, par contre je doute que dans ce cas notre existence soit possible et ce blog n’aurait jamais vu le jour sans le jour du soleil, donc heureusement, notre soleil est une gentille petite étoile et pas un méchant trou noir qui mange tout !

Automatique 3

Je suis désolé celui-là est un peu long mais j’ai pas réussi à faire plus court (c’et aussi pour ça que j’ai découpé l’automatique en 3 partie). Voir automatique1 et automatique2 avant celui-ci bien sûr !

Je vais essayer ici de présenter très succinctement sans artéfact mathématique les différentes techniques de contrôle des procédés. Je rappelle qu’on appelle procédé un système physique pourvu d’entrées (que l’on manipule) et de sorties (que l’on souhaite réguler ou maintenir dans certaines plages). Pour plus d’information, je vous renvoie à Wikipédia. Jusqu’à la semaine dernière, la partie automatique de Wikipédia France était quasiment vide (imaginez vous que le terme PID n’était mentionné nulle part, pourtant j’ai bien cherché partout), cela m’ étonne un peu d’ailleurs qu’il n’y avait aucun article traitant de la théorie du contrôle, je me suis donc investi de la mission de compléter cette encyclopédie libre au mieux possible mais c’est un travail de longue haleine. Vous pouvez donc désormais vous reporter à mes articles Wikipédia suivants (qui sont tous à étoffer donc si vous êtes spécialiste automaticien, ne vous gênez pas pour les modifier) :



Le contrôleur roi de l’industrie : le PID

 Un sigle qui signifie régulateur à action Proportionnelle-Intégrale-Dérivée ! Kesako ? Eh bien le principe est plutôt simple. C’est un régulateur qui fonctionne en boucle  fermée (voir Automatique1), il donne donc une action sur le procédé en fonction de l’erreur consigne/mesure. Mais l’astuce ici est qu’on s’intéresse aussi à l’historique de cette erreur. En gros, on regarde son évolution dans le temps. Si l’erreur diminue très vite (on se rapproche du point désiré rapidement) on va venir diminuer notre action pour ne pas trop dépasser la consigne et si l’erreur diminue lentement, on va booster notre action pour arriver plus vite au point désiré. Pour cela, on dispose de 3 paramètres P, I et D à régler (à « tunner »). Ceci est un problème loin d’être évident même si on peut arriver à un résultat potable de manière empirique. En tout cas, dans ce régulateur, tout est question de compensation et de compromis, quand on améliore quelque chose (par exemple la rapidité) on vient dégrader autre chose (par exemple le dépassement). L’ingénieur contrôle doit donc faire des compromis et trouver un résultat qui satisfait un cahier des charges, bien sûr la solution n’est pas unique, il n’y a pas de méthode parfaite !! Il faut tout de même savoir que dans 70% des industries utilisant des PID (j’avance au hasard ce chiffre mais a mon avis c est encore pire que ça), ils sont réglés à la main de manière empirique, avec l’habitude et la pratique. A titre d’exemple votre ordinateur comporte plusieurs centaines de boucles PID !! Bah oui pour réguler le ventilateur, les tensions, les courants, la position de la tête de lecture de votre disque dur, DVD, les moteurs qui font tourner tout ce bazar, tout ce petit monde est contrôlé avec des PID… Evidement ici on ne règle pas à la main, c’est trop long, on fait de l’ « auto-tunning », comme ça tout se règle automatiquement (on automatise l’automatisme en fait), je vous passe les détails théoriques complexes, mais il faut savoir que ça existe. Je vous parle de ça car aujourd’hui j’ai assisté à une conférence à ce propos. Bref, si vous n’avez jamais entendu ce terme PID avant, sachez que vous en êtes dépendant tous les jours !

Contrôle avancé

 Bien sûr le PID atteint ses limites très rapidement quand les systèmes sont complexes, surtout quand il y a beaucoup de variables à réguler en même temps, quand il y a des retards importants et le pire de tout lorsque le système est à phase non minimale. Ce dernier terme un peu barbare signifie que si on demande par exemple à un truc d’aller vers la gauche, il va d’abord aller vers la droite pour aller ensuite à gauche. En gros, il produit la réponse inverse à ce qu’on avait prévu, dans ce cas là, le PID est complètement perdu (du style, dans les systèmes cryogéniques du CERN pour refroidir les aimants supraconducteurs, c’est ce qui se passe: quand on demande au bidule de ce refroidir, il se réchauffe avant !!!). La solution ? eh bien le contrôle avancé (c’est à dire tout sauf les retours d’état, les PID et les correcteurs simples)!!

Voici ce qui existe :

La commande prédictive, mon contrôle préféré ! Ici on parle de MPC (Model Predictive Control) car c’est un système de contrôle qui utilise un modèle du procédé. On connaît à priori le système et on vient prédire dans le futur jusqu’à un certain horizon ce qui va se passer pour anticiper. C’est le problème du conducteur automobile qui regarde au loin la route. S’il voit un feu vert depuis un bout de temps au loin, il va lever le pied de l’accélérateur au cas ou celui-ci passe au rouge (je parle des conducteurs sages évidemment, pas des branleurs en R5 avec des vitres fumées écoutant de la techno à l’aide de leur caisson de basse avec un sticker « tunning touch » sur la vitre arrière). Voir Commande prédictive sur Wikipédia pour plus de détails, j’ai fait quelque chose de plutôt accessible mais c’est loin d’être fini.

La commande adaptative : C’est une méthode de régulation qui peut être de n’importe quel ordre (un PID par exemple) mais l’ajustement des paramètres de contrôle se fait en temps réel. Pour cela, on vient effectuer une identification (voir automatique 2 ) en temps réel. C’est très utile lorsque les modèles des systèmes sont amenés à varier énormément. Par exemple en aéronautique, les composants d’un avion se comportent différemment au décollage au raz du sol et à 10 000 mètres d’altitudes (températures, pressions…). On actualise en permanence le modèle qui permet de changer les paramètres du contrôle.

Les commandes Robustes, souvent non-linéaires, également utilisation des LMI en linéaire, s’appuyant sur la théorie de Lyapunov (Tu vois de quoi je parle Milouze ? Je te vois sourire en Suisse depuis l’Espagne).  Ici on vient élaborer un contrôleur garantissant la stabilité et la robustesse du système (le genre d’applications où on a pas le droit à l’erreur du style centrale nucléaire). Donc dans cette rubrique mathématiquement barbare je m’étendrais pas trop parce que c’est vraiment impossible à vulgariser. Enfin si, au contraire, c’est même passionnant et peu même être abordé philosophiquement mais je laisserais à S.N ce plaisir avec ses futurs étudiants J Je projète un futur article sur le théorème de Lyapunov dans Wikipédia d’ailleurs (Milouze tu me prêteras le bouquin de Khalil j’espère, j’ai pas envie de débourser 120€).

Les contrôleurs flous (fuzzy logic: Ici, deux principales techniques, les systèmes experts et les réseaux de neurones.

  • Pour les systèmes experts, on vient formuler une base de connaissances. Cette base est constituée d’un ensemble de lois empiriques (si je cours j’ai très chaud, si je bois un coca je me rafraîchit un peu, si un pote me serre la main, ça me fait rien, si je vois une superbe fille qui vient me parler dans un bar, j’ai très très chaud et si son copain arrive alors je me refroidit à la vitesse de l’éclair). On ne quantifie jamais précisément, juste en disant, beaucoup, un peu, pas du tout… Grâce à ces connaissances empiriques on vient élaborer une technique de contrôle permettant de tenir compte de toutes ces contraintes mais à différents degrés (plus la fille est mignonne et plus j’ai chaud).
  • Pour les réseaux de neurones, c’est toujours un peu flou mais très différent. Cette méthode se base en effet sur le fonctionnement des réseaux de neurones de notre cerveau. C’est à dire que tout le monde communique sur différents niveau et il y a un phénomène d’apprentissage par l’expérience. La statistique est le maître mot ici. A titre de comparaison, avec un ordinateur super puissant, la vitesse de calcul est encore 1000 fois inférieur à celle de notre cerveaux en considération du nombre de neurones. En gros, si vous aviez cet ordinateur dans la tête il vous faudrait plus de 3h pour traverser un passage piéton modeste, au lieu de 20 secondes (ce que je dis est un peu débile mais cette comparaison m’est venu naturellement). Chaque neurone effectue un calcul très simple du style s’il reçoit un chiffre entre 10 et –10 il fait rien, si c’est supérieur à 10, il envoie 1, sinon il renvoie 0 (ou -1). Un neurone peut posséder un grand nombre d’entrées mais toujours une seule sortie (appelée axone) et on effectue alors plusieurs sommes pondérées entre toutes les actions des neurones. Pour l’apprentissage, ce sont les poids de ces sommes qui vont varier. On entraîne les neurones avec des exemples dont on connaît la solution et au fur et à mesure, les différentes pondérations se modifient (en fait on renforce ou diminue les liaisons). Donc plus l’entraînement est long, plus le réseau sera performant. Je rentre pas plus dans les détails, peut être un article dédié un de ces quatre.

Je mentionne juste vite fait que bien sûr, tout cela nécessite souvent des systèmes de supervision dans l’industrie (SCADA) pour contrôler tout en temps en réel sur des écrans et vérifier tout le bazar qui fonctionne. Ca emploie pas mal de monde en général, des opérateurs, pour manipuler les procédés et les surveiller. Cet aspect ne doit jamais être négligé en industrie, il garanti une bonne maintenance et une bonne utilisation.(en photo salle de control du CERN)

FIN DE L’AUTOMATIQUE 

 En espérant désormais que le monde de l’automatique vous est un peu plus familier. Si vous avez trouvez ça ennuyeux, je vous le dit tout de suite, je ne traiterai plus ce sujet, je passe sur Wikipédia pour ce domaine, je conserve ici mes loisirs hors boulot qui sont plutôt tournés vers la réflexion sur la Science et la physique fondamentale (surtout les particules).

 A venir : les trous noirs, la cosmologie et l’expansion de l’univers pour sortir du monde Terre à Terre de l’Automatique et se mettre la tête dans les étoiles (je ne sais pas s’il y a beaucoup de lecteurs qui arriveront jusqu’à cette ligne mais bon… le principal c’est d’y croire)

Bien sûr vous pouvez m’envoyer des petits mails si vous voulez des détails

Automatique 1

Bon je m’attaque à quelque chose difficile à vulgariser pour moi, pour la bonne et simple raison que c’est mon quotidien et mon métier : l’Automatique. Un mot qui paraît commun et anodin, mais il représente également une science, ou plutôt une démarche et une technique… C’est une discipline qui fait partie de l’électronique. En anglais on utilise le terme « Automatic Control » ou tout simplement « Control ». Pour être général on parle souvent de « Control Theory ». Cette théorie du control repose essentiellement sur des fondements mathématiques. Quand vous répondez à quelqu’un de votre famille (pour l’essentielle constituée de profs dans des domaines littéraires ne sachant pas ce que signifie une simple fonction affine) qui vous interroge sur votre métier, c’est toujours difficile de répondre aux mêmes questions:

  • Tu fais quoi dans la vie ?
  • Je vais être ingénieur et je veux faire de la Recherche.
  • Ingénieur en quoi ? Recherche en quoi ?
  • En génie électrique, électronique, spécialisé en automatique.
  • Et ça consiste en quoi ?

La conversation ne va guère plus loin, c’est pour cela que je fais cet article !!Comme le sujet est vaste, je vais dans un premier temps aborder le terme « automatique » dans un sens très large. Je vais commencer par décrire ce que l’on appelle l’asservissement et l’automatisme (en parlant un peu d’instrumentation), puis ensuite introduire la modélisation, l’identification et enfin les différences entre systèmes continus, discrets ou hybrides. Dans un dernier temps, je vais essayer d’entrevoir un peu ce qu’est l’automatique à proprement parler avec différentes techniques. 

L’asservissement est l’art d’asservir. Facile non ? Cela veut tout simplement dire que l’on veut contrôler quelque chose de concret, qui se comporte comme on le souhaite. Il existe deux grands types d’asservissement :

  • La régulation qui consiste à réguler une grandeur physique, un exemple pourrait être de réguler la température dans une pièce (un thermostat en fait).
  • Le suivi qui a pour objectif de contrôler une trajectoire, par exemple pour le décollage d’une fusée on doit asservir tous les moteurs de la fusée pour qu’elle respecte bien sa trajectoire pour sortir de l’attraction terrestre.

On comprend aisément que l’asservissement régit notre quotidien et qu’il est de plus en plus présent dans notre vie de tous les jours : voitures, ascenseurs, ordinateurs… En général on peut asservir trois type de grandeurs : une position, une vitesse ou une accélération. L’objectif est d’être précis, rapide, stable et de limiter les dépassements. Je m ‘explique, si on veut réguler la vitesse d’une voiture, on veut atteindre la consigne (on parle toujours de consigne à atteindre, par exemple la consigne de vitesse est de 100km/h) le plus vite possible et on ne veut pas aller à 105 km/h ou 95 km/h, on veut rouler pile à 100km/h. De plus, avant d’atteindre cette vitesse de manière stable et durable, on veut la dépasser le moins possible (autant éviter de passer par 150km/h pour aller de 80 à 100). Voilà le challenge !

L ‘astuce de l’asservissement est de « boucler » le système à contrôler. Avant d’expliquer ce qu’est le bouclage, je vais d’abord introduire les concepts de base avec l’exemple d’asservissement de la vitesse de la voiture :

 

Nous autres automaticiens, on adore les petites boites, on va donc placer notre système (la voiture) dans une boite. Cette boite possède deux entrées et une sortie. Les entrées sont ce qui va influencer la sortie. Dans notre cas, la vitesse de la voiture dépend de la pression appliquée sur l’accélérateur (on simplifie, pas de boite de vitesse ni quoique ce soit d’autre) et des perturbations extérieures inconnues (la pente de la route…). Pour asservir notre vitesse on a une seule action possible : l’accélérateur. Si je résume en automaticien ça donne :

  • Une variable à controler (CV) : la vitesse
  • Une variable à manipuler (MV) : la pression de l’accélérateur
  • Une perturbation : la pente de la route

Le système tel qu’il est représenté au dessus est dit en « boucle ouverte » car la vitesse n’influence en rien la pression de l’accélérateur. On va donc venir créer une « boucle fermée » pour asservir le système :

 De cette manière, la pression sur l’accélérateur dépend de la vitesse de la voiture. Si la voiture roule à 80km/h, on va venir induire une pression sur l’accélérateur de 100-0.5*80 = 60%. Une fois la vitesse de 100km/h atteinte, on aura une pression sur l’accélérateur de 100-100*0.5 = 50%. Si cette valeur est celle permettant de stabiliser la vitesse de la voiture à 100km/h alors le système est stable, si par contre pour rester à 100km/h il faut respecter une pression sur l’accélération de 40%, la consigne va être dépassée et la vitesse va venir osciller autour de 100km/h sans jamais y rester. Quand la perturbation agit sur le système, la vitesse de la voiture s’en trouve affectée, et donc automatiquement, la pression sur l’accélérateur va changer. Si il y a une côte, la vitesse va chuter ce qui va entraîner une hausse de l’accélération. Notre vitesse est donc bien régulée.

Après, toute la finesse réside dans le fait de trouver le fameux coefficient « 0.5 » utilisé dans le retour de la boucle. Pour calculer ce gain, de nombreuses méthodes mathématiques existent. Cela s’appelle de retour d’état ! Il n’y a pas de solution unique, cela dépend de ce que l’on veut. Si on utilise un gain de retour important, le système va être lent mais le dépassement de la consigne sera minimal. Pour un gain petit, le système va réagir très vite mais on risque de passer par 150km/h avant de retomber à 100km/h. De plus on doit d’assurer que le système va être stable et qu’il n’y aura pas d’erreur de précision. Par exemple si le gain vaut « 1 », on n’atteindra sûrement jamais les 100km/h.

 Cette méthode est la plus simple et la plus intuitive. Le conducteur produit naturellement ce comportement. Il accélère jusqu’à atteindre la vitesse souhaitée, il lève le pied si il la dépasse et réaccélère si sa voiture perd de la vitesse (en simplifiant énormément car ici je ne tiens pas compte de l’anticipation que peut avoir un conducteur en regardant au loin, cet aspect sera décrit plus tard dans une technique appelée commande prédictive). Pour mettre en place ce contrôle automatique, il faut faire appel à l’automatisme. L’automatisme représente les différentes technologies utilisées pour mettre en œuvre l’asservissement à l’aide de capteurs et d’actionneurs que l’on regroupe sous le terme instrumentation. Il faut choisir quel capteur utiliser pour mesurer la vitesse de la voiture (l’information du compteur, des capteurs situés sur les roues servant à l’ABS ou les données du GPS) et comment modifier la vitesse de la voiture. Il paraît plus logique d’actionner la vanne papillon de l’injection d’essence plutôt que de mettre un petit vérin hydraulique pour appuyer directement sur la pédale !! Concernant les capteurs, le choix n’est pas si simple qu’il n’y paraît sur nos voitures modernes. Une voiture peut disposer jusqu’à 6 ou 7 informations de vitesse, toutes différentes. Il existe alors des théories dite de « fusion de données » pour approcher la valeur la plus vraisemblable en utilisant toutes ces informations en même temps. Là encore, c’est beaucoup de mathématiques et d’algorithmes, ça rappellera sûrement un petit cours de filtrage de Kalman à certains J.

Automatique 2

Evidemment, avant de lire cet article, il faut lire l’article Automatique 1.

Je vais ici m’intéresser à la modélisation et à l’identification. Le lecteur pourra trouver plus de détails concernant les simulations numériques dans l’article « de l’expérience à la simulation ».

Pour automatiser un système quel qu’il soit, la vitesse d’une voiture, la température d’une pièce, la trajectoire d’une fusée ou une centrale nucléaire, ça paraît logique de bien connaître le système en question !

 La première approche paraissant naturelle est la modélisation rigoureuse des phénomènes physiques. Pour contrôler la vitesse d’un moteur électrique on peut le modéliser grâce aux équations électriques ou bien en utilisant les équations électromagnétiques. On est déjà confronté à deux choix possibles. Le gros problème de la modélisation c’est de savoir ce qu’on veut modéliser ! Attention, cette question est loin d’être triviale. Premièrement, on peut modéliser un système de manière statique ou dynamique. Une modélisation statique ne fait pas intervenir le temps. Par exemple, on dit que la vitesse de la voiture est égale à la moitié de la pression sur l’accélérateur pour reprendre l’exemple de l’article précédent (si on enfonce l’accélérateur à 50% on roule à 100km/h). Une modélisation dynamique consisterait à dire que la vitesse de la voiture est égale à 0.5* accélérateur*exp(-1/10t). Cela signifie que la voiture met 10 secondes pour atteindre pratiquement sa vitesse finale de manière inversement exponentielle. Ensuite on peut aborder le problème de manière continue ou discrète, voire hybride. Par exemple si dans un système on a une vanne ouverte ou fermée, on ne va pas la modéliser de manière continue. Comment choisir ? Eh bien avec l’expérience et quelques règles. Cela dépend quelle précision on souhaite et si on s’occupe du temps ou pas…

Il existe néanmoins une autre technique nommée identification, très utilisée pour modéliser les systèmes en automatique. En effet, les modèles rigoureux sont souvent très lourds à manipuler même avec nos ordinateurs puissants. L’identification permet d’obtenir un modèle avec exactement ce que l’on veut. Cette méthode se base sur l’observation et sur des déductions empiriques, néanmoins, cette théorie fortement mathématique et statistique à fait ses preuves plus d’une fois et peut même s’avérer meilleure qu’un modèle rigoureux qui ne peut pas prendre en compte des phénomènes stochastiques. Pour ceux qui ne connaissent pas l’adjectif « stochastique », il s’oppose à « déterministe ». Un phénomène stochastique est un phénomène aléatoire dont on ne peut prévoir le comportement. Par exemple, quand il pleut, les gouttes de pluie ne tombent jamais au même endroit, elle se répartissent de manière stochastique sur le sol car ce phénomène dépend de trop de facteurs que l’on ne peut pas prendre en compte. L’identification fait appel à la technique de la boite noire (on peut également parler de boite grise quand tout n’est pas inconnu). Cette technique suppose qu’on ne connaît absolument pas le système étudié, c’est une boite noire. On s’intéresse uniquement à ses entrées (que l’on veut manipuler) et à ses sorties (que l’on veut contrôler). On va venir, grâce à un protocole de mesures sur le système en question, élaborer des relations mathématiques entre ces entrées et ces sorties.

Prenons comme exemple une colonne de distillation utilisée dans les raffineries de pétroles pour séparer le butane du propane à partir de GPL (je ne prends pas cet exemple complètement au hasard).

 

A titre d’information, le modèle rigoureux de cette colonne comporte 2789 grandeurs physiques, manipule des matrices jacobiennes de taille 165×165 avec 39 sous-systèmes couplés de manière non-linéaire pour plus de 200 équations différentielles (ça parle sûrement pas à tout le monde mais on retiendra que c’est très compliqué). Avec l’identification, ça se résume à 4 équations algébriques linéaires. Explications :

On veut contrôler les concentrations de butane et de propane en manipulant deux débits qu’on appellera par souci de simplicité débit A et débit B. On va venir faire varier le plus aléatoirement possible les deux débits pour voir ce que ça donne au niveau des concentrations : on observe et on mesure. Attention, la théorie adéquate permettant de faire ça scientifiquement n’est pas facile, c’est de la statistique. Grâce à toutes les données recueillies on peut déduire des relations entre toutes les grandeurs à l’aide de différents algorithmes. Exemple de résultat : la concentration de butane est égale à 2 fois le débit A d’il y a 5min plus 1 fois le débit B d’il y a 3min moins 4 fois le débit A actuel. Voilà, on fait une identification et on a un modèle simple, empirique. Il n’y a aucune réalité physique dans ce modèle, c’est juste ce que l’on observe en moyenne. Evidemment le modèle obtenu en réalité est un peu plus complexe, il y a 150 coefficients dans chaque équation.

Une fois ce modèle obtenu, on peut l’étudier pour ensuite le contrôler. Avant de mettre en œuvre un contrôle sur un processus réel, on le simule dans tout les sens pour vérifier que la stabilité sera bien vérifiée. Parfois il en faut peu pour rendre un système instable. Avouez que ça serait dommage que l’alternateur d’une centrale nucléaire ou d’un barrage s’emballe. Et pourtant ce genre de problème arrive assez souvent. Je me rappelle avoir vu en cours la photo d’un rotor de barrage fendu comme un épi de maïs.

On se rend compte ici qu’un automaticien doit être pluridisciplinaire. En effet, automatiser un alternateur de centrale, une colonne de distillation, une voiture, un système de ventilation ou une fabrique de béton, ce n’est pas pareil. Il faut avoir des connaissances en électricité, en chimie, en électrotechnique, en thermodynamique, en mécanique des fluides… D’autant que tout ceci nécessite de bonnes connaissances en programmation, instrumentation et statistique.

E=MCblog

Je voulais vous conseiller un autre blog de vulgarisation scientifique, E=MCblog.

 

 C’est bien fait, la science est abordée de manière décontractée, ça peut être drôle, les illustrations sont agréables, on peut apprendre plein de choses. J’appelle ça tout simplement de la bonne vulgarisation.

 Je vous donne quand même l’adresse : http://eegalmcblog.over-blog.com/

Electricité…la suite

Voici la suite de l’article précédent sur l’électricité

Production

L’électricité est une énergie, on peut donc transformer une énergie quelconque en énergie électrique et vice-versa (voir article Energie et Puissance).



Généralement, l’électricité est toujours produite grâce à une énergie mécanique sous forme de couple, c’est-à-dire à partir d’un mouvement rotatif (sauf dans le cas des panneaux solaires photoélectriques). Cette énergie mécanique est alors transformée en énergie électromagnétique puis électrique grâce à une machine synchrone (un alternateur). Pour créer cette énergie mécanique, on utilise dans la plupart des cas une turbine (voir photo du haut) qui est entraînée par le passage de vapeur d’eau. La vapeur d’eau est générer en faisant bouillir de l’eau grâce à de la chaleur produite par une énergie primaire (réaction de fission nucléaire ou pétrole, charbon et gaz naturel dans les centrale thermique). La turbine peut aussi être entraîné directement par une énergie primaire comme le vent (pour les éoliennes) ou des chutes d’eau (pour les barrages).

Une fois cette énergie électrique créée, il faut la transporter, l’acheminer chez les clients (distribution) et l’utiliser car on ne peut pas la stocker !! Il existe en effet des batteries mais les résultats sont très médiocres et on ne peut pas stocker de grandes quantités.

Transport

En général à la sortie des centrales, on élève la tension, à 400 kV (400 000 Volts) grâce à un transformateur pour réduire l’intensité et donc diminuer les pertes Joules lors du transport (Voir article Les supers états : Supraconductivité et Superfluidité). Il existe plusieurs réseaux Hautes Tensions en France permettant de transporter toute cette énergie : 21 000km de lignes 400kV, 26 000km de lignes 225kV, 1 065km de lignes 150kV, 15 000km de lignes 90kV, 35 000km de lignes 63kV. Viennent ensuite les réseaux Moyennes Tensions 20kV et les Basses Tensions 380V, 220V. C’est l’entreprise de service publique RTE (Réseau de Transport Electrique) depuis 2000, ancienne filiale d’EDF, qui gère cette tache. Vous pouvez d’ailleurs suivre en temps réel sur leur site la consommation électrique en France : http://www.rte-france.com/htm/fr/accueil/courbe.jsp. Pour information, en 2005, la consommation intérieure d’électricité en France s’est élevée à 482,4 TWh (milliards de kWh). Le record de consommation en France a été atteint le 27 janvier 2006 à 18h58, avec 86 280 MW.



Distribution

Toute cette électricité est ensuite distribuée chez les industriels et les particuliers. Les industries et grandes entreprises sont généralement alimentées directement en 20kV, voir en 63kV pour l’industrie lourde et possèdent leur propre transformateur et réseau de distribution. Les particuliers et petites entreprises sont alimentés en 380V triphasé ou 220V monophasé.

Monophasé ou Triphasé ?

Ah oui, je n’ai pas parlé du monophasé et triphasé… Eh bien en général l’électricité est produite et transportée en triphasé pour des raisons de commodité. Ce terme un peu bizarre à priori signifie que l’électricité est supportée par 3 fils (appelé phases) ou les tensions et les courants sont déphasés de 2π/3. Explication : comme on travail en courant alternatif sinusoïdal 50Hz, le signal électrique se répète toutes les 20ms (une période égal 20ms). Chacune des trois phases est retardée l’une par rapport à l’autre d’un tiers de période, soit 6.66ms. Sur le dessin ci-dessous, la courbe jaune est la première, puis la bleue est retardée d’un tiers de période et la rouge est décalé de deux tiers de période par rapport à la jaune.



Il y a 99% des alternateurs qui fonctionnent en triphasé et produisent naturellement ce type de tensions et courants. De même, la majorité des équipements industriels fonctionnent en 380V triphasé (moteurs, aspirateurs, compresseurs, fours…).

Le monophasé des maisons signifie que l’on utilise uniquement l’une des 3 phases (le fil marron de vos prises de courant), l’autre fil étant neutre (le fil bleu). Un troisième peut être utilisé pour raison de sécurité, c’est le fil de Terre (jaune et vert) qui permet une connexion électrique entre la carcasse métallique de votre appareil et la Terre pour éviter de se prendre « un coup de jus » en touchant votre machine à laver par exemple. En fait ce fil aboutit à un grand piquet en fer planté dans la terre et permet le passage des électrons éventuels de la carcasse jusqu’à la Terre. Le potentiel de la carcasse est donc le même que la Terre, et par définition au même potentiel que votre corps : Pas de différence de potentiel : pas de tension : pas de coup de jus.