Voilà un joli titre très en vogue en ce moment. Mais que cachent ces termes ? Doit-on les plébisciter ou les condamner ? De nombreux avis divergent et ce n’est pas toujours facile d’y voir clair. J’ai lu et écouté pas mal de choses sur ces thématiques ces dernières années, alors je vous livre ici mon sentiment.
IA (AI)
L’intelligence artificielle (IA) est un rêve remontant aux premiers ordinateurs, Alan Turing ayant commencé à réfléchir à cette possibilité dès 1950 (pour rappel, Turing n’est autre que le père de l’informatique moderne). Soyons clair : jamais un ordinateur, tel qu’il est construit aujourd’hui, ne pourra véritablement être « intelligent » dans le sens où il ne pourra jamais éprouver de sentiments ni d’émotions (au mieux, il pourra simuler ces émotions, mais pas les ressentir). Le simple fait de fabriquer du « vrai » hasard dans un ordinateur est encore un défi, alors faire émerger un sentiment…
Avant toute chose, précisons ce qu’est un algorithme : un algorithme est une suite d’opérations logiques qui à partir de données d’entrée va produire des données de sortie. Si on assimile un être humain à un algorithme, les données d’entrée seraient nos sens (vue, ouïe, odorat, toucher, goût) et les données de sortie seraient nos pensées. Donc si on relie une caméra, un micro, un capteur d’odeur, un palpeur et un capteur de goût à une IA, cette dernière devrait nous fournir des pensées via un écran, un haut-parleur ou une imprimante. Voici le défi à relever…
Les réseaux de neurones (Artifical Neural Networks)
En fait, l’IA consiste essentiellement à « mimer » nos réflexions et nos pensées. Depuis les années 50, les informaticiens ont eu pour idée de fabriquer des algorithmes ayant la même architecture que notre cerveau : les « réseaux de neurones artificiels ». On enseigne d’ailleurs cela depuis plus de 25 ans dans la plupart des écoles d’ingénieurs françaises (j’ai suivi un tel cours en 2004, fort intéressant d’ailleurs). Cette technique s’est révélée efficace pour certaines classes de problèmes comme par exemple pour faire des classements d’items dans des catégories ou pour reconnaitre des sons ou des images comme déchiffrer des écritures manuscrites (les centres de tri de la Poste reconnaissent les codes postaux inscrits sur les lettres à l’aide de tels algorithmes). Mais pour que cela fonctionne, ces algorithmes doivent au préalable « apprendre à penser » et c’est un des points clés des réseaux de neurones et de nombreux algorithmes dérivés : l’apprentissage (on parle aussi d’entrainement). Les réseaux de neurones utilisent ainsi des théories mathématiques probabilistes et statistiques pour être « réglés » correctement.

L’apprentissage automatique (machine learning)
En effet, pour fonctionner, le réseau de neurones est confronté dès sa naissance à des exemples pour apprendre la tâche qu’il doit réaliser, on parle alors d’apprentissage automatique (« machine learning » en anglais). Dans le cas des codes postaux à reconnaitre sur des lettres, on va lui montrer plusieurs écritures manuscrites avec la solution associée de manière à ce qu’il puisse réaliser cette tâche dans l’avenir avec plusieurs types d’écriture (on appelle cela de l’apprentissage supervisé). On comprend bien ici que la création de « bons exemples » peut s’avérer compliqué et chronophage car un humain doit au préalable réaliser la tâche « à la main ». Ce type d’apprentissage est de loin la méthode la plus utilisée.
Il existe aussi des algorithmes d’apprentissage « non supervisés » mais ces derniers ne sont applicables que dans des cas particuliers comme par exemple pour regrouper des items présentant des similitudes, de manière à donner par la suite ces classements à un humain avec des vrais neurones qui en fera sans doute quelque chose. Par exemple, pour trier des profils d’internautes sur Google, notre algorithme pourra par lui-même trouver une multitude de profils qu’un humain nommera par la suite les « Bio-eco-responsables », les « accros aux jeux vidéo » ou encore les « fanas de sports ».
Mais si on donne des mauvais exemples lors de l’apprentissage supervisé, que se passe-t-il ? Eh bien notre algorithme ne fera que répéter ces erreurs… Cela parait évident, mais nombre de personnes oublie ce simple constat, pourtant connu de tous les chercheurs dans ce domaine, et cela peut aboutir à de graves conséquences, nous le verrons un peu plus loin.
En fait, l’algorithme d’apprentissage fonctionne comme un enfant qui apprend de ses expériences : si un enfant se brûle un jour avec un four, il comprendra qu’il ne faut pas le toucher dans l’avenir. Il faudra même qu’il comprenne qu’il ne faut pas toucher les fours en général. Ça parait simple pour un enfant mais ça peut être redoutablement difficile pour un ordinateur…

De plus, un réseau de neurones peut posséder différentes topologies et est composé de plusieurs paramètres de réglage qui sont loin d’être faciles à ajuster de manière optimale. Par exemple, si votre réseau comporte trop peu de neurones, il n’arrivera pas à traiter correctement tous les cas que vous essaierez de lui apprendre mais s’il en comporte trop, il y aura une multitude de solutions possibles entre les entrées et les sorties proposées et votre réseau aura un comportement aléatoire au bout du compte (une erreur classique !).
Bref, certaines personnes vantent que leur modèle est infaillible car ce sont des mathématiques sophistiquées derrière mais dans bien des cas, les résultats ne sont pas au rendez-vous ! Alors attention ! Perso, je ne me risquerais jamais à jouer en bourse avec un réseau de neurones artificiel qui prend des décisions mais c’est pourtant ainsi que se déroulent des millions de transactions dans le monde (de toutes façons, je ne joue pas en bourse, question de principe).
L’apprentissage profond (deep learning)
Les réseaux de neurones ont été à la mode pendant des dizaines d’années mais aujourd’hui, la donne a changé. Plus personnes ne vous proposera un « réseau de neurones » pour reconnaitre une écriture manuscrite sur un lettre. Aujourd’hui, le mot magique qui vous ouvre toutes les portes, c’est le « deep learning » : l’apprentissage profond dans la langue de Molière. Si vous prononcez ce mot, vous serez immédiatement embauché avec un bon salaire ou vous obtiendrez instantanément votre financement tant espéré, même si vous ne vendez que du vent. C’est triste mais c’est malheureusement le cas dans bien des situations réelles aujourd’hui.
Selon notre amis Google : « Le salaire moyen pour les emplois d’Ingénieur en Machine Learning en France est de 37 000 € ». En fait, c’est tout simplement le « métier de l’année 2019 » pour la plupart des observatoires du marché de l’emploi aux USA et en Europe qui constatent une augmentation de plus de 300% des offres d’ingénieurs en Machine learning entre 2018 et 2019. Article intéressant à lire : https://www.lebigdata.fr/ingenieur-machine-learning-indeed. Sachez que la plupart de vos applications dans votre Smartphone utilisent aujourd’hui des algorithmes de type « deep learning ».

Mais c’est quoi le « Deep Learning » ? Cette technique n’est jamais qu’une évolution naturelle des réseaux de neurones à la lumière de l’explosion de la quantité de données générée dans la dernière décennie et de la constante augmentation des capacités de calcul des ordinateurs. Il n’y a rien de magique là-dedans. En fait, un algorithme d’apprentissage profond est constitué de nombreuses couches de réseaux de neurones empilées : les données de sorties d’un réseau étant les données d’entrée du suivant et ainsi de suite. S’il y a beaucoup de couches comme dans un énorme plat de lasagnes, c’est de l’apprentissage profond ! Je simplifie un peu, il y a d’autres ingrédients un peu novateurs mais ça ne justifie pas cet engouement planétaire. Surtout que la phase d’apprentissage est encore plus compliquée et qu’on peut faire encore plus d’erreurs.
Cependant, ça fait de l’emploi, il faut le reconnaitre, mais pas que des emplois d’ingénieurs et de chercheurs… En effet, l’apprentissage profond génère aussi de très nombreux emplois non qualifiés pour apprendre aux algorithmes ce qu’ils doivent savoir ! On parle ici de milliers de gens qui passent leurs journées sur Google à indiquer manuellement si la photo qu’ils ont devant les yeux est un chien ou un chat de manière à ce que la prochaine fois que vous taperez le mot « chat » dans Google, on vous proposera bien des chats et pas des chiens. Je trouve ça quand même un peu triste personnellement. Eh oui, il n’y a pas de fumée sans feu, il faut générer des millions de cas d’apprentissage pour les que les algorithmes apprennent correctement, surtout s’il y a beaucoup de couches de neurones, et ces exemples d’apprentissage doivent être supervisé par des vrais neurones humains…

L’apprentissage profond envahi notre société
Je suis inquiet. Cette surenchère des algorithmes d’apprentissage profond pour tout et n’importe quoi aujourd’hui devient ridicule. Malgré les nombreux « flop » observés à droite et à gauche, on observe toujours les algorithmes d’apprentissage profond déferler partout. Et devinez pourquoi ? Parce qu’il y a des dollars à la clé bien sûr, comme à chaque fois !! Attention, je ne suis pas un « réac » contre toute technologie nouvelle. Je suis pour le progrès dans le noble sens du terme, mais je suis contre la technocratie et la loi du dollar.
Je dis OUI
Ces algorithmes peuvent être tout à fait utiles à mon sens dans notre société, voici des exemples qui fonctionnent aujourd’hui (ou qui sont en passe de le devenir) et que je trouve tout à fait justifiés :
- Déchiffrage d’écriture pour le courrier.
- Traduction de textes dans différentes langues.
- Reconnaissance vocale.
- Reconnaissance d’image pour les moteurs de recherche.
- Reconnaissance de motif et de forme.
- Robot joueur (dames, échecs, go, etc.).
- Etudes des brins d’ADN (reconnaissance de séquences, de gènes, etc.).
- Aider les médecins au diagnostic médical (mais pas les remplacer).
- Conduite de véhicule autonome.
- Et bien d’autres encore…
Je dis NON
En revanche, je suis tout à fait opposé à utiliser de tels algorithmes pour remplacer certaines tâches aujourd’hui assurées par des humains. Soit parce que cela n’a pas de sens, soit parce que c’est trop dangereux :
- Diagnostic médical automatique (sans véritable vérification par un médecin associé).
- Orienter les contenus proposés aux internautes à des fins publicitaires ou politiques.
- Achat/Vente de titre boursier (ce qu’on appelle le trading haute fréquence).
- L’accord de prêt bancaire (de plus en plus courant dans le monde). Attention, c’est bien votre banquier qui vous dira « non » mais en fait ce n’est pas lui qui a décidé, c’est l’algorithme !
- L’évaluation des risques dans les contrats d’assurance.
- Le recrutement, autant dans le secteur privé que le secteur public (de plus en plus courant également, surtout aux USA).
- L’évaluation des employés/fonctionnaires pendant leur carrière.
- La justice (de nombreux travaux sont actuellement à l’étude dans plusieurs pays).
- Les « deep fakes » qui consistent à utiliser ce genre d’algorithme pour manipuler des sons, des images ou des vidéos en faisant croire que certaines personnes ont dit ou fait certaines choses (un vrai désastre médiatique dans notre société ultra connectée).
- Toutes les applications d’armes automatiques sans intervention humaine.
- Et la liste est encore très longue…
Je vous détaille ici plusieurs exemples qui vous donneront matière à réflexion…
Dans l’éducation
Voici un exemple ahurissant, cité par Cathy O’Neil sur France Culture, pour illustrer un cas d’évaluation d’enseignants aux USA à l’aide d’algorithmes de ce genre. Dans l’état de Washington, l’état veut la meilleure éducation possible pour ses écoliers, en ayant recours aux meilleurs enseignants possibles. Jusque-là, tout va bien et c’est tout à fait louable de la part d’un service public de s’assurer de la bonne éducation de ses bambins. Le problème, c’est que l’administration a décidé d’utiliser un algorithme spécial pour donner une « note » à tous ses professeurs et que ceux qui n’auraient pas la moyenne durant plusieurs années seraient tout simplement renvoyés ! Et les enseignants étaient au courant… L’algorithme devait ainsi évaluer la progression de chaque élève pendant l’année (à l’aide d’une série d’examens) et assignait une note aux enseignants en fin d’année selon la progression moyenne constatée dans la classe. Devinez ce qui s’est passé ? Les enseignants qui étaient « intègres » ont joué le jeu et se sont fait renvoyer ! Eh oui, car il y avait d’autres enseignants, beaucoup moins honnêtes, qui n’ont pas hésitez à noter sévèrement les élèves au début de l’année et à franchement les aider pendant les examens de fin d’année (pour ne pas dire qu’ils les ont aidés à tricher). Du coup, les élèves étaient surestimés/sous-estimés d’une année sur l’autre selon l’enseignant… Je vous laisse imaginer le fiasco quand on ils ont compris ce qui s’était passé (au bout de plusieurs années). Les enseignants congédiés ont d’ailleurs porté plainte et ont eu gain de cause (ouf !) après avoir réintégré leur poste. Heureusement que la justice était encore faite par des humains, mais ça risque de ne pas durer longtemps.
Dans la justice
Je vous passe aussi les centaines d’exemples où les algorithmes utilisent des données historiques brutes pour « apprendre ». Cela conduit inévitablement à répéter les erreurs du passé en reproduisant les mêmes biais ad vitam aeternam. C’est le cas par exemple aux USA où les noirs sont discriminés de manière historique : ils continuent ainsi de l’être, et même de manière exacerbée, par les algorithmes qui ont parfaitement identifié la tendance « noir=méchant » et « blanc=gentil ».
Je vous laisse donc imaginer les futurs algorithmes de décision de justice en cours de préparation un peu partout dans le monde. C’est d’ailleurs déjà le cas dans plusieurs provinces chinoises ou les juristes et les avocats font cruellement défaut. En France, ça risque de débarquer dans les prochaines années. Sans parler du sujet épineux de la justice prédictive. Vous n’étiez pas au courant ? Certains législateurs voudraient enfermer les récidivistes potentiels plus longtemps que les autres. Le scénario du film minority report se rapproche à grands pas…

Dans l’économie
Quant à la finance, elle est déjà perdue ! Environ 80% des échanges boursiers dans le monde sont issus d’algorithmes qui achètent et vendent automatiquement. Tous les régulateurs qui ont tenté de réduire le trading à haute fréquence ont été confrontés à de grandes difficultés à cause des lobbies bien trop puissants. La dernière directive européenne de 2016 sur le sujet (MIF 2) a été vidée de son contenue avant son approbation par l’UE à Bruxelles, dommage… Pourtant, il y a déjà eu plusieurs minikrachs boursiers comme le Flash krach du 6 mai 2010 qui trouve son origine dans ces millions de robots traders qui rendent les marchés très volatils. Notre système financier repose de plus en plus sur des « astuces » (pour ne pas dire des tricheries) en mettant en place ces robots trader là où chaque milliseconde compte.
Je m’arrête ici mais on pourrait encore remplir des centaines de pages avec des applications positives et négatives de l’intelligence artificielle et de l’apprentissage profond. Dire que l’IA et l’apprentissage profond est bien ou mal n’a pas de sens, c’est simplement un code informatique. La question est de savoir où nous décidons d’appliquer de tels algorithmes. Cependant, mon sentiment est que cette technologie est de plus en plus utilisée à des fins commerciales, financières et politiques, ce qui ne présage rien de bon pour l’avenir de notre société. Ces nouveaux usages devraient être mieux encadrés (au niveau national mais aussi mondial) pour continuer de garantir la liberté et l’égalité dans notre monde.
A lire, à voir, à écouter
- Podcast France culture « Pour une éthique des algorithmes ».
- Documentaire Arte « Les Robots Traders ».
- Articles dans Les Echos : « Les robots débarquent au tribunal ».
- Article du café du trading : « Trading haute fréquence : chiffres et fonctionnement »
- Livre de Cathy O’Neil : « Algorithmes : la bombe à retardement ».
- Livre de Yuval Noah Harari: « 21 leçons pour le XXIème siècles ».
[…] je m’étais d’ailleurs déjà exprimé à ce sujet dans un billet intitulé l’intelligence artificielle et l’apprentissage profond en 2020. Ici, il est juste question de vous faire sourire en regardant les réponses de ce qui est […]