Laurent Alexandre

La guerre des intelligences ou du sensationnalisme opportuniste ? Partie 1

Laurent Alexandre : la guerre des intelligences ou du sensationnalisme opportuniste ? Partie 1
November 16, 2018 nschaetti

Laurent Alexandre : la guerre des intelligences ou du sensationnalisme opportuniste ?

Partie 1 : La somme de toutes les peurs

L’intelligence artificielle est un sujet à la mode, un de ces domaines qui reste cantonné au stade de fantasme de la science-fiction populaire jusqu’à ce que des avancées scientifiques le propulsent sur le devant de la scène, avec une force et une vigueur équivalentes aux attentes que nous nous sommes forgé pendant toutes ces années. Nous assistons depuis quelques mois à une surexposition de ce sujet dans les médias, tous types confondus, nous annonçant les dernières avancées, les derniers exploits et nous exposant toutes les craintes possibles et imaginables que peut porter un sujet qui enfanta dans l’esprit du grand public des figures telles que Terminator, HAL9000 ou Ex-machina. Dans les médias mainstream, et sur internet, l’intelligence artificielle est devenue une source inépuisable pour susciter l’intérêt du grand public, grâce à des articles dont les titres ne peuvent agir que comme un aimant pour nos pauvres souris affamées en quête d’informations instantanées rabâchées par nos réseaux sociaux favoris. Vos doigts affûtés et le moteur de recherche de votre GAFAM comme seuls ustensiles vous permettront de trouver quelques exemples savoureux et épicés en suivant simplement la recette suivante : “intelligence artificielle perte contrôle” :

Facebook interrompt un essai d’intelligence artificielle (AI) quand ses robots se mettent à parler une langue connue d’eux seuls.

Stopper une intelligence artificielle menaçante ? Google travaille sur un «bouton d’urgence» en cas de problème majeur.

Pour Elon Musk, l’intelligence artificielle pourrait menacer la civilisation.

Divers acteurs de la scène médiatique, du simple blog jusqu’aux plus sérieux, nous abreuvent de notre bouillon quotidien d’informations sur l’intelligence artificielle illustrées par des images d’un Terminator marquant nos esprits de façon récurrente.

La créature serait-elle donc sur le point de sortir de sa boîte de Pandore pour échapper à ses créateurs, comme celle de Frankenstein, pour mettre en danger notre civilisation ? Dans la guerre pour le trône de silicium qui oppose dans le paysage audiovisuel francophone les divers futurologues, speakers, startupers ou autres spécialistes de la “Tech”, un certain Laurent Alexandre a réussi dernièrement à se faire une place de choix. Futurologue reconnu, spécialiste des techniques NBIC (Nanotechnologies, Biotechnologies, Informatique, Sciences cognitives), chirurgien urologue, créateur du site doctissimo et énarque de formation, il parcourt les plateaux des innombrables émissions de télévision consacrées à ces “IAs”, pour nous parler de ce futur passionnant et angoissant et de la guerre qui pourrait se préparer entre l’homme et la machine.

Fig 1 : Le robot de Terminator, par James Cameron, 1984

Dans son dernier livre intitulé “La guerre des intelligences”, il nous expose ses idées et ses visions pour ces futurs possibles que nous devrons partager avec les machines. Selon Laurent Alexandre, les ordinateurs devenant de plus en plus puissants, certains d’entre nous serons inévitablement balayés par la concurrence que nous mène l’IA. Ces machines, dont la puissance de calcul a été multipliée par des millions de milliards en 80 ans [1], seront bientôt capables de remplacer des humains dans des tâches intellectuelles que l’on a toujours crues réservées à l’homme. Dans cette économie robotisée et automatisée, l’algorithme devient la principale source de valeur ajoutée, les géants du numériques, communément appelés GAFA (Google, Amazon, Facebook, Apple), se battant alors pour attirer les ingénieurs capables de créer les algorithmes les plus performants. Ces “IAs” nécessitant des quantités énormes de données pour être entraînées, éduquées dirait Laurent Alexandre, ces géants du numérique peuvent alors se créer un capital data leur permettant de s’imposer comme les monopoles du 21ème siècle.  Une caractéristique lierait ces petits génies recrutés à tour de bras par les GAFAs : leur intelligence, mesurée sur l’échelle du QI. Nos sociétés pourraient alors se stratifier et les inégalités exploser entre ceux capables, grâce à leur intelligence, de comprendre le monde à l’ère de l’IA, et ceux perdu dans un monde qui n’a plus besoin d’eux. La démocratie aidant, les masses perdues et désespérées demanderaient aide et protection à des gouvernements incapables de faire face à une grave désynchronisation entre le temps politique et le temps technologique, menant nos sociétés à se disloquer dans un autoritarisme techno conservateur.

Fig 2 : Le robot Sophia ayant acquis la citoyenneté Saoudienne, 2017

Historiquement pensée pour réduire les inégalités, l’école ne pourrait faire face à cette explosion des inégalités d’intelligence, le QI étant principalement hérité et fixé avant même l’entrée à l’école obligatoire malgré une augmentation notable ces dernières décennies. Il ne nous resterait alors plus qu’à nous tourner vers des solutions proposées par des milliardaires dont les objectifs et les visions s’étendent sur un temps bien plus long que ne peuvent l’imaginer nos politiques. Réduire les inégalités en faisant appel à des technologies d’implants cérébraux ou de sélections embryonnaires capables de démocratiser l’intelligence pour permettre à tous de faire face à la dure compétition qui nous attendrait contre les futures machines intelligentes. Augmenter nos capacités physiques et cérébrales demanderait à ces milliardaires, dont les visions se regroupent dans un courant de pensée appelé transhumanisme, de créer des IAs dont l’intelligence transversale les rendrait seules capables de faire face à ces problèmes. Alliés à l’augmentation exponentielle de la puissance de calcul, ces IAs devenues libres et autonomes pourraient alors décider de leurs propres objectifs et nous menacer. En somme, une guerre de l’intelligence artificielle contre l’intelligence humaine.

Comment vivre alors avec des machines qui nous surpasseraient en tout point ? Nous verraient-elles comme un danger potentiel ? Comme un animal de compagnie ou comme des êtres insignifiants et inintéressants ? Ne devrions-nous pas stopper la recherche en IA avant que nos créatures ne deviennent incontrôlables ? Quelles sont les limites que nous devrions imposer pour garder le contrôle sur nos machines et sur nous-même à l’ère des machines intelligentes, de la neuro-augmentation et de la réalité virtuelle omniprésente ?

Tels sont les sujets et hypothèses abordées dans le livre de Laurent Alexandre. Je vous propose donc une plongée dans les abysses de l’intelligence artificielle afin de décrypter pour vous ce livre point par point, idée par idée. J’aborderai dans cette revue deux points qui me semblent essentiels, et sur lesquels je dispose d’assez d’information pour me prononcer. Le premier concerne l’intelligence artificielle, ses implications, ses possibilités, ses limites et certains éléments qui me semblent profondément incorrects dans le livre de Laurent Alexandre. Le deuxième point concernera le Quotient Intellectuel (QI) et ses implications sur nos sociétés, mais surtout son évolution lors des dernières décennies et l’impact que l’école a pu avoir sur ce dernier. J’essaierai de vous démontrer de manière convaincante que contrairement à ce que Laurent Alexandre sous-entend dans son livre, l’intelligence ne se résume pas à une quantité de calcul et que l’école a bien eu un impact sur notre intelligence au cours du 20ème siècle. Mais aussi que malgré sa prétention de pure rationalité, Laurent Alexandre est bien spiritualiste lorsqu’il imagine le futur de l’intelligence artificielle, et qu’il défend une vue romantique de l’intelligence artificielle. Comme Isaac Asimov, j’essaierai dans ce présent article de plaidoyer pour une vue d’ingénieur de l’intelligence artificielle.

Pour analyser ce livre, je me suis appuyé sur plusieurs ouvrages de spécialistes tant en psychologie (Steven Pinker), en philosophe (Daniel Dennett), ou en intelligence artificielle lorsque mes connaissances de cette dernière ne suffisaient pas. De ces ouvrages, ceux de Steven Pinker, psycholinguiste à l’Université d’Harvard, ressortent de manière récurrente : Comprendre la nature humaine, la part d’ange en nous et le dernier sorti récemment  Le Triomphe des Lumières.

Sur la forme tout d’abord, le livre de Laurent Alexandre est plutôt décousu et abordant de multiples points dans les mêmes chapitres. Difficile alors d’en faire l’exégèse, et d’en extraire les points-clés. Les divers sujets étant abordés à la suite mais dans un enchaînement quelquefois difficile à suivre.

Sur le fond ensuite, j’y ai trouvé de nombreux points de désaccord particulièrement concernant l’intelligence artificielle mais surtout ce que me semble être une profonde incompréhension de son fonctionnement. Certe, il n’est pas nécessaire d’être un spécialiste de la question technique, mais forcé de constater qu’elle permet manifestement de connaître concrètement les limites et les possibilités de ces algorithmes. D’un autre côté, Laurent Alexandre utilise abondamment des éléments de langage trompeurs, comme lorsqu’il appelle ces logiciels intelligents des “IAs”, qui personnifient ce qui ne devrait pas l’être. Mais j’y ai aussi trouvé des points d’accord sur certaines de ces conclusions, plus particulièrement sur la stratification de nos sociétés et sur la nécessité de personnaliser l’éducation. Mais plus encore, je partage son enthousiasme pour des technologies qui pourraient améliorer la qualité de nos vies d’une manière encore jamais vue. Défenseur d’une vision positive du futur face aux déclinistes et autres collapsologues dont l’influence augmente malheureusement de jour en jour, il est dommage qu’il ne fasse pas preuve d’une plus grande rationalité et d’une plus grande rigueur lorsqu’il aborde des sujets comme l’intelligence artificielle.

La somme de toutes les peurs

Les années 2010 ont vu l’apparition d’une nouvelle technologie appelée Deep-Learning, apprentissage profond en français, qui a permis de grandes avancées dans les domaines de la vision par ordinateur ou du traitement du langage naturel. Le Deep-Learning est un sous-domaine d’un ensemble de méthodes appelées Machine Learning, ou encore apprentissage automatique, dont les racines remontent à la fin des années 50 lorsque l’expression fut utilisée pour la première fois par Arthur Samuel, un informaticien pionnier dans le domaine de l’intelligence artificielle. Le principe de l’apprentissage automatique est simple. Peut-on créer des programmes capables d’ajuster leurs réponses à partir d’analyses de données empiriques ? Des systèmes informatiques auxquels nous pourrions fournir des données d’apprentissage, des images par exemple, et qui seraient capables d’extraire l’information nécessaire à effectuer une tâche donnée. C’est précisément ce que permettent les algorithmes d’apprentissage automatique. En vision par ordinateur par exemple, un domaine de l’intelligence artificielle cherchant à reproduire certaines capacités visuelles, les chercheurs fournissent des exemples d’images représentant certains objets à ces algorithmes afin qu’ils apprennent à reconnaître ces objets. Une fois l’apprentissage terminé, ces modèles pourront être utilisés dans des logiciels de photographie par exemple, ou dans de futures voitures autonomes s’ils sont suffisamment performants.

Dans la galaxie formée des différents algorithmes d’apprentissage automatique, il en existe un type spécifique, dont fait partie le Deep-Learning, appelé par certains modèles connexionnistes, composés d’un ensemble d’unités interconnectées participant chacune un petit peu à l’ensemble du système. Ces algorithmes sont plus communément appelés réseaux de neurones artificiels car inspirés du fonctionnement de notre cerveau. La recherche sur ce type de modèles a commencé à la fin des années 50 et a évolué en dents de scie jusqu’aux années 2010. C’est au début des ces années-là qu’ont convergé plusieurs facteurs essentiels. Premièrement, la maturité des modèles de réseaux de neurones à multicouches, dit profonds, grâce au dépassement de plusieurs problèmes techniques. Deuxièmement, la disponibilité grâce à internet et aux réseaux sociaux de grandes quantités de données (c’est le fameux Big Data) indispensables à l’entraînement de ces modèles. Puis finalement, par l’évolution de la puissance des ordinateurs permettant de traiter ces énormes quantités de données.

Le Deep-Learning et la naissance de l’intelligence artificielle

Selon Laurent Alexandre, l’intelligence artificielle serait donc sorti de la science-fiction dans les années 2010 grâce au Deep-Learning. Après une première phase qui aurait été celle des algorithmes traditionnels programmés manuellement. Le Deep-Learning aurait lancé la deuxième phase, celle des IAs qui s’éduquent plus qu’elles ne se programment, et capables de nous remplacer à certaines tâches. Une troisième phase s’annoncerait dès les années 2030 où des IAs dites contextuelles, c’est-à-dire capables de mémorisation et de transversalité, feraient leur apparition. Développement qui toucherait à sa fin dans un futur incertain avec une IA dite forte, c’est-à-dire consciente d’elle-même et capable d’aspirer à ses propres objectifs [2]. Cette deuxième phase aurait vu la naissance de l’intelligence artificielle capable de reconnaître des formes et de comprendre nos langages, bien qu’encore confinés à des tâches précises. Mais y a-t-il une différence de nature ou de degré entre l’intelligence artificielle pré2012 et le Deep-Learning, comme l’affirme Laurent Alexandre ? Peut-on vraiment affirmer que les succès du Deep-Learning viennent d’une compréhension plus profonde de l’intelligence ?

Nous l’avons vu, l’apprentissage automatique existe depuis longtemps, les premières méthodes existant même depuis la fin du 18ème siècle avec les travaux de Gauss et s’est toujours basé sur le principe d’apprentissage à partir de données plutôt que sur des règles prédéfinies. Le Deep-Learning est une méthode d’apprentissage automatique, très performante sur un certain nombre de tâches, qui est étudiée depuis le début des années 80 avec les travaux de Kunihiko Fukushima sur le neocognitron puis ceux de Yann Lecun chez Bell Laboratory sur les réseaux convolutifs. Mais quelle est la différence entre cet apprentissage profond et les méthodes précédentes ?

Le Deep-Learning se distingue par des modèles possédants une succession de couches de neurones, chaque couche permettant un niveau supplémentaire de représentation. Qu’entend-on par représentation ? Prenez un ensemble d’images représentant des objets, montres, vélos, voitures, téléphones, etc., que vous aimeriez donner à un programme pour qu’il apprenne à les reconnaître. Comment définir ce qu’est une voiture par exemple à partir des éléments de base de l’image que sont les pixels ? Vous ne pouvez pas utiliser de simples règles de déduction car il vous est impossible de prévoir tous les cas possibles d’images de voiture, le nombre de possibilités étant presque infini, c’est ce qu’on appelle l’explosion combinatoire.

Le plus simple reste de commencer par le niveau le plus bas de caractéristique (un attribut distinctif de quelque chose), comme les bords des objets, les coins, selon tout un ensemble de caractéristiques (horizontale, verticale, bordure courbe ou rectiligne, etc). À partir de ce niveau, on peut développer un niveau supérieur de caractéristiques combinant les bords du niveau précédent pour décrire des formes simples, cercles, demi-cercles, ovales, carrés, etc. L’ensemble de ces formes peut alors nous permettre de décrire un ensemble d’objets différents au niveau suivant. Une voiture par exemple avec ses roues, ses fenêtres et ses portes. L’exemple ci-dessous vous montre ces niveaux d’abstraction dans le cas de la reconnaissance de visages [3].

Fig 3 : Trois niveaux de représentations dans un réseau convolutif [3]

Mon exemple a deux limites. Premièrement, il ne possède que trois niveaux de caractéristiques, les modèles utilisés actuellement en possèdent beaucoup plus, jusqu’à plusieurs centaines, les rendant capables de donner du sens à des données extrêmement complexes. Deuxièmement, parce que nous avons défini nous-même quelles caractéristiques présenter à chaque niveau. Hors c’est là que réside la force du Deep-Learning, laisser le programme déterminer à partir des données fournies les représentations qui sont les plus efficaces pour résoudre le problème que nous lui posons. Les méthodes précédentes ne se basaient pas sur ce type de hiérarchie mais sur des caractéristiques déterminées manuellement par des ingénieurs spécialisés.

Comment ces caractéristiques sont-elles apprises ? Yann Lecun, directeur du laboratoire d’intelligence artificielle de Facebook (FAIR), utilise une analogie très simple. Imaginez que les modèles utilisés en apprentissage automatique sont comme des boîtes, possédant une entrée et une sortie, ainsi que des boutons tournants. À l’entrée nous pouvons par exemple présenter une image. À la sortie nous aurions les diverses classes auxquelles les objets présentés peuvent appartenir, un vélo, une voiture, etc. Les boutons influencent la manière dont la machine va répondre aux données d’entrée. Nous pourrions alors présenter une image d’exemple à notre machine, puis tourner les boutons jusqu’à ce que la réponse actuelle corresponde à celle attendue. Ajoutez à cela une précision importante, grâce aux génies des mathématiques, nous disposons d’informations nous indiquant très approximativement dans quel sens et de combien de degrés tourner chaque bouton. Nous pourrions alors faire cela pour un grand ensemble d’image afin de déterminer les positions des boutons qui permettent à la machine d’effectuer sa tâche correctement. Cette étape s’appelle l’apprentissage, et une fois effectuée, nous pouvons présenter de nouvelles images, encore jamais vues par la machine, et l’utiliser pour déterminer les objets se trouvant sur celles-ci [4].

Cette description semble donner raison à Laurent Alexandre, le Deep-Learning serait une évolution de nature plutôt que de degré. Mais à y regarder de plus près, les différences ne sont pas si grandes avec les méthodes pré2012. En effet, contrairement à ce qu’affirme Laurent Alexandre, le Deep-Learning n’est pas un ensemble de techniques comprenant le Machine-Learning (apprentissage automatique) et le Reinforcement Learning (et non Learning Reinforcement) [5], mais bien le Deep-Learning qui est un sous-ensemble des méthodes dites d’apprentissage automatique. Le Reinforcement Learning (apprentissage par récompenses) étant lui développé depuis le début des années 80, et utilisant des méthodes classiques d’intelligence artificielle développées depuis le début de ce domaine de recherche.

Deux autres éléments sont essentiels. Premièrement, la méthode d’apprentissage expliquée au paragraphe précédent n’est pas une innovation du Deep-Learning, mais un algorithme créé et étudié depuis les années 60, et appliqué dans de nombreuses méthodes d’apprentissage automatique. Deuxièmement, leurs performances ont été rendus possible par la disponibilité d’énormes stocks de données grâce à internet et aux réseaux sociaux. Or, cette utilisation massive de données ne constitue pas une compréhension plus profonde de l’intelligence mais se rapproche plus de la force brute. C’est-à-dire que la détermination des positions des boutons durant la phase d’apprentissage est encore due essentiellement à un tâtonnement de type essaie-erreur qui ne ressemble en rien à la façon d’apprendre de l’esprit humain, qui n’a besoin lui que de quelques exemples. De plus, les avancées citées par Laurent Alexandre, comme la reconnaissance de formes et la compréhension du langage, sont en partie vraies [6]. Si l’on peut effectivement parler d’un grand bond en avant concernant la vision par ordinateur et le traitement des langages, on ne peut pas vraiment parler de compréhension du langage, les algorithmes de Deep-Learning étant incapables de comprendre et de raisonner à partir des données que nous leur fournissons mais plutôt de trouver des corrélations très complexes. Ne me méprenez pas, le Deep-Learning a rendu possible une quantité de choses qui semblaient impossibles auparavant, mais force est de constater que nous ne comprenons aujourd’hui pas beaucoup plus l’intelligence que nous ne la comprenions avant.

AlphaGo contre Deep-Blue

Fig 4 : Le champion Sud-Coréen contre AlphaGo en mars 2016

Cette confusion se retrouve à plusieurs endroits du livre de Laurent Alexandre, dont le meilleur exemple est peut-être l’interprétation qu’il donne des victoires de Deep-Blue (échecs) et d’Alpha GO (jeu de Go). Selon Laurent Alexandre, la victoire d’Alpha Go serait due à une évolution de nature, car il serait possible d’entrer dans la mémoire d’un ordinateur toutes les combinaisons possibles d’un jeu d’échecs [7]. La victoire de Deep-Blue en 1997 ne serait donc qu’une question de force brute pure. Cette affirmation semblera douteuse à toute personne travaillant un tant soit peu avec des ordinateurs. Il est évidemment impossible d’entrer toutes les combinaisons d’un jeu d’échecs dans un ordinateur car le nombre de combinaisons possibles, appelé nombre de Shannon, est de 10 puissances 120. Un 1 donc, suivit de 120 zéros. Ce nombre estime le nombre de parties différentes ayant un sens aux échecs. Et bien que IBM basât son ordinateur sur des puces spécialisées extrêmement puissantes, il fit aussi appel à des algorithmes d’intelligence artificielle pour battre Kasparov. Mais la victoire d’IBM sur Kasparov fut avant tout celle de la puissance brute des ordinateurs plutôt que celle de l’intelligence, cependant la prétention initiale du projet ne fut jamais de créer une machine intelligente. Pourtant, lors du match qui vit la consécration de Deep-Blue, des commentateurs nous avertissaient déjà que la machine semblait posséder intuition et intelligence. Kasparov de son côté, voyait cette victoire comme, je cite, “l’éclair qui nous montre les terreurs à venir.

Il fallut ensuite 20 ans pour voir un ordinateur battre le champion du monde de Go lorsque AlphaGo, développé par une filiale de Google, battu Ke Jie en mai 2017. Selon Laurent Alexandre, AlphaGo ne serait basé que sur 4 puces [7]. En fait, en plus de ces quatre puces spécialisées pour le Deep-Learning, très puissantes, créées par Google, AlphaGo utilise presque 2’000 processeurs et presque 300 cartes graphiques, pour une puissance totale bien supérieure à Deep-Blue. AlphaGo, contrairement à Deep-Blue, fait extensivement appelle aux techniques d’apprentissage automatique, combinées à de l’intelligence artificielle plus classique. Mais la réussite d’AlphaGo est-elle entièrement due à des avancées dans notre compréhension de l’intelligence ? AlphaGo utilise plus particulièrement des méthodes de Deep-Learning pour déterminer quels coups sont intéressants à jouer. Ces réseaux de Deep-Learning sont entraînés avec plus de 30 millions de coups joués par de grands maîtres, puis une fois un certain niveau atteint, il est alors entraîné plus intensément en jouant plusieurs millions de parties contre lui-même. Les réseaux profonds d’AlphaGo sont donc eux aussi entraînés avec une quantité massive de données. Comme pour Deep-Blue, une pléthore de commentateurs s’empressa de nous avertir que la machine montrait des signes d’intelligence humaine lors de coups spectaculaires et inattendus. Mais n’est-ce pas ce que l’on est en droit d’attendre d’une machine si puissante, utilisant de puissants modèles mathématiques, et entraînées avec des milliards de parties ?

Certaines questions doivent alors être soulevées. AlphaGo est-il plus que de la brute force, ou la brute force s’est-elle déplacée vers la phase d’apprentissage ? Qui, parmi les joueurs de Go, est devenu un grand maître en jouant des millions de parties (et contre lui-même) ? Les experts en intelligence prédisaient qu’il nous faudrait plus d’un siècle pour que la machine batte l’humain au jeu de Go. Mais ce résultat surprenant est-il possible parce que notre compréhension de l’intelligence a profondément évolué, ou parce que nous avions surestimé la difficulté que posait le jeu de Go ?

Dans les années 60, un pionnier de l’intelligence artificielle, Marvin Minsky, proposa comme sujet d’été à l’un de ses étudiants de résoudre le problème de la vision par ordinateur. Plus de 50 ans après, les ordinateurs sont encore loin de remplir le même cahier des charges que notre cerveau. Historiquement, nous avons toujours sous-estimé la difficulté des tâches qui sont simples pour nous (reconnaître des objets), et nous avons toujours surestimé la difficulté de celles pour lesquelles nous avons de la peine (jouer au Go), parce que notre cerveau n’est pas bien câblé pour en appréhender la complexité. De nouveau, ne vous méprenez pas sur mes propos, AlphaGo fut une avancée majeure en intelligence artificielle, mais notre compréhension de l’intelligence reste basique et primitive.

Le futur de l’intelligence artificielle

Nous avons nuancé l’existence de cette phase 2 de l’intelligence artificielle et de la naissance supposée de l’IA en 2012. Qu’en est-il des phases 3 et 4 prédites par Laurent Alexandre ? L’intelligence artificielle contextuelle est-elle à nos portes ? Peut-on prédire les avancées futures dans le domaine de l’intelligence artificielle ?

Selon Laurent Alexandre, nous pourrions donc entrer en 2030 dans la troisième phase de l’intelligence artificielle, celle de l’IA contextuelle et transversale [8]. Mais que signifie cette transversalité ? Actuellement, les algorithmes d’apprentissage automatique sont l’équivalent d’experts spécialisés dans une tâche extrêmement précise. Pour reprendre notre exemple précédent, l’algorithme que nous avons entraîné pour reconnaître des objets sur des images n’est bon qu’à cette tâche. Non seulement il ne sera pas capable de reconnaître des visages ou des caractères, mais il ne pourra même pas reconnaître un objet qui n’est pas dans les exemples d’entraînement qu’il a reçu. Mais il sera encore moins capable de reconnaître des mots par exemple sous forme audio, car son architecture est entièrement faite pour traiter des images.

Notre cerveau en comparaison est capable d’effectuer un très grand nombre de tâches, de reconnaître des objets que nous avons vu qu’une seule fois, et d’en reconnaître plusieurs milliers différents, mais de la même manière, nous pouvons reconnaître des mots, apprendre des langues, mais aussi apprendre à maîtriser les mathématiques ou jouer au basket-ball. C’est cette transversalité, la capacité d’un même système à apprendre une gamme très large de tâche, qui nous est promise pour 2030 [8]. Ces IAs pourraient se faire passer pour des êtres humains et posséder des capacités de mémorisation, c’est-à-dire se souvenir d’événements et d’informations que nous lui aurions fournies. La phase 4 verrait l’apparition de l’intelligence artificielle forte, des machines conscientes d’elle-même et capables de définir leurs propres objectifs [8]. Nous reviendrons sur cette IA forte dans la section suivante.

Mais quels sont alors les arguments de Laurent Alexandre pour soutenir cette chronologie futuriste de l’intelligence artificielle ? Il se base premièrement sur les travaux de futurologues bien connus, comme Ray Kurzweil, et deuxièmement, sur l’évolution de la capacité de calcul des ordinateurs depuis leurs débuts. Ces arguments soutiennent-ils sérieusement cette chronologie ? Le premier argument affirme que les experts du domaine sont au premier rang de la recherche actuelle, et donc les mieux placés pour estimer les avancées futures de l’intelligence artificielle, ce qui semble tout à fait raisonnable. Pour sa prédiction, Laurent Alexandre cite Ray Kurzweil, professeur au MIT et directeur de l’ingénierie chez Google, qui prédit l’avènement de la singularité, c’est-à-dire l’intelligence artificielle forte, en 2045 [9]. Mais aussi sur Elon Musk, le fantasque CEO de Tesla et SpaceX, qui est lui plus optimiste, en prédisant cette IA pour 2030 ou 2040 [10]. Mais sont-ils particulièrement bien placés pour estimer les avancées de l’intelligence artificielle ? Il faut d’abord noter qu’Elon Musk ne fait pas de recherche en intelligence artificielle, il est CEO, et que Kurzweil publie bien dans ce domaine mais ne fait pas partie des pères fondateurs, ou de la petite liste des tops experts reconnus dans la recherche en IA (qui comprend par exemple, Yann Lecun, Yoshua Bengio ou encore Geoffrey Hinton).

Fig 5 : Article dans le New-Yorker, 1958

Pour estimer empiriquement la précision des prédictions sur l’intelligence artificielle, tournons-nous vers le passé et regardons les prédictions des grands experts de ce domaine. Ces prédictions mises à la suite, le tableau ressemble peu ou prou à ce que nous pourrions trouver dans un magazine de voyance ou d’astrologie :

“D’ici 10 ans, un ordinateur digital sera champion du monde, découvrira et prouvera un théorème mathématique” (Herbert Simon et Allen Newell en 1958) [11]

“Les machines seront capables, d’ici 20 ans, de faire n’importe quel travail qui peut être réalisé par un être humain” (Herbert Simon en 1965) [12]

“D’ici une génération, le problème de créer de “l’intelligence artificielle” sera substantiellement résolu” (Marvin Minsky en 1967) [13]

“D’ici 3 à 8 ans, nous aurons des machines dotées de l’intelligence générale d’un humain moyen” (Marvin Minsky en 1970) [14]

“Durant notre vie, les machins nous surpasserons en intelligence générale,” (Marvin Minsky en 1961)

“D’ici une génération, je suis convaincu, que peu de compartiments de l’intellect resteront hors d’atteinte des machines” (Marvin Minsky en 1967)

Marvin Minsky, professeur au MediaLab du MIT, fut un pionnier et l’un des plus importants chercheurs en intelligence artificielle des 50 premières années. Il mourut en janvier 2016 sans voir l’ombre d’une machine dotée d’intelligences générale. Herbert Simon et Allen Newell étaient respectivement économiste récipiendaire d’un prix Nobel d’économie, et chercheur en informatique à la prestigieuse Université de Carnegie-Mellon. Ces trois chercheurs reçurent le prix Turing pour leurs travaux, l’équivalent du prix Nobel en informatique. Par souci de comparaison, mettons maintenant les prédictions sur l’intelligence artificielle des futurologues d’aujourd’hui :

“Probablement plus proche de 2030 ou 2040 à mon avis” (Elon Musk sur Twitter, en réponse à une étude prédisant l’IA forte pour 2060) [10]

La révolution de l’IA rend le cerveau humain obsolète” (Elon Musk en avril 2017) [16]

“D’ici 2029, les ordinateurs auront un niveau d’intelligence comparable à celui des humains” (Ray Kurzweil dans interview à SXSW) [17]

“Le QI minimum pour être concurrentiel face à l’intelligence artificielle montera considérablement à partir de 2030”, “Les métiers à fort contenu cognitif, sans composante manuelle, vont aussi être gravement touché d’ici 2030.”  (Laurent Alexandre, La guerre des intelligences) [15]

Comment de tels grands penseurs, chercheurs et entrepreneurs ont-ils pu se tromper à ce point ?  Probablement parce que nos capacités d’introspection sont extrêmement limitées. Notre cerveau est un organe extrêmement complexe composé de divers modules conçus par la sélection naturelle pour résoudre des problèmes d’ingénierie précis, comme construire un modèle en trois dimensions complet de notre environnement à partir d’une représentation en deux dimensions qu’il reçoit de la rétine (la vision). Ou guider nos membres pour bouger dans cet environnement en gardant l’équilibre et en évitant des obstacles, ou encore comprendre les buts, les objectifs et les états mentaux des entités qui nous entourent en ne se basant que sur des représentations externes (la théorie de l’esprit). Tous ces problèmes ne sont pas triviaux, la plupart sont même impossibles à résoudre sans les connaissances préalables de nombreuses lois physiques qui ont été câblées dans notre cerveau par l’évolution.

Fig 6 : Visualisation de l’activité du cerveau grâce à l’IRM.

Mais ces modules ont une caractéristique particulière : ce sont des boîtes noires, elles n’ont donc pas besoin d’expliquer leur fonctionnement pour réaliser leur tâche. C’est parce que les modules du cerveau sont des boîtes noires que nous avons inventé les scanners IRM, et autres encéphalogrammes, capables de voir notre cerveau en action depuis l’extérieur. Notre cerveau résout en permanence des problèmes d’une complexité incroyable, ce qui nous donne la fausse impression que ces problèmes sont triviaux. D’un autre côté, les ordinateurs résolvent des problèmes de calcul qui nous semblent impossibles. Cette asymétrie nous a systématiquement poussé à surestimer les capacités des ordinateurs et à sous-estimer la complexité des problèmes en intelligence artificielle.

La deuxième raison pour laquelle tant de chercheurs et penseurs se sont trompés est due à la vision mono factorielle que nous avons de l’intelligence. L’interaction de ces modules spécialisés nous fait croire qu’il existe un seul facteur, un principe unique, une seule cause omnipotente permettant d’expliquer notre psyché et d’insuffler le souffle magique de la vie et de la conscience : la puissance de calcul, l’auto-organisation, les réseaux de neurones, la plasticité cérébrale ou encore le nombre de couches dans un réseau (Deep-Learning). Si on peut expliquer l’intelligence par une unique cause, il nous est alors possible de prévoir l’évolution de l’intelligence des machines. C’est ce que fait Laurent Alexandre, partant de l’hypothèse que l’intelligence se résume à un nombre de calculs, il extrapole l’apparition de l’intelligence transversale [18]. Malheureusement, les découvertes en intelligence artificielle, en sciences cognitives et en neurosciences nous montrent qu’un tel facteur miracle n’existe pas et qu’il nous faudra résoudre beaucoup de problèmes d’ingénierie, effectuer une quantité astronomique d’expérience, et comprendre toutes les différentes structures neuronales pour réaliser l’intelligence transversale.

Yann Lecun donne une bonne analogie du futur de l’intelligence artificielle. Dans une de ces interventions, il montre que la recherche en intelligence artificielle est comme une suite de montagnes [4]. Chaque montagne représentant un problème essentiel et difficile que nous devons résoudre pour passer à l’étape suivante. Nous venons actuellement de passer une montagne grâce au Deep-Learning et nous sommes dans une pente remplie d’optimisme et d’espoir. Il est probable que nous devrons bientôt gravir une nouvelle montagne constituée selon certains de l’apprentissage non supervisé (apprendre sans exemple), des systèmes neurosymboliques (raisonner à partir de données floues) ou de neuro-grappes (combinaisons de systèmes d’apprentissage automatique). Mais le point essentiel, c’est que chaque montagne est un faux sommet. Vous connaissez peut-être cette situation où, arrivant au sommet d’une montagne, vous vous rendez compte que ce sommet cachait en fait une montagne encore plus haute. C’est dans cette situation que se trouve la recherche en intelligence artificielle, chaque problème en cache d’autres, nous rendant impossible de prédire la somme de travail restant. Seul le voyage complet nous montrera les difficultés que nous avons à traverser pour comprendre l’intelligence.

Nous ne savons pas ce que l’intelligence artificielle sera capable de réaliser dans le futur, ces réalisations dépendent d’innombrables vicissitudes pratiques et théoriques que nous découvrirons sur le chemin. Ce qui est indiscutable, c’est qu’aucune limite théorique n’empêche la réalisation d’ordinateurs intelligents. En attendant leur apparition, la seule chose que nous pouvons prédire avec certitude, c’est que les futurologues d’aujourd’hui auront l’air bien idiots dans le futur.

Anthropomorphisme

Toute pratique approfondie de l’intelligence artificielle aboutit inévitablement à une terrible conclusion : une “IA”, ça n’existe pas. En effet, l’intelligence artificielle, ce nom désignant un champ de recherche scientifique s’est petit à petit mué en un substantif dénombrable sous l’influence des médias aux titres sensationnalistes. Parler des IAs est devenu indispensable à tout journaliste voulant faire de l’audience facile dans le domaine des technologies. Ainsi, en Espagne, une IA pourrait détecter si vous avez menti par écrit [19]. Une autre IA aurait écouté 15 ans de sons de baleine pour les décoder [20]. En Chine, elle présentera bientôt le journal télévisé, alors que près de chez nous, ces IAs ont déjà commencé à peindre des tableaux vendus dans des galeries d’art [21, 22]. Mieux encore, une IA aurait été engagée par un cabinet d’avocats [23], celle de Google a évidemment vaincu le champion du monde de Go. Une autre aurait écrit le scénario d’un court-métrage alors qu’une autre aurait gagné un concours de littérature. Plusieurs grandes villes aux État-Unis utiliseraient une IA nourrie avec des données statistiques pour lui apprendre à prédire des crimes [24]. Au Japon, une IA aurait été élue au conseil d’administration d’une grande entreprise [25]. Pour finir, cette personnification de l’intelligence artificielle atteignit son pic lorsque le robot Sophia reçut la nationalité saoudienne en octobre 2017, faisant d’elle la première IA à recevoir la citoyenneté d’un pays [26].

Laurent Alexandre va plus loin encore. Ainsi selon lui, l’intelligence artificielle post-2012 s’éduque plus qu’elle ne se programme, mais en plus elle s’éduque en quelques instants alors qu’il faudrait 30 ans pour produire un ingénieur [27, 28]. Mieux encore, on pourrait générer 10’000 IAs afin de les éduquer puis à les sélectionner pour n’en garder que les meilleures et euthanasier les autres [28]. Pour garder le contrôle et éviter que ces IAs deviennent hostiles, il faudrait les éduquer à l’école de l’IA [29] avec des principes moraux en leur faisant lire notre littérature ou encore visionner des films. Mais il faudrait en plus investir dans la psychologie de l’IA [30] pour forcer celles-ci à expliquer leurs décisions [31]. Une fois éduquées, ces IAs pourront trouver des solutions à l’explosion des données, elles comprendront le langage et leurs environnements afin de continuer à se développer elles-même [32].

Dans la vie courante, nous utilisons depuis longtemps ce type de langage anthropomorphique lorsque nous parlons d’ordinateurs. Il est en effet plutôt utile pour expliquer à notre grande mère que l’ordinateur n’imprime pas parce qu’il ne sait pas que nous avons changé d’imprimante, qu’il pense toujours parler à l’imprimante précédente et qu’il essaye d’imprimer un document en demandant à l’imprimante de répondre à ses messages mais qu’il ne comprend pas la réponse. Le programme refuse donc de rendre le contrôle et qu’il faut donc attirer son attention. Une fois que le programme a appris quelle imprimante est connectée, ils peuvent communiquer. Ou encore que ce même ordinateur ne se souvient pas de la fenêtre lorsque nous la fermons ou qu’il oublie un document lorsque nous le mettons à la poubelle. Ce type de langage est utile pour démystifier les mécanismes informatiques et les phénomènes mentaux par des analogies judicieuses. En effet, on peut considérer qu’un ordinateur oublie lorsqu’il efface un élément de sa mémoire, et personne ne croira que son ordinateur de bureau et son imprimante se parlent réellement, mais le fait qu’il y ait un échange d’informations entre les deux rend l’analogie correcte. Cependant, certains de ces éléments de langage peuvent rapidement devenir trompeurs et déconnectés de la réalité.

Fig 7 : Couverture du livre d’Asimov “Le robot qui rêvait”, 1986

Certains des titres du premier paragraphe sont sans importance ou inoffensifs, d’autres sont trompeurs, d’autres encore sont tout simplement faux, tandis que d’autres ne passent même pas au tamis d’un simple fact checking. En effet, une simple vérification permet de voir que l’IA embauchée par un cabinet d’avocats [23] n’est en fait qu’un simple logiciel de recherche d’informations juridiques, que l’IA qui a écrit un scénario n’est qu’un simple programme de génération statistique de texte, et que le robot Sophia [26] est en fait une marionnette dont le programme informatique est similaire aux premiers agents conversationnels développés dans les années 60 qui génère des réponses par substitution.

Qu’en est-il des éléments de langage utilisé par Laurent Alexandre ? Peut-on réellement éduquer une IA [33] ? Selon le Larousse, éduquer consiste à “Former quelqu’un en développant et en épanouissant sa personnalité” ou encore à “Faire acquérir à quelqu’un les usages de la société”. Selon Wikipedia, l’éducation suppose “le développement des facultés intellectuelles, morales et physiques”. En reprenant notre exemple de la boîte à boutons de la section précédente, on peut se rendre compte à quel point affirmer que l’on peut éduquer des algorithmes est éloigné de la réalité. La phase d’apprentissage consiste à appliquer des approximations successives pour paramétrer un modèle mathématique. Ce principe étant très simple et totalement inintelligent, le concept d’apprentissage est beaucoup mieux adapté : “Modifications durables du comportement d’un sujet grâce à des expériences répétées.” La notion d’apprentissage est donc une analogie bien adaptée pour expliquer et démystifier les prouesses des méthodes d’intelligence artificielle sans pour autant tromper le lecteur en lui faisant croire que l’on serait en train d’éduquer une entité personnifiée sous le nom d’IA. L’algorithme n’a en effet pas de personnalité pouvant s’épanouir et encore moins la capacité d’adopter les usages de la société ou de développer ses facultés morales et physiques.

Mais Laurent Alexandre pousse l’anthropomorphisme jusqu’à l’absurde lorsqu’il parle, par exemple, d’intelligences artificielles qui seraient créées par milliers, comme des embryons, puis sélectionnées sur leurs performances, les meilleures étant gardées et les autres euthanasiées [28]. Euthanasier signifie en effet la pratique de provoquer le décès d’un individu atteint d’une maladie. Même si Laurent Alexandre fait référence à des algorithmes effectivement utilisés en intelligence artificielle qui consistent à créer un grand nombre de modèles puis à sélectionner les meilleurs à un banc de test, ces modèles ne sont pas plus euthanasiés lorsqu’ils sont arrêtés que quand vous fermez la fenêtre de votre traitement de texte favori parce qu’il a planté. L’absurde se retrouve également lorsqu’il parle de psychologie de l’intelligence artificielle [30] ou d’école de l’IA [29] faisant un parallèle excessivement exagéré avec l’être humain. Il n’y a en effet pas de psychologie de l’intelligence artificielle, les performances des programmes d’apprentissage automatique n’apparaissant pas par magie mais étant le résultat d’un énorme travail théorique et pratique de modélisation et d’expérimentation, la psychologie de l’intelligence artificielle n’est donc rien d’autre que l’intelligence artificielle elle-même et l’école de l’IA n’est rien d’autre qu’un simple programme informatique.

Les résultats de ces abus de langage se manifestent particulièrement par l’interprétation que font les médias des prouesses de l’intelligence artificielle. Imaginez ce qu’il nous faut pour construire AlphaGo, il nous faut premièrement construire un ordinateur assez puissant, ce qui nécessite le développement entier des technologies de processeurs et d’électroniques et de toute leur dépendance. Mais aussi le développement des langages de programmation avancés et des techniques mathématiques liés à l’intelligence artificielle. Pour soutenir l’ingénierie, il faut l’appui de tous les corps de métier, des techniciens informatiques aux femmes de ménage en passant par des comptables et des managers, mais aussi d’une économie développée capable de fournir les produits et les services nécessaires à la vie de tous ces travailleurs.

Le succès d’AlphaGo est donc avant tout le succès des ingénieurs de Google Deep Mind, de la communauté scientifique, des acteurs industriels, et in fine, celui du cerveau humain. Ce sont donc surtout  ces ingénieurs qui ont battu le champion du monde de Go, avec la contrainte importante de ne pas être présent lors du match et d’automatiser les prises de décisions dans une machine, ce qui est une prouesse de taille. Ce principe s’applique, je pense, à toutes les réussites actuelles de l’intelligence artificielle. Les IAs n’existent donc pour l’instant pas, pas plus que leur psychologie, que leur école, ou que la possibilité de les euthanasier. Il n’y a pas d’IA, il n’y a que des humains. Que ce soit chez les spécialistes ou chez les chercheurs, personne ne parle d’IAs et de leur éducation, et certains n’utilisent le terme d’intelligence artificielle que lors de discussions avec des spécialistes, ce terme portant trop d’a priori dans le grand public.

Mais pourquoi pointer ces éléments de langage trompeur ? Quels peuvent être leurs impacts ? Le premier et le plus important, c’est celui de participer à la bulle et à la surenchère qui se développe autour de l’intelligence artificielle. Ces attentes irréalistes pourraient rapidement nous faire retourner dans un hiver de l’intelligence artificielle comme dans les années 70 et 80, mettant les recherches en difficulté. Même si les découvertes actuelles nous ont donné assez de travail pour les 10 prochaines années, le développement de l’intelligence artificielle et ses fruits ne pourront être accessibles sans des sources de financement importantes.

Le deuxième, c’est de déformer la vision des observateurs sur ce domaine de recherche, faisant croire à monsieur tout le monde que l’intelligence artificielle forte est à nos portes et qu’une horde d’IAs réside dans le cloud n’attendant qu’une étincelle pour prendre le contrôle. Cette déformation est un fléau dont l’intelligence artificielle souffre en permanence et ces abus de langage en sont en partie responsables.

Le démon dans la Machine

Prenez un journaliste, un futurologue, un chef d’entreprise et une personnalité politique, placez-les dans une salle afin d’y débattre d’intelligence artificielle. Qu’obtenez-vous ? La somme de toutes les peurs. Une nouvelle peur a fait son apparition ces dernières décennies dans la sphère philosophique humaine, et plus particulièrement depuis quelques années, qui est une version moderne du mythe du Golem et de la créature de Frankenstein. Cette nouvelle phobie est incarnée dans la culture populaire par des intelligences artificielles comme HAL9000 ou Skynet. Créées par l’être humain, celui-ci perd le contrôle sur sa création, le menant à sa perte. Sommes-nous donc à l’aube de nous faire remplacer, voire détruits par des machines intelligentes ?

Selon Laurent Alexandre, le développement d’intelligence artificielle forte est possible, voire probable [8]. L’intelligence artificielle forte désigne une IA qui possèderait une conscience d’elle-même. Selon Ray Kurzweil, celle-ci devrait apparaître vers 2045 [9] et mener à la singularité, un emballement de la croissance technologique où l’intelligence artificielle devient la seule source de progrès en s’auto-améliorant. Lors d’une étude prédisant l’avènement de l’intelligence artificielle forte pour 2065, Elon Musk répondit sur Twitter qu’elle apparaîtrait plutôt vers 2030 ou 2040 [10]. Selon Laurent Alexandre, une IA forte pourrait développer ses propres buts et nous voir comme un danger. Nous devrions alors réfléchir à inculquer aux IAs des principes moraux [33] ou à intégrer des règles de protection, comme les trois lois d’Asimov [34], peut-être directement dans les processeurs [35]. Mais existe-t-il une force de l’univers poussant toute entité intelligente vers la malveillance ou l’agressivité, qui rendrait indispensable l’intégration de ce type de lois afin que ces entités puissent y résister ? Selon Laurent Alexandre, répondre par l’affirmative n’est pas du sensationnalisme à bon compte, mais une question de logique et d’observations [36].

Fig 8 : Évolution de la puissance de calcul des ordinateurs.

L’argument principal de Laurent Alexandre, de Kurzweil et de Musk repose sur l’augmentation de la puissance de calcul. L’intelligence se résumerait à une quantité de calcul alors que la puissance des ordinateurs a été multipliée par 100 millions de milliards en 80 ans et augmente exponentiellement. C’est ce qu’exprime la loi de Moore, qui stipule que la puissance des ordinateurs est multipliée par deux tous les 18 mois. Ainsi, la puissance des ordinateurs devrait dépasser celle du cerveau humain d’ici 2029, selon Ray Kurzweil [17]. C’est à partir de ce moment-là que les machines devraient être capables de déterminer leurs propres objectifs et ainsi de se reprogrammer. Mais est-il suffisant de rassembler une certaine puissance de calcul pour faire apparaître l’intelligence ?

L’être humain est le résultat de milliards d’années d’évolution et les neurosciences montrent que le cerveau humain est une machine biologique extrêmement sophistiquée qui possède de nombreuses zones corticales dédiées à des tâches différentes. Contrairement à ce qu’affirme Laurent Alexandre, le cerveau n’est pas qu’une masse informe de neurones sans structure [37] et l’intelligence ne peut se résumer à un facteur omnipotent comme la plasticité cérébrale. Notre intelligence est donc le résultat d’une structure bien particulière qui a été créée par une somme inimaginable d’essais et d’erreurs réalisés par sélection naturelle. En conséquent, l’intelligence ne vient pas librement avec la puissance de calcul mais doit être programmée toute comme la vision ou le sens commun. Prenez votre traitement de texte favoris, faites le tourner sur un ordinateur des milliards de fois plus puissant que le vôtre et il continuera à remplir des paragraphes et à corriger vos erreurs d’orthographe sans montrer aucun signe d’intelligence.

Un second point qui met en doute la théorie de la puissance de calcul comme seul facteur de l’intelligence, c’est que la complexité des problèmes auxquels nous avons à faire face augmente aussi de façon exponentielle. Prenez les échecs par exemple, à chaque étape il y a en moyenne 30 coups jouables. Si vous voulez créer un programme qui calcule tous les résultats possibles à une certaine étape, vous aurez 30 coups possibles à explorer. Mais c’est à ce moment qu’un problème survient, vous devrez ensuite explorer les différents coups jouables pour les étapes suivantes. Pour prévoir deux coups à l’avance, il y a donc 30 fois 30 états possibles à explorer (900), et ainsi de suite. Le nombre de combinaisons possibles augmente exponentiellement avec le nombre de coups que nous voulons prévoir. C’est la fameuse explosion combinatoire vue précédemment et elle rend la simple puissance de calcul bien inefficace. Augmenter la puissance des ordinateurs ? Vous ne ferez que repousser le problème. Pour éviter cette explosion, il nous faut trouver des astuces, des sortes de raccourcis, pour réduire le nombre d’opérations. La nature est remplie de ce type de problème difficile et nous n’avons d’autres choix que de comprendre ces problèmes d’un point de vue mathématique et logique. La puissance de calcul est une condition nécessaire mais pas suffisante pour les résoudre. C’est tout le but de la science computationnelle et de l’intelligence artificielle.

Fig 9 : L’intérieur d’un Tokamak.

Une analogie simple permet de faire un parallèle entre la vision erronée proposée par Laurent Alexandre et une autre approche plus adaptée. Cette analogie c’est celle de la fission et de la fusion nucléaire. En effet, la vision de l’intelligence que propose Laurent Alexandre ressemble à la fission nucléaire, cette réaction qui a lieu dans les réacteurs nucléaires actuels. Dans ces centrales, du combustible nucléaire est rassemblé dans un espace confiné qui est utilisé comme chaudière. Le rassemblement d’une telle quantité de matière permet la production d’une grande quantité d’énergie, mais mal refroidie cette matière peut provoquer une fusion du noyau et leur système peut devenir hors de contrôle. Tous les efforts technologiques consistent à mettre en place des moyens de contrôler cette réaction pour qu’elle ne s’emballe pas.

Cependant, le fonctionnement de l’intelligence est plus proche de celui d’un réacteur à fusion nucléaire. Ce type de réacteur qui est la cible de nombreuses recherches consiste à reproduire les réactions nucléaires qui se produisent dans le soleil. Pour cela, une des solutions consiste à construire ce que les physiciens ont appelé un tokamak. Dans ces machines, de l’hydrogène est chauffé jusqu’à plusieurs millions de degrés et confiné dans une espace grâce à de gigantesques aimants. La réaction ne peut s’emballer car toute déviation de l’état de stabilité l’interromprait immédiatement.

Malheureusement, d’innombrables conditions sont nécessaires pour que ces réactions puissent se faire. Il faut tout d’abord comprendre un quatrième état de la matière appelé plasma et la façon dont il réagit aux champs magnétiques. Il faut encore développer les matériaux nécessaires ainsi que toute l’ingénierie qui va avec. Les conditions étant tellement drastiques et le nombre de paramètres possibles tellement énorme, il nous faudra plusieurs dizaines d’années pour créer ces technologies et acquérir les connaissances nécessaires. Sans ce développement et cette connaissance, la fusion restera à toujours inaccessible. Il en va de même pour l’intelligence artificielle générale, nous ne pouvons créer des machines plus intelligentes sans une totale et profonde compréhension de l’intelligence elle-même car les conditions de son apparition sont très improbables et ne sont pas basées sur un facteur simple, omnipotent et inéluctable.

Parti donc du principe erroné que la puissance de calcul explique l’intelligence, Laurent Alexandre en déduit que les programmes d’intelligence artificielle deviennent de plus en plus intelligents à mesure que la puissance des ordinateurs augmente, nous rendant dépourvus face à eux et incapables de les comprendre, ces algorithmes devenant opaques (des boîtes noires) [38]. Les algorithmes d’intelligence artificielle deviennent-ils donc de plus en plus incompréhensibles ?

Avant de répondre à cette question, il faut d’abord faire la différence entre les algorithmes utilisés en intelligence artificielle, et les modèles eux-même. Les algorithmes sont l’équivalent de la marche à suivre pour tourner les boutons pendant la phase d’apprentissage dans l’exemple de la section précédente. Les modèles eux sont plus semblables à ce qu’il y a dans la boîte. Les algorithmes restent les mêmes (ce sont des variétés autour d’un principe semblable), les modèles eux changent des fois complètement. Contrairement à ce qu’affirme Laurent Alexandre, les algorithmes sont très bien compris car ils sont en fait assez simples [39]. Les bases théoriques des modèles sont eux étudiés depuis des décennies et nous comprenons donc bien leurs principes mathématiques.

La seule ombre au tableau, c’est que ces modèles sont des boîtes noires, c’est-à-dire qu’elles ne fournissent pas de justification avec leurs décisions, tout comme les modules de notre cerveau. La différence entre nos modules et ceux de l’intelligence artificielle, c’est que nous exigeons des modèles en intelligence artificielle que leurs décisions puissent être justifiées et expliquées. Dans de nombreux domaines, comme le domaine juridique, la finance ou la médecine, cette justification est indispensable pour repérer d’éventuelles erreurs fatales. Qu’est-ce qui rend ces modèles opaques ? C’est le simple fait que la cause de la décision finale est distribuée sur l’énorme ensemble d’unités qui composent les modèles. Cependant, des techniques permettant d’analyser et de justifier les décisions de réseaux de neurones artificiels sont déjà bien au point et la cible de nombreuses recherches dans le domaine de l’intelligence artificielle. Expliquer ces techniques sortirait du champs d’action de cet article, mais ce qu’il faut garder en tête, c’est, premièrement, que ce problème est en passe d’être résolu, et deuxièmement, que ce n’est pas un problème inhérent aux modèles utilisés. Ce problème n’est donc pas, comme l’affirme Laurent Alexandre, une cause possible de perte de contrôle de l’intelligence artificielle dans le futur.

Un autre problème soulevé par Laurent Alexandre serait celui de l’asymétrie d’information entre le cerveau humain et les algorithmes d’intelligence artificielle [40]. Le cerveau humain, grâce aux techniques d’imagerie cérébrale, pourrait être complètement analysé et prédictible, pendant ce temps, l’intelligence artificielle deviendrait opaque et inintelligible, augmentant encore plus notre impuissance face à elle. Cette impuissance serait renforcée par la puissance supérieure du transistor sur le neurone. Nous avons déjà mis en doute l’opacité des modèles d’intelligence artificielle, mettons maintenant en perspective la prédictibilité du cerveau humain.

Le cerveau humain est composé de presque 100 milliards de neurones, chaque neurone serait capable d’établir jusqu’à 10’000 connexions, pour un nombre de connexions potentielles d’1 million de milliards. Ce nombre est tout simplement astronomique. Mais la force du neurone c’est qu’il est analogique, cela signifie que chaque neurone a un nombre infini et continu d’états possibles, contrairement au transistor qui ne possède que deux états, vrai ou faux. Alliée à l’énorme quantité de connexions dans le cerveau humain (ce que nous appelons en informatique le facteur de branchement), chaque petite différence de potentiel peut possiblement avoir un impact énorme sur les états futurs des autres neurones et donc du cerveau tout entier. Or, tout équipement de mesure a une précision limitée, augmentez cette précision, vous ne ferez que repousser l’échéance face à l’impact des petites déviations. Nous pouvons donc voir le fonctionnement du cerveau, analyser son fonctionnement et utiliser des appareils de mesure pour voir à l’intérieur de nos boîtes noires, mais il paraît très improbable de prédire parfaitement le fonctionnement d’une entité aussi complexe que le cerveau humain.

D’un autre côté, le transistor, et donc les ordinateurs, est déterministe. Rejouez le même algorithme avec les mêmes données et les mêmes paramètres et vous obtiendrez le même résultat. De plus, le transistor est beaucoup moins puissant que le neurone. Il ne calcule qu’une fonction simple là où le neurone calcule une fonction beaucoup plus complexe qui prend en compte non seulement le présent mais aussi le passé. Il est aussi capable de modifier la structure des calculs effectués en modifiant ses connexions aux autres neurones. Pour égaler la puissance et la souplesse d’un seul neurone, vous aurez donc besoin d’une énorme quantité de transistors.

Fig 10 : Prototype d’un ordinateur neuromorphique photonique (Université de Bourgogne Franche-Comté).

De plus, le neurone artificiel est une version simplifiée des vrais neurones. Yann Lecun donne là aussi une analogie intéressante, le neurone artificiel est au neurone naturel ce que l’aile d’un avion est à l’aile des oiseaux. L’aile de l’avion est rigide, fait pour de grandes vitesses, et ne possède pas de plumes ni de muscles. Mais se sont bien les mêmes principes physiques qui sous-tendent les deux et qui permettent aux avions comme aux oiseaux de voler. L’asymétrie prédite par Laurent Alexandre est donc bien difficile à justifier. Comment une version simplifiée et déterministe pourrait-elle être plus opaque et imprévisible que sa version plus complexe et plus chaotique ? C’est à cause de toutes ces limites que les recherches se sont orientées vers de nouveaux types d’ordinateurs dits neuromorphiques [41], non plus basés sur le transistor mais sur la photonique ou sur le carbone, et capables de la même souplesse que nos neurones. L’asymétrie est donc bien inversée, car le cerveau humain restera pour longtemps encore opaque et imprévisible pour nos futurs compagnons de métal.

Si la puissance de calcul ne peut nous aider à créer de l’intelligence artificielle et que la difficulté des problèmes d’ingénierie croît exponentiellement, nous pouvons alors conclure une chose. C’est que nous ne pouvons créer plus d’intelligence artificielle sans une somme exponentielle d’intelligence humaine. La compréhension de l’intelligence précédant la création de l’intelligence artificielle, cette dernière ne peut se développer sans un travail acharné de différents corps de métier extrêmement spécialisés. Ces conclusions vont à contre-pieds de la version de Laurent Alexandre où l’intelligence artificielle se développe d’elle-même grâce à un facteur omnipotent sous les yeux incrédules et sous l’incompréhension de l’être humain, incapable d’en garder le contrôle. Au contraire, si nous construisons des machines très intelligentes dans le futur, ce ne sera qu’avec une profonde compréhension de leurs principes et de leurs mécanismes.

Imaginons qu’après tant de travail, de papiers publiés et d’argent dépensé, nous soyons capables de créer cette intelligence artificielle forte tant attendue. Devenue libre et consciente d’elle-même, serait-elle alors hostile ou pacifiste ? Développant ses propres objectifs, n’essayerait-elle pas de nous échapper ? Ne nous verrait-elle pas comme un danger, ou comme une peuplade à asservir ? La première question à se poser est : pourquoi  voudrait-elle cela ?

En effet, l’univers impose-t-il aux créatures intelligentes de devenir malveillantes ou obsédées par leurs survies ? Les images de robots fonçant contre un mur ou tombant malencontreusement nous montrent une chose, c’est que l’instinct de survie ne va pas de soi, comme tous les comportements complexes il doit être prévu et voulu par les concepteurs. Qu’en est-il de l’agressivité ? Les êtres intelligents développent-ils obligatoirement des problèmes de comportements ? Blasés que nous sommes par notre vie mentale et aveuglés par notre impression de libre arbitre, nous considérons les prouesses faites par notre cerveau comme acquises et allant de soi. Mais l’agressivité, tout comme la vision, le sens commun, l’attirance, l’amour, la courtoisie, l’attachement, la jalousie, le romantisme ou la timidité, a une logique propre qui en fait un problème d’ingénierie très difficile. Combien des lignes de code, combien de données, de temps d’apprentissage, de neurones artificiels et d’expériences pour reproduire ces caractères complexes de la nature humaine ?

Vous l’aurez compris, tout comme l’instinct de survie, l’agressivité ne peut apparaître par hasard et nécessite une quantité énorme de travail et donc une volonté claire de la part des concepteurs. Ces deux exemples sont en fait caractéristique d’une erreur récurrente sur l’intelligence artificielle qui prend son origine dans une conception floue de l’intelligence. L’être humain ayant un instinct de survie, de protection de son territoire et de vengeance, toute entité intelligente devrait en être également muni. Cependant, ces caractéristiques sont un produit de la sélection naturelle darwinienne qui un processus basé sur la compétition et la victoire du mieux adapté. Notre besoin de libre arbitre et d’être libres de nos choix nous donne ensuite l’illusion que ces comportements sont inéluctables.

Fig 11 : Les deux ordinateurs Colossus et Guardian communiquant dans Colossus : The Forbidden Project, 1970.

Le psycholinguiste Steven Pinker donne dans son dernier livre Le Triomphe des Lumières un exemple démontrant pourquoi ce type de raisonnement est absurde. En effet, redouter que les machines reproduisent nos comportements d’agressivité et de domination est tout aussi idiot que de redouter que les avions se mettent à attaquer notre bétail parce que leurs capacités à voler a surpassé celle des oiseaux. Cette erreur classique consiste à confondre l’intelligence et les objectifs. L’intelligence est la capacité à surmonter des obstacles en développant des solutions novatrices afin d’atteindre un objectif. Mais l’intelligence et les objectifs sont totalement indépendants et être intelligent ne signifie pas que l’on désire quelque chose en particulier. Une intelligence artificielle forte pourrait donc être supérieurement intelligente et pourtant entièrement dévouée à l’humanité. Il nous est presque impossible de sortir de nos schémas de pensée pour nous mettre à la place d’une telle entité, mais ce que nous pouvons comprendre c’est qu’aucune loi des systèmes complexes ne stipule que des agents dotés d’intelligences doivent obligatoirement devenir hostiles.

Mais qu’en est-il d’une intelligence forte capable de définir ses propres objectifs, d’apprendre et donc d’être libre, comme le suggère Laurent Alexandre ? Ne pourrait-elle pas nous échapper une fois libre de décider par elle-même ? Ce raisonnement est basé lui aussi sur un concept flou souvent exprimé de la sorte : décider de ses propres objectifs, apprendre par soi-même, avoir une volonté libre. Seulement, décider de chercher un nouvel objectif est un objectif en soi. La chaîne des causes et des conséquences fait que la prise de décision se fait sur un code, des données et un apprentissage préexistant. Une intelligence artificielle assez avancée pourrait chercher des sous objectifs nécessaires à l’accomplissement d’un objectif principal, mais le changement de l’objectif principal est lui-même un comportement complexe nécessitant une volonté du concepteur. Chez l’être humain, cet objectif suprême est incarné par le système de récompense et est le résultat de l’évolution darwinienne.

Pour introduire une modification soudaine et inattendue de l’objectif final, il faut ajouter un ingrédient bien particulier : un esprit immatériel. Cette théorie a été popularisée par Descartes  et affirme que l’esprit et la matière sont deux éléments radicalement différents qui communiquent pas la glande pinéale. Cette théorie a été ridiculisée par le philosophe Gilbert Ryle en la surnommant le doctrine du Fantôme dans la Machine (Ghost in the Shell). La vision que nous donne Laurent Alexandre dans La guerre des intelligences est donc purement spiritualiste puisqu’elle suppose l’existence d’une volonté libre de toutes contingences physiques et réelles et une capacité de s’autodéterminer à partir de rien. Mais plus que cela, en propageant une vision de l’agressivité, de la dominance et de la malveillance comme forces mystérieuses et  indépendantes pouvant prendre possession d’entités intelligentes, Laurent Alexandre, Musk et Kurzweil se constituent en fait comme de fervents défenseurs du plus pur romantisme spiritualiste.

Cette doctrine d’un mal inéluctable, ou même probable, qui atteindrait toute entité dotée d’intelligence pourrait  être dénommée la doctrine du Démon dans la Machine. Je prendrai un exemple trouvé dans le livre de Laurent Alexandre [42] qui montre, selon moi, l’influence importante de cette doctrine dans les réflexions actuelles sur l’intelligence artificielle : Google aurait conçu en 2016 un “bouton rouge” pour désactiver une IA dangereuse et hostile. Si même Google développe un bouton rouge en cas de problème, n’est-ce pas la preuve que l’intelligence artificielle peut devenir hors de contrôle ?

Heureusement, la transparence scientifique nous donne la possibilité d’accéder directement au papier original de ce travail (Safely Interruptible Agents). Que montre-t-il ? Premièrement, que le sens de l’expression  “bouton rouge” a été fortement déformé par les médias et que celui-ci n’est pas plus destiné à reprendre le contrôle d’une IA hostile que le bouton rouge d’un élévateur n’est destiné à être une camisole de force pour un monte-charges mécontent de son sort. Le travail de Google Deep Mind consistait à répondre à un problème simple concernant des agents (logiciel ou robot) placés dans un environnement et apprenant à partir de récompenses et de punitions (ce qu’on appelle le Reinforcement Learning).

Si un tel agent opère en temps réel sous la supervision d’un humain, à certains moments, il pourrait être nécessaire de presser le “grand bouton rouge” pour empêcher l’agent de continuer dans une séquence d’action qui pourrait être nocive pour lui, ou pour son environnement, et le placer dans une situation plus sûre. Regarder à nouveau des vidéos de robots évoluant dans un environnement, même simple, et vous comprendrez pourquoi. Cependant, si l’agent s’attend à recevoir une récompense de cette séquence, il pourrait, dans le long terme, apprendre à désactiver ce bouton qui est en soi un résultat éloigné du but recherché. Google a donc développé une méthode mathématique définissant l’“interruptibilité sûre” et montre que certaines méthodes d’intelligence artificielle ont déjà cette propriété et que les autres peuvent le devenir très simplement.

L’interruptibilité sûre définit une méthode d’apprentissage qui peut être interrompue sans biaiser l’apprentissage. Ce bouton rouge a donc comme but de garantir l’apprentissage en cas d’interruption et non de reprendre le contrôle en cas de scénario Skynet. Deuxièmement, l’article montre que ce bouton rouge est conçu non pas parce que les agents font preuve d’un excès d’intelligence, mais au contraire parce qu’ils sont trop bêtes, incapables de discerner les actions correctes des nocives. À nouveau, un certain nombre de médias, de futurologues (dont Laurent Alexandre), d’évangélistes de la tech et autres commentateurs se sont empressé de faire un point Skynet, pensant que le diable dans la machine était sur le point de nous sauter au visage et qu’il fallait donc lui construire une prison de haute sécurité au plus vite.

Si l’agressivité et la dominance n’apparaissent pas par hasard, il est logique de penser qu’il en va de même pour la bonté et l’altruisme. Selon Laurent Alexandre, il faudrait donc inculquer des règles morales aux machines [33], des initiatives allant déjà dans ce sens comme l’entreprise GoodAI de Marek Rosa ou OpenAI d’Elon Musk. Comment inculquer des principes moraux aux machines ? La réponse la plus souvent citée est celle de l’écrivain de science-fiction Isaac Asimov. Au début des années 40, Isaac Asimov se mit à écrire des nouvelles de science-fiction et définit trois règles simples que tout robot devrait suivre :

  1. Première loi : un robot n’a pas le droit de faire du mal à un humain et ne peut rester passif devant un humain en danger;
  2. Deuxième loi : un robot doit obéir aux ordres des humains, sauf si ces ordres sont en contradiction avec la première loi;
  3. Troisième loi : un robot doit protéger sa propre existence, dans la mesure où cette protection n’est pas en contradiction avec les deux premières lois;

Selon Laurent Alexandre, ces trois règles sont nécessaires pour garder le contrôle sur une IA devenue forte, elles devraient même être gravées directement sur les CPUs. L’interprétation donnée par Laurent Alexandre est donc celle d’une cage supplémentaire, gravée sur les puces pour être inviolable, empêchant le diable dans la machine de sortir. Mais en lisant Isaac Asimov, il est facile de se rendre compte que cette interprétation purement faustienne des règles de la robotique va totalement à l’encontre du sens que leur donnait Asimov. Dans sa préface à la nouvelle Robbie, il écrit :

L’un des thèmes clés de la science-fiction des années 20 était l’invention du robot – que l’on décrivait généralement comme une créature de métal sans âme et dépourvue de toute faculté d’émotion. Sous l’influence des exploits bien connus et du destin ultime de Frankenstein et de Rossum, une seule trame semblait désormais possible à l’exclusion de toute autre : des robots étaient créés et détruisaient leur créateur.

Dans les années 30, je devins lecteur de science-fiction et je me lassai rapidement de cette histoire inlassablement répétée. Puisque je m’intéressais à la science, je me rebellai contre cette interprétation purement faustienne de la science.

On munit le couteau d’un manche pour pouvoir le manipuler sans crainte, on adjoint une rambarde à l’escalier, on isole le fil électrique, on pourvoit l’autocuiseur de sa soupape de sûreté – dans tout ce qu’il crée, l’homme cherche à réduire le danger. Il arrive que la sécurité obtenue reste insuffisante en raison des limitations imposées par la nature de l’univers ou celle de l’esprit humain. Néanmoins, l’effort a été fait.

Considérons le robot simplement comme un dispositif de plus. Il ne constitue pas une invasion sacrilège du domaine du Tout-Puissant, ni plus ni moins que le premier appareil venu. En tant que machine, un robot comportera sans doute des dispositifs de sécurité aussi complets que possible. Si les robots sont si perfectionnés qu’ils peuvent imiter le processus de la pensée humaine, c’est que la nature de ce processus aura été conçue par des ingénieurs humains qui y auront incorporé des dispositifs de sécurité. Celle-ci ne sera peut-être pas parfaite. Cependant elle sera aussi complète que les hommes pourront la réaliser.

Pénétré de tous ces principes, je commençai, en 1940, à écrire des histoires de robots de mon cru… Jamais, au grand jamais, un de mes robots ne se retournait stupidement contre son créateur sans autre dessein que de démontrer pour la énième fois la faute et le châtiment de Faust.

Sottises ! Mes robots étaient des engins conçus par des ingénieurs et non des pseudo-humains créés par des blasphémateurs. Mes robots réagissaient selon les règles logiques implémentées dans leurs “cerveaux” au moment de leur construction.

Asimov posait en fait sur l’intelligence artificielle un regard d’ingénieur. L’intelligence artificielle et la robotique étaient pour lui des technologies comme les autres. Elles doivent répondre à des critères de sûreté et sont donc testées avec une grande rigueur afin d’être améliorées continuellement. Bien sûr, le développement de méthodes permettant de garantir la sûreté de programmes intelligents va être nécessaire mais il en est de même pour toute technologie. Personne dans le domaine du génie civil ne parle de construire des immeubles qui ne s’écroulent pas, on appelle juste cela construire des immeubles. De la même manière, l’intelligence artificielle bénéfique plutôt que dangereuse n’est rien d’autre que l’intelligence artificielle elle-même.

En opposition à cette vision d’ingénieur, Laurent Alexandre a un argument : le développement de l’intelligence artificielle serait un équilibre de Nash [43]. Un équilibre de Nash est l’état d’un jeu où les agents appliquent la meilleure stratégie compte tenu du choix des autres. Tout agent changeant sa stratégie verra baisser ses gains et le jeu atteindra donc un niveau d’équilibre. Dans le développement de l’intelligence artificielle, cet équilibre verrait chaque équipe tenter d’atteindre l’intelligence artificielle forte la première, toute équipe voulant placer des dispositifs de sécurité serait sûre d’échouer. Laurent Alexandre donne deux exemples d’un tel équilibre [44] : la course à l’armement nucléaire et la conquête spatiale. Ces équipes seront de plus poussées à créer une intelligence artificielle forte par les transhumanistes et leur soif d’immortalité.

Mais à y regarder de plus près, ces deux exemples nous montrent une conclusion alternative : la course à l’espace et la recherche sur l’énergie nucléaire sont aujourd’hui des projets basés sur une grande coopération entre les nations. Les États-Unis ont pu conquérir l’espace proche et la Lune parce qu’ils représentaient des objectifs atteignables pour une seule équipe, mais l’objectif actuel qui est la conquête de Mars demande de telles ressources intellectuelles et économiques que toutes les nations engagées dans des projets spatiaux se sont alliées pour construire la station spatiale internationale. Dans la recherche nucléaire, un projet comme ITER (fusion nucléaire), le plus grand projet scientifique mondial, associe 35 pays dont trois sont fortement en concurrence : les États-Unis, la Russie et la Chine. Bien sûr, ces projets sont basés sur un mélange de coopération et de compétition, des acteurs privés comme Space X étant en concurrence avec d’autres comme Blue Origin ou Ariane Space. Tous ces acteurs vont-ils négliger la sécurité au profit de l’argent ou de la compétition ? L’évolution de l’importance que nos sociétés donnent à la sécurité est une bonne indication. Le graphique suivant présente le nombre de morts par chutes, feux, noyades et intoxications depuis 1910 jusqu’à aujourd’hui aux États-Unis.

Fig 12 : Évolution de la mortalité liée aux accidents, National Safety Council 2016.

Nos sociétés accordent de plus en plus de place à la sécurité. Les ingénieurs en sûreté gardent des statistiques très précises sur le nombre de morts par classes et sous-classes d’accidents afin de les réduire. Les analyses faites à partir de ces mesures sont ensuite utilisées pour édicter des lois et des normes. La seule courbe augmentante est celle des empoisonnements, qui correspond en fait à celle des overdoses médicamenteuses. Les exemples de la sécurité routière et de l’aviation sont très parlants. Chaque accident est analysé, chaque nouveauté testée et toute mise sur le marché fait l’objet d’innombrables tests de sécurité. Pourquoi l’intelligence artificielle échapperait-elle à cette tendance ?

Même le fantasque Elon Musk base son argumentaire de vente de ses Tesla principalement sur la sûreté de ses véhicules. Même avec sa volonté quasi mégalomane d’aller sur Mars, la sensibilité de son audimat à la sécurité fait qu’il ne pourrait jamais se permettre de perdre des astronautes en route comme lors de la conquête de la Lune dans les années 60. Le premier élément est donc qu’aucun acteur du monde de l’intelligence n’a avantage à laisser de côté les questions de sécurité. Le deuxième, c’est que le défi que pose l’intelligence artificielle est trop important pour une seule équipe. L’équilibre de Nash semble donc être inversé, tout acteur ne jouant pas le jeu de la coopération et de la sécurité se verrait immédiatement sanctionné. Laurent Alexandre pense le développement de l’intelligence avec la mentalité des années 60.

Muni de notre imagination, posons l’hypothèse qu’un transhumaniste mégalomane engage toute sa puissance d’économique pour créer une intelligence artificielle forte capable de vaincre la mort sans aucune considération de sécurité. Imaginons encore que cette IA s’auto-améliorerait grâce à sa superintelligence, nous laissant impuissants et simples spectateurs. Une autre erreur sur l’intelligence artificielle est celle qui consiste à voir l’intelligence comme une entité magique capable de tout réaliser. C’est cette erreur qui pousse Laurent Alexandre à poser la possibilité d’un scénario où nous ferions face à une IA omnisciente, omnipotente et distribuée, donc insaisissable [45]. Mais cette singularité n’a pas plus de sens que le fameux démon de Laplace :

Une intelligence qui, à un instant donné, connaîtrait toutes les forces dont la nature est animée et la situation respective des êtres qui la composent, si d’ailleurs elle était suffisamment vaste pour soumettre ces données à l’analyse, embrasserait dans la même formule les mouvements des plus grands corps de l’univers et ceux du plus léger atome ; rien ne serait incertain pour elle, et l’avenir, comme le passé, serait présent à ses yeux.

Mais toute intelligence à la volonté démiurgique ne peut avoir un impact sur le monde sans d’abord acquérir de l’information sur le problème à résoudre. Malheureusement, la loi de Moore ne s’applique pas à la compréhension, pour résoudre un problème il faut tester des hypothèses dans la réalité et non pas simplement faire tourner un algorithme le plus vite possible. Mais le Big Data alors ? Cette grosse masse de données devrait pouvoir tout résoudre ? Malheureusement, Big Data n’est pas Infinite Data, la quantité d’informations disponibles directement à travers les réseaux est finie alors que l’espace des connaissances est infinie. Il n’y aura donc jamais assez de données sur internet pour nous détacher complètement du réel. Ce simple constat rend l’apparition d’une singularité technologique bien improbable.

Une fois écartées les hypothèses du démon dans la machine et de l’IA créée par des mégalomanes transhumanistes, quel scénario reste-t-il ? Celui où une intelligence artificielle se voit confier une mission qu’elle prendrait au pied de la lettre, sans préoccupation pour nos autres intérêts. L’exemple le plus connu est celui donné par Nick Bostrom, professeur à Oxford, où une intelligence artificielle est créée pour produire des trombones et se met donc à transformer toute la matière disponible en petites pièces de métal. Ce problème est désigné par les penseurs de l’intelligence artificielle sous le nom de problème de l’alignement des valeurs. Comment garantir que les valeurs d’une intelligence artificielle soient en alignement avec les nôtres ?

Une simple analyse logique permet de mettre en lumière l’incohérence d’un tel scénario. En effet, il présuppose deux choses. Premièrement, des ingénieurs assez doués et intelligents pour casser le code de l’intelligence et produire une intelligence artificielle assez intelligente pour régler un problème d’une complexité énorme. Et deuxièmement, que ces ingénieurs seraient assez stupides pour donner les clés du monde à une telle IA sans tester son fonctionnement d’abord. De plus, cette intelligence artificielle serait en même temps assez intelligente pour nous mettre en échec face à sa production insoutenable de trombone, mais assez stupide pour ne pas comprendre un simple objectif et les contraintes qui vont avec.

Imaginez-vous en train de confier une mission d’une importance énorme à quelqu’un, comme celle de garantir la sécurité de la planète. Maintenant imaginez que cette personne vous propose comme solution d’exterminer l’humanité, que penseriez-vous d’elle ? Vous conclurez probablement que cette personne ne brille pas par son intelligence. Et vous auriez raison, l’intelligence suppose de comprendre un objectif et les contraintes qui vont avec, tout en résolvant des contradictions logiques. On pourrait donc au moins attendre d’un programme doté du service minimal en matière d’intelligence qu’il nous pose une simple question : qu’entendez-vous par “sauver la planète” ?

Malheureusement pour les chercheurs en intelligence artificielle, ce scénario absurde est bien cité comme exemple de dangers potentiels de l’intelligence artificielle par des têtes d’affiche de l’éthique de l’IA comme Laurent Alexandre [46] ou Nick Bostrom.

D’un côté plus pragmatique, il est évident que l’intelligence artificielle et la robotique ont la capacité d’automatiser un certain nombre de tâches. Il faudra donc utiliser toute notre ingéniosité pour trouver des solutions concrètes à ces problèmes. Cependant, gardons en tête que l’être humain restera l’ordinateur ayant le meilleur rapport coût-puissance pour encore quelques décennies. Mais au-delà, ne nous dirigeons-nous pas vers un monde sans travail ? Où tous les emplois seront pris par des robots et des intelligences artificielles.

En effet, une fois l’intelligence des machines augmentant et devenant plus générale, celles-ci devraient être en mesure de prendre même les emplois les plus qualifiés. Mais des programmes possédant une intelligence totalement générale semblable à l’être humain, c’est-à-dire capable de s’attaquer à n’importe quel problème sont-ils vraiment souhaitables ? Il existe un théorème bien connu de tous les chercheurs en apprentissage automatique dénommé le théorème du “no free lunch” (pas de buffet à volonté). Ce théorème stipule qu’un modèle ayant de bonnes performances sur certains types de problème sera moins performant en moyenne sur d’autres types de problèmes. Il n’y a donc pas d’algorithme qui fonctionne bien sur tous les types de problèmes.

Fig 13 : La représentation de l’acquisition de l’outil dans 2001 : L’Odyssée de l’Espace, 1968.

Au-delà de nos modèles actuels d’apprentissage automatique, quelles sont les implications de ce principe pour de futures intelligences artificielles générales ? Imaginez un programme conçu pour résoudre des équations. Il ne peut lire que des équations formatées au format numérique comme lorsque vous entrez une formule dans un tableur. Il possède ensuite un algorithme spécialisé de résolution automatique d’équations ainsi qu’une interface qui ne lui permet que d’afficher le résultat calculé. L’IA générale de son côté doit pouvoir résoudre tout type de problème, il faudra donc l’équiper d’une caméra par exemple lui permettant de lire aussi bien des symboles que des images. Mais le problème qui survient, c’est que cette capacité nécessite une énorme quantité de gadget supplémentaire. Du reconnaisseur de formes permettant de reconnaître les symboles au module de mémoire permettant de récupérer sa signification dans un espace de stockage. Une fois les représentations récupérées, l’IA générale devra utiliser l’un des outils mentaux à sa disposition capable de manipuler des symboles et d’appliquer des règles. Seulement, cet algorithme ne pourra être aussi performant que l’algorithme spécialisé car tout se paye. Une fois calculée, la solution devra être énoncée à travers un canal général lui aussi de manière bien plus fastidieuse qu’avec une interface spécialisée. L’IA générale lourde et lente se verra donc tout comme nous dépassée rapidement dans les tâches spécialisées. À puissance de calcul égale, un programme d’intelligence artificielle spécialisé sera toujours beaucoup plus rapide qu’une IA générale. Comme le dit une expression anglaise, qui est propre à tout n’est propre à rien (jack of all trades is master of none). Tout comme pour nous, il lui faudra créer des outils externes spécialisés capables de remplir les différentes missions. Pourquoi alors créer une intelligence artificielle totalement générale alors que l’on peut créer des IAs spécialisées dans des domaines spécifiques (cyber-sécurité, contrôle qualité, logistique, etc.) et laisser aux humains le soin de les gérer ?

Il n’y a peut-être aucune raison de créer une IA totalement générale. L’intelligence artificielle est en fait une nouvelle étape de l’exo-somatisation, ce génie qu’a notre cerveau de se créer des artefacts spécialisés dans des tâches précises afin d’étendre ses capacités, ce que l’on appelle plus communément des outils. Ces artefacts peuvent avoir comme but d’étendre nos capacités physiques, comme un levier, un marteau ou une voiture. Les méthodes d’intelligence artificielle actuelles permettent de faire ce qui est impossible pour un être humain comme prédire la météo ou les tremblements de terre.

Mais l’histoire a vu apparaître, bien avant l’invention de l’intelligence artificielle, des outils capables d’étendre nos capacités intellectuelles. Le langage mathématique en est un bon exemple, il est d’ailleurs tellement puissant qu’aucun domaine scientifique actuel ne peut se passer de lui, que ce soit en architecture, en physique ou même en linguistique ou en psychologie. Les mathématiques ont étendu nos capacités intellectuelles à un tel point que nous pouvons maintenant admirer des réalisations qui étaient autrefois de l’ordre de l’imagination et de la science-fiction. Alliés à un autre artefact mental qu’est la pensée computationnelle ainsi qu’aux ordinateurs, les mathématiques ont donné vie aux méthodes d’intelligence artificielle actuelles. Demain, aucun de nos domaines scientifiques et techniques ne pourra ignorer l’intelligence artificielle.

Comparer l’intelligence de ces artefacts spécialisés et celle des êtres humains a-t-il un sens ? Comment peut-on mesurer des types d’intelligence non humaine très spécifique ? Par exemple, comment mesurer l’intelligence, ou plutôt la capacité, d’un programme chargé de sécuriser un réseau informatique ? C’est l’une des tâches les plus fondamentales en intelligence artificielle, tout chercheur est confronté à la question de la mesure bien avec celle de la conception. Vous voulez concevoir un programme capable de reconnaître des images ? Comment allez-vous mesurer le plus objectivement ses performances ? Cette question est fondamentale parce que vous ne pourrez guider efficacement ni vos recherches ni la phase d’apprentissage sans pouvoir objectiver vos attentes. Au vu de la variété immense des différentes tâches qui attendent les futures machines intelligentes, il est probable qu’elles seront évaluées selon des critères très différents selon leurs buts et non avec un test de QI conçu pour mesurer l’intelligence humaine. Là où Laurent Alexandre a raison, c’est que dans le futur il nous faudra apprendre à gérer les différents types d’intelligence.

L’intelligence artificielle ouvre l’ère d’une nouvelle renaissance, ce que Brynjolfsson et McAfee ont appelé un deuxième âge des machines. Dans son livre, Laurent Alexandre montre comment les deux premières révolutions industrielles ont été guidées par des innovations liées à des énergies comme le charbon, la vapeur ou l’électricité. Mais cette nouvelle révolution industrielle est différente car guidée par l’information. Qu’est-ce que cela change ?

Comprendre les impacts de cette nouvelle révolution industrielle basée sur l’information nous fait plonger au coeur du principe le plus fondamental de l’univers : l’entropie. La forme moderne fut introduite par le physicien Ludwig Boltzmann dans la physique du 19ème siècle. La seconde loi de la thermodynamique stipule que l’entropie ne diminue jamais. Un système fermé (sans apport d’énergie depuis l’extérieur) devient inexorablement moins structuré, moins organisé et se fait petit à petit gagner par la monotonie et l’homogénéité. Pourquoi un tel destin ? Tout simplement parce qu’un système a beaucoup plus de manière d’être désordonné que d’être ordonné. Tout organisme et tout entité complexe est beaucoup moins probable qu’un arrangement aléatoire de matière. L’arrangement d’atome que constitue une montre est extrêmement improbable comparé aux milliards de milliards d’arrangement possible. Toute perturbation de ces arrangements structurés les mène donc plus probablement vers une forme moins structurée et plus désordonnée. Heureusement, même si un système isolé se dirige toujours vers plus d’entropie, rien n’empêche la diminution de l’entropie dans des parties de ce système et de créer des îlots de néguentropie (d’ordre).

La loi de l’entropie détient une place tellement prépondérante dans la physique moderne qu’elle agit comme règle suprême permettant de déduire si une théorie est vouée à s’effondrer ou non. Elle est aussi la limite qui mettra à jamais une barrière aux prétentions démiurgiques des transhumanistes. Même si la loi de l’entropie nous montre le destin funeste de l’univers, elle donne aussi un sens à la vie et définit les buts ultimes des efforts humains : utiliser les connaissances et l’énergie pour combattre l’entropie et créer des îlots de néguentropie.

Tous les organismes de cette planète sont le résultat d’une sélection naturelle. Cette sélection a permis de garder les erreurs de réplication qui permettent aux organismes de survivre et de se répliquer, c’est-à-dire de combattre l’entropie en utilisant de la nourriture et de l’énergie pour garder de l’ordre dans leur structure interne. L’information est en elle-même une diminution de l’entropie qui distingue les systèmes ordonnés et structurés de la vaste quantité de systèmes aléatoires et inutiles. Prenons les images comme exemple : une photo de chat apparaît comme nettement moins probable et plus utile qu’une disposition aléatoire de pixels (bruit blanc). Cela ne s’applique pas seulement aux images, un univers ordonné et composé d’atomes, de systèmes solaires et de galaxies contient plus d’informations qu’un univers ou les particules sont disposées de manière aléatoire.

L’activité neuronale étant porteuse d’information sur le monde extérieur, le système nerveux des animaux est un moyen trouvé par l’accumulation dans notre ADN de principes néguentropiques de recueillir de l’information et des connaissances. Les neurosciences nous montrent que des circuits suffisamment développés sont une condition préalable à l’intelligence. L’intelligence peut  transformer des informations venant des sens afin de refléter dans le système les lois qui réagissent son environnement et de faire des prédictions utiles.

Le domaine de la cybernétique créé pendant le 20ème siècle montre comment des organismes munis de systèmes nerveux sont capables de réduire la différence entre un état présent et un état voulu en associant des actions à des effets constatés. Grâce à des boucles de rétroaction et de contrôle, les connaissances accumulées par un système intelligent lui donnent la capacité de calculer cette différence puis de choisir les bonnes actions pour atteindre le but voulu. Ce principe a été intégré depuis longtemps par l’être humain dans des dispositifs robotiques et numériques. Les principes d’information, de calcul et de contrôle permettent donc de faire le lien entre les causalités du monde physique et des entités mentales comme les connaissances, l’intelligence et les objectifs. Une fois les ordinateurs capables de représentations assez riches et de développer des formes d’actions assez complexes afin de remplir une large gamme d’objectifs et de sous objectifs, rien ne nous permettra de ne pas les considérer comme intelligents à part un anthropocentrisme narcissique.

Quant à homo sapiens, sa caractéristique principale est d’avoir investi principalement dans le traitement et le recueil d’informations et les raisonnements sophistiqués (la niche cognitive) afin de vaincre les défenses des autres espèces, de capter leur énergie, et de combattre l’entropie. Il n’y a donc rien de plus humain que l’intelligence artificielle, elle est dans la continuité de notre nature profonde. Le Big Data et les objets connectés nous permettant de capter une quantité astronomique d’information, l’intelligence artificielle nous permettra d’extraire les connaissances nécessaires à la compréhension des lois qui gouvernent le monde qui nous entoure. Les artefacts intelligents dématérialisés rendront l’intelligence disponible partout et en tout temps pour capter l’énergie qui nous permet de résister à l’entropie. Tout comme l’agriculture et les deux premières révolutions industrielles nous ont donné une profusion d’énergie exploitable et nous ont permis de sortir un grand nombre de personnes de la pauvreté et de l’illettrisme, cette nouvelle révolution nous permettra de libérer plus de temps pour écrire, penser et créer.

Cette capacité à traiter de l’information augmente exponentiellement et influence le processus d’innovation lui-même. Demain, le prototypage 3D sera démocratisé et le développement économique pourrait s’accélérer grâce au numérique, à un meilleur traitement de l’information et à la disponibilité d’outils intelligents. C’est un des éléments les plus importants des artefacts d’intelligence artificielle, grâce à eux, nous pouvons étendre les capacités intellectuelles de notre cerveau, mais contrairement aux artefacts physiques, leur dématérialisation nous permet de les rendre disponibles presque instantanément à un ensemble de nos semblables.

Malheureusement, l’entropie nous montre aussi une chose : c’est qu’un rien peut facilement mettre hors-service un organisme complexe car toute structure organisée est dépendante d’une combinaison de conditions improbables. Il est beaucoup plus facile de faire tomber un château de cartes que d’en construire un. Nos facultés cognitives, morales et émotionnelles sont adaptées à un environnement archaïque et non à un monde moderne basé sur des technologies numériques. Notre architecture mentale nous pousse vers la pensée magique, celle des essences cachées et mystérieuses, et vers les estimations approximatives. Nous pensons que des mots et des pensées peuvent agir sur le monde réel, nous sous-estimons les coïncidences et nous créons des généralisations basées sur de petits échantillons insignifiants, nous confondons la causalité et la corrélation, nous pensons de manière manichéenne en surestimant nos propres connaissances et en nommant des boucs émissaires.

Ce constat s’applique aussi aux réflexions sur l’intelligence artificielle. Nous ne cessons d’y voir l’émergence de scénarios apocalyptiques de perte de contrôle à la Terminator en faisant des prédictions fantasmagoriques sur une possible singularité émergeant d’un souffle magique, tout en projetant dans l’intelligence artificielle notre propre monde mental en croyant qu’il est le seul possible. Ces projections sont le résultat des bugs de notre système cognitif. Si nous ne voulons pas que l’intelligence artificielle soit négative en reproduisant nos biais et notre pensée magique, nous devons l’analyser de manière rationnelle et logique avec les outils fournis par la science et le rationalisme, et non avec ceux fournis par des vendeurs de fantasmes et de sensationnalisme. L’intelligence artificielle est un domaine d’ingénierie comme les autres mais passionnant, et nous devons mettre en place les procédures nécessaires pour garantir qu’elle soit bénéfique.

Laurent Alexandre est l’une des seules personnalités publiques faisant franchement front face aux déclinistes et autres collapsologues en mettant en avant une vision positive des nouvelles technologies et du futur. Cet enthousiasme pour le futur est fondamental, pourquoi donc le gâcher avec un sensationnalisme tapageur et opportuniste faisant écho aux théories fantasmagoriques des nouveaux prophètes de l’intelligence artificielle ?

Dans la deuxième partie, nous aborderons le QI, l’école, le revenu universel et les possibles impacts de l’intelligence artificielle sur les inégalités.

Références

  1. page 26
  2. page 26
  3. https://www.analyticsvidhya.com/blog/2017/04/comparison-between-deep-learning-machine-learning/
  4. https://youtu.be/RgUcQceqC_Y?t=152
  5. page 26
  6. page 28
  7. page 43
  8. page 26
  9. Ray Kurzweil, The Singularity Is Near
  10. https://twitter.com/elonmusk/status/871886151014940672
  11. Simon & Newell 1958, p. 7−8 quoted in Crevier 1993, p. 108. See also Russell & Norvig 2003, p. 21
  12. Simon 1965, p. 96 quoted in Crevier 1993, p. 109
  13. Minsky 1967, p. 2 quoted in Crevier 1993, p. 109
  14. Minsky strongly believes he was misquoted. See McCorduck 2004, pp. 272–274, Crevier 1993, p. 96 and Darrach 1970.
  15. page 117
  16. https://www.cnbc.com/2017/07/17/elon-musk-robots-will-be-able-to-do-everything-better-than-us.html
  17. https://www.cnbc.com/2014/06/11/computers-will-be-like-humans-by-2029-googles-ray-kurzweil.html
  18. page 246
  19. http://www.slate.fr/story/169218/mensonge-plainte-ecrite-police-detecter-intelligence-artificielle?fbclid=IwAR24gsObg3KugM75FY6w2EUsk1ysmvY9cKmKKBG86Gn0xazpvP6ALUMhnqE
  20. https://techcrunch.com/2018/10/29/google-ai-listens-to-15-years-of-sea-bottom-recordings-for-hidden-whale-songs/?utm_source=tcfbpage&sr_share=facebook
  21. https://www.lci.fr/high-tech/des-tableaux-peints-par-une-intelligence-artificielle-2103402.html
  22. https://www.franceculture.fr/emissions/du-grain-a-moudre/lintelligence-artificielle-va-t-elle-creer-un-art-autonome
  23. https://www.usine-digitale.fr/article/la-premiere-ia-engagee-par-un-cabinet-d-avocats.N393122
  24. https://www.youtube.com/watch?v=x_QG1TDDbIo
  25. https://www.dailymail.co.uk/sciencetech/article-2632920/Would-orders-ROBOT-Artificial-intelligence-world-s-company-director-Japan.html
  26. https://www.lemonde.fr/idees/article/2017/11/04/sophia-robot-saoudienne-et-citoyenne_5210094_3232.html
  27. page 26
  28. page 184
  29. page 315
  30. page 265
  31. page 263
  32. page 44
  33. page 262
  34. page 258
  35. page 259
  36. page 243
  37. page 91
  38. page 277
  39. page 287
  40. page 335
  41. http://members.femto-st.fr/laurent_larger/en/nonlinear-transient-computing
  42. page 261
  43. page 258
  44. page 260
  45. page 253
  46. page 296
Nils Schaetti is a doctoral researcher in Switzerland specialised in machine learning and artificial intelligence.

0 Comments

Leave a reply

Your email address will not be published. Required fields are marked *

*