La guerre des intelligences de Laurent Alexandre

Notes de lecture

La guerre des intelligence de Laurent Alexandre (Notes de lecture)
April 4, 2018 nschaetti

La machine à fabriquer de l’Intelligence Artificielle est déjà née

Chapitre 1 : Le printemps de l’IA

Idées clés

  1. L’intelligence artificielle : domaine faisant encore partie de la science fiction il y a peu, l’IA est véritablement née dans les années 2010 grâce au Deep-Learning qui permet aux ordinateurs de reconnaître des formes et de comprendre le langage naturelle avec d’énormes quantité données.
  2. Le Deep-Learning : fait partie de la phase 2 d’IAs ressemblant à quelqu’un atteint d’Asperger, la phase 3 et 4 seraient respectivement des IAs pouvant se faire passer pour quelqu’un d’intelligent et des IAs dites fortes.
  3. Historique de l’IA : il y aura quatre âges de l’IA. 60s ‘10s : algorithmes à la main. 2012 : le Deep-Learning. 2030 : IA transversalle. Inconnu : IA forte.
  4. La loi de Moore : la puissance de calcul des ordinateurs a explosé, multiplié par 100 millions de milliards en 80 ans.

Mes remarques

  1. Le Machine-Learning existe depuis longtemps (voir régression linéaire de Gauss, 1795) et s’est toujours basé sur le principe d’entraînement plutôt que sur des règles prédéfinies (systèmes experts dans les années 80s). Le Deep-Learning est une méthode de Machine-Learning très performante sur certains problèmes mais il n’y a pas de différence de nature avec les méthodes précédentes (réseaux de neurones), de plus le Deep-Learning est étudié depuis le début des années 80. Le Deep-Learning et le Machine-Learning ne s’éduque pas, il s’agit ici d’anthropomorphisme tout comme le verbe “s’expliquer” qui personnifie le robot. En Deep-Learning et en Machine-Learning, l’entraînement et un problème d’optimisation où l’on cherche une solution à une équation par des pas successifs. On ne peut en aucun cas parler d'”éducation” qui suppose (selon Wikipedia) : “le développement des facultés intellectuelles, morales et physiques“;
  2. La prédiction d’une IA transversale/généraliste en 2030 ne se base sur rien. Nous n’avons encore que très peu de compréhension de l’intelligence transversale et nous ne pouvons prédire quand elle sera développée. L’avènement d’une IA forte est encore moins prédictible et même les experts du domaine ne peuvent se prononcer (voir Minsky dans les années 60 qui prédisait un cerveau électronique dans les 20 ans qui suivaient). De plus, l’architecture des ordinateurs actuels n’est certainement pas adaptée aux développement d’un IA forte. Nous allons donc devoir construire une toute nouvelle informatique;
  3. Le Deep-Learning n’est pas une méthode comprenant le Machine-Learning et le Reinforcement-Learning (et non Learning Reinforcement). Le Deep-Learning est un sous-ensemble de méthodes de Machine-Learning qui sont développés depuis le début des années 80s. Le Machine-Learning prenant lui sa source dans les mathématiques statistiques, ce domaine existe depuis des dizaines d’années et se compose de nombreuses techniques très différentes comme les réseaux de neurones dont le Deep-Learning n’est qu’un sous-ensemble. Le Deep-Learning a permis de grandes avancées en reconnaissance de formes (vision par ordinateur) et en reconnaissance vocale. Mais on ne peut pas parler de compréhension du langage car les algorithmes ne sont pas encore capables de comprendre des phrases, à part dans des cas restreints et bien définis. L’énorme quantité de données nécessaires à l’apprentissage des modèles de Machine-Learning est la principale limite actuelle de ce domaine car
    1. Le cerveau ne fonctionne pas de cette manière, il a besoin que des quelques exemples;
    2. L’apprentissage en Machine-Learning reste très proche de la brute-force ;
  4. L’être humain est depuis longtemps mis en concurrence avec les machines-outils et pourtant le travail n’a pas disparu, la productivité augmente et le niveau de vie aussi ;
  5. L’erreur fondamentale de Laurent Alexandre, c’est que l’intelligence ne se résume pas à la puissance de calcul et notre cerveau ne peut être réduit qu’à un amas de neurones. L’intelligence n’apparaît pas par magie lorsque la puissance de calcul augmente mais émerge de modules spécialisés aux architectures spécifiques qui nécessitent pour être répliqués une compréhension extrêmement profonde de ce qu’est l’intelligence et de ses conditions d’apparition. Notre cerveau en est un exemple ;

Chapitre 2 : Les apôtres de l’IA et le nouvel évangile transhumaniste

Idées clés

  1. Les GAFA/BATX : ils puisent leur puissance dans les données récoltées. En Europe, la sur-protection de la vie privée plombe cette industrie et empêche l’émergence d’un géant Européen. Ils vont développer des cerveaux industriels moins chers que ceux développés par l’Education Nationale.
  2. AlphaGo : La victoire d’AlphaGo montre la montée en puissance de l’IA alors que le Go est intuitif et impossible à mémoriser contrairement aux échecs. Cette IA va se substituer aux postes peu qualifiés mais aussi à certain très qualifiés. Ces IAs sont difficilement auditables et deviennent des boîtes noires. Il est de plus en plus difficile de comprendre les algorithmes.
  3. L’IA forte : elle serait consciente et pourrait développer ses propres projets, elle devrait apparaître vers 2045 selon Ray Kurzweil. Selon un étude l’IA pourrait dépasser l’homme en 2060, Musk pense plutôt 2030 ou 2040. Le transhumanisme pousse au développement de cette IA forte nécessaire pour vaincre la mort.
  4. GAFA contre la démocratie : Il est urgent de rénover le pilotage démocratique sinon la perte de pouvoir des institutions face aux GAFA/BATX va mener à une augmentation de l’autoritarisme. Nos politiciens sont des analphabètes technologiques.
  5. Education : il faut insister sur l’éducation de la petite enfance là où la plasticité cérébrale est maximale et utiliser les neurosciences pour combattre les inégalités au score PISA.

Mes remarques

  1. Il y a effectivement d’énormes barrières à l’entrée du monde numérique, mais est-ce que cela est dû à la protection des données plus fortes en Europe ? Les données utilisées pour entraîner la plupart des modèles de Machine Learning ne sont pas privées ou même personnelles comme la vision par ordinateur qui nécessite des images et leur annotations (des hashtags par exemple). Ces données peuvent être traitées en public, sans être expert de la protection des données en Europe, il ne me semble pas que ce soit la cause d’absence d’un géant européen du numérique.
  2. Laurent Alexandre a de très mauvaises bases techniques et se trompe lourdement sur AlphaGo et DeepBlue. L’explosion combinatoire fait qu’il est absolument impossible d’entrer dans la mémoire d’un ordinateur toutes les combinaisons possibles d’un jeu d’échecs. La victoire de DeepBlue a été possible grâce à la puissance de calcul mais aussi grâce aux algorithmes d’intelligence artificielle. Les quatre puces d’AlphaGo sont des puces spécialisées (TPU) pour simuler d’énormes réseaux en parallèle et sont donc extrêmement puissantes. De plus, affirmer que les échecs sont logiques et le Go intuitif n’a pas tellement de sens et ne démontre en rien que la victoire d’AlphaGo est uniquement due à une connaissance vraiment plus approfonde de l’intelligence.
  3. Laurent Alexandre affirme que seule l’intelligence artificielle pourrait trouver rapidement une solution à l’explosion des données. Hors, il s’agit ici de nouveau de personnification car c’est bel et bien les ingénieurs qui trouvent des solutions grâces aux méthodes d’IA. Voir la chambre chinoise de Searl : les algorithmes ne comprennent rien, seuls les ingénieurs qui les utilisent en sont capables.
  4. Je n’ai trouvé aucune source pour l’étude affirmant que l’IA dépassera l’homme en 2060, et je ne vois pas sur quoi elle pourrait se baser pour prédire ceci. Tout comme la fameuse prédiction de Kurzweil sur la singularité. Le transhumanisme est une religion et Laurent Alexandre nous cite tour à tour ses prophètes et leur saintes écritures.
  5. Il y a une grosse incompréhension des algorithmes d’IA dans ce chapitre. Effectivement, les algorithmes de Deep-Learning sont difficiles à auditer parce qu’ils basent leurs décisions sur un très grands nombres d’unité participant chacun de façon minime à la décision finale. Mais le fait qu’elles changent rapidement n’empêche pas d’analyser le système dans son ensemble et l’auditabilité des systèmes est un point central des recherches actuelles en Machine Learning. A tel point qu’il est maintenant possible d’expliquer la décision des algorithmes dans de nombreux domaines.
  6. Il faut effectivement quelques millisecondes pour dupliquer un algorithme d’IA, mais il ne faut pas confondre temps de copie et temps d’apprentissage. Pour l’instant, les algorithmes ont besoin de quantité énormes de données, bien plus que les humains, ainsi qu’un temps très long d’apprentissage, pour effectuer des tâches que les êtres humains réalisées sans aucune difficulté.

Chapitre 3 : L’intelligence : la chose au monde la moins bien partagée

Idées clés

  1. QI : L’intelligence est la chose la moins bien partagées chez l’être humain. Bien que jugé non-scientifique par le grand public, il mesure objectivement l’intelligence avec efficacité. Les autres formes d’intelligence lui sont corrélés et c’est un bon prédicteur de réussite académique, économique et sociale. Il a augmenté de 3 à 7 points par décennies en 1952 et 1982 grâce à l’allongement des études, des meilleures conditions de vie et plus de stimulations intellectuelles. Cependant cette courbe se serait inversé à cause de la baisse de natalité des gens intelligents, de l’obésité, des perturbateurs endocriniens et/ou de la consommation de hashich. L’Asie a repris le relais avec une moyenne de 108.
  2. Hérédité : La vue héréditaire de l’intelligence fut développée par Francis Galton qui voulu démontrer ses variations et son caractère héréditaire.
  3. Cerveau et tech : les nouvelles technologies ont un impact négatif sur notre cerveau car mettant l’accent sur la rapidité, l’échantillonnage distrait et la perception de l’information, rendant notre mémoire et notre attention défaillantes.

Mes remarques

  1. Le QI mesure ce que les chercheurs appellent l’intelligence générale. Un facteur générale, ou variable cachée, qui est corrélée avec toutes les différentes formes d’intelligence. Les personnes à haut QI ont effectivement de meilleurs emplois, de plus grandes réussites professionnelles et académiques et moins de problèmes avec la justice. Cependant, Laurent Alexandre ne précise pas que ces différences sont mesurées en gardant le statut socio-économique constant. De plus, les études en génétique comportementale qui étudient les parts génétiques et environnementales dans la variation de l’intelligence ont plusieurs limites, dont l’incapacité à expliquer les variations entre les groupes. Elles peuvent expliquer les différences intellectuelles entre blancs Américains de la classe moyenne, mais pas celles entre la classe moyenne et la classe supérieure ou entre Américains et non-Américains. On ne peut donc expliquer les différences citées par Laurent Alexandre ou déduire qu’elles sont dus aux caractères génétiques.
  2. Concernant l’effet Flynn, le QI a effectivement augmenté pendant plus d’un siècle dans toutes les parties du monde avec une augmentation moyenne de 3 points par décennies. Cette augmentation a été récemment confirmée par une méta-études de 271 échantillons dans 31 pays et 4 millions de personnes. Au début des années 80, le philosophe James Flynn se rend compte que les entreprises qui éditent les tests de QI les rehaussent continuellement afin d’éviter une inflation car le pourcentage de questions répondues correctement augmente. Les tests de QI étant administré dans plusieurs pays depuis des dizaines d’années, on constate une augmentation du QI avec le temps quelque soit le test. Une base de données Anglaise montre que l’effet Flynn est présent depuis au moins 1887 et depuis la première guerre mondiale dans 36 autres pays. L’augmentation de 3 points par décennies signifie qu’une personne de 1910 ayant un QI moyen (100) projetée aujourd’hui aurait un QI de 70, c’est-à-dire à la limite du retard mental. Ce qui est intéressant, c’est que les tests de QI sont composés de plusieurs sous-tests et que c’est dans les éléments qui ne concerne pas le savoir (donc pas dans le vocabulaire ou l’arithmétique), et les moins héréditaires, que les plus haut gains sont constatés.
  3. L’existence de la régression du QI a été mise en doute par d’autres scientifiques pour qui ces études sont peu fiables. L’étude citée au point 2 (méta-études sur 271 échantillons) montre un plafonnement sur les 30 dernières années, mais pas une régression.  Pour l’instant, aucune données ne permet d’attester une réelle baisse du QI dans les pays occidentaux. Le QI ne semble pas régresser mais plutôt augmenter plus lentement. Ce plafonnement n’est pas inattendu ou effrayant car l’effet Flynn obéit à la loi de Stein : “les choses qui ne peuvent continuer éternellement finissent par s’arrêter”. Le cerveau humain atteignant les limites de sa puissance, tout comme la stagnation des performances sportives montre les limites du corps humain.
  4. Toujours sur la régression du QI. La baisse constatée dans les pays scandinaves , comme la Finlande, mesurée entre 1997 et 1999 ne concernent que les sous-tests numérique et verbaux (arithmétique et vocabulaire). Hors ces tests concernent le savoir et non les capacités de raisonnement logique qui eux montre une simple stagnation. De plus, cette théorie a été introduite par le psychologue britannique Richard Lynn, comme le précise Laurent Alexandre à la page 85. Hors il ne précise pas qu’il est aussi connu pour ses idées racistes et eugénistes. Il a par exemple soutenu au journal Suisse “Le Temps” : “seules Marin Le Pen et la Hongrie ont compris que les migrants venant d’Afrique et du Moyen-Orient ont une intelligence limitée”.
  5. Concernant les différences de QI moyen entre la  France (98) et les pays asiatiques (108), le QI est une mesure qui classe les individus selon leur capacités intellectuelles. Il mesure la distribution de l’intelligence au sein du groupe mesuré. Il décrit la différence moyenne d’intelligence entre les membres d’un groupe. La moyenne est toujours à 100 et le QI est toujours mesuré au sein d’un groupe, comme la France, pour estimer la distribution de l’intelligence. Les tests étant différents d’un pays à l’autre, on ne peut comparer le QI entre ces pays. Cette mesure est en fait un QI national estimé dont la pertinence a été aussi mise en doute. Il a été aussi développé par Richard Lynn dans “IQ and the Wealth of Nations”, le même chercheur qui a introduit l’effet Flynn inversé et qui est connu pour ses thèses racistes et eugénistes. Les courbes d’évolution du QI dans les différents pays ne sont donc pas comparables et ne peuvent être utilisées pour déduire que le QI moyen est plus haut ou plus bas dans les pays asiatiques. De plus, si le QI continue à augmenter dans ces pays, c’est probablement parce qu’ils n’ont pas encore atteint le plafond constaté dans les pays occidentaux.
  6. Concernant les causes possibles de la baisse du QI dans les pays occidentaux, il est a noté que les données d’évolution du QI ne supportent pas ces hypothèses. Au USAs, le QI semble continuer d’augmenter alors que l’exposition aux perturbateurs endocriniens et à la malbouffe est plus importante qu’en Europe, et l’immigration tout aussi importante.

Chapitre 4 : la guerre des cerveaux a déjà commencé

Idées clés

  1. Révolution industrielle : chaque révolution industrielle repose sur une ressource. La 1ère étant celle de la vapeur et du train (transport) et la 2ème celle de l’électricité et des avions/voitures (communication). La 3ème sera celle de l’intelligence car chaque acteur cherchent à l’attirer pour utiliser ses capacité de synthèse et de création. Des pays comme la Chine ont déjà commencé, elle a augmenté de 300% les dépenses de recherche et est devenu leader en brevets déposés, et  veut séquencer le génome de surdoués.
  2. Mérite social : le mérite social c’est la capacité à créer de la valeur par son travail ce qui est fortement corrélé avec l’intelligence. Au 21ème siècle, cette valeur est créée par l’algorithme et l’utilité sociale réside donc dans la capacité à les créer. Ce sont les concepteurs qui captent tous les rendements, à une échelle sans précédents.
  3. Hérédité QI : le livre “The Bell Curve” (1994) a réactivé les théories de déterminisme social. Le QI explique 75% des inégalités comme les différences économiques entre les pays et l’espérance de vie. Le QI étant largement héritée et l’école qui ne fait que prolonger ces inégalités. L’IA ne fera que augmenter les inégalités entre bas et haut QI.
  4. France et AI : la France est extrêmement en retard en matière d’IA n’ayant pas de plateformes pour développer de grands projets, les chercheurs étant sous-payés.

Mes remarques

  1. Le livre de Hernnstein et Murray ne ré-instaure pas totalement des théories de déterminisme social mais expose une théorie simple que Laurent Alexandre ne cite pas : “Moins le statut social est déterminé par des héritages arbitraires comme la race, la parenté, l’éducation et la fortune héritée, plus il est déterminé par le talent, plus spécifiquement, dans une économie moderne, l’intelligence”. Une société où les héritages arbitraires ont moins d’importance se stratifie donc le long des lignes génétiques. Mathématiquement, lorsque le pourcentage de variation de l’intelligence déterminé par des facteurs non-génétiques (environnement) baisse, celui des facteurs génétique augmente. Cependant, le QI et les différences d’intelligences n’a pas toujours été vu comme une réactivation des thèses de déterminisme social et comme justification des inégalités. En fait, beaucoup de sociologues travaillant dans ce domaine était des radicaux de gauche . Dans un article intitulé “The Bell Curve Liberals”, le journaliste Adrian Wooldridge montre que le QI a aussi été le fer de lance de la gauche anglaise , des années 30 à 60, qui voulait créer une machine à extraire les talents de la pauvreté. Mais qui voulait surtout changer la natures des élites, les considérant comme scientifiquement illettrés et comme le résultats d’héritages arbitraires (fortune, réseaux, etc) et voulant les remplacer par une élite soigneusement sélectionnée et proprement éduquée. Les tests de QI devant être utilisés pour tester la puissance intellectuelle d’un candidats, les tenants du QI voyaient ses applications comme un idéal politique de méritocratie. Ces tests de QI étaient selon eux très utiles pour détecter les enfants prometteurs du prolétariat mais qui était retenu à l’école par la pauvreté de leur milieu d’origine, leur permettant de monter l’échelle sociale. Cette gauche ne défendait pas le status-quo mais bien une mobilité sociale inévitable. Le résultat de cet idéal s’est concrétisé dans le 1944 Education Act spécifiant que les enfants devaient être éduqué en fonction de leur “âge, habilité et aptitude” en les envoyant dans des écoles correspondant à leur talents particuliers. Les écoles d’élite anglaises se sont alors tourné de plus en plus vers des psychologues pour peaufiner les examens traditionnels, les transformant en institutions méritocratiques. Au delà de cet acte, l’âge de l’école obligatoire a été repoussé, les professeurs mieux entraînés et le budget de l’éducation augmenté. Avant cela, les enfants étaient sélectionnés sur leur capacité à écrire des essais, à traduire du Latin ou lors d’examinations orales, tests fortement biaisés en faveur de l’élite éduquée et au détriment des pauvres prometteurs et talentueux.
  2. Selon Laurent Alexandre, le QI moyen expliquerait 75% des différences économiques entre les pays. Nous avons déjà vu que la comparaison du QI moyen entre pays était d’origine douteuse et contestable par l’hétérogénéité des tests. On peut cependant constater que l’effet Flynn est corrélé avec la réussite d’un pays, 11 points de QI en plus étant assez pour doubler le bien-être des habitants d’un pays en 19 ans plutôt que 27. L’augmentation du QI prédisant non seulement la croissance du PIB mais aussi des loisirs et de la longévité.
  3. Les personnes à haut QI on une espérance de vie et des emplois moins pénibles, toute variable socio-économique gardée constante.
  4. Laurent Alexandre n’est à mon avis pas clair sur la part héritable et celle impactée par l’école, et mélange des point clés. Premièrement, les différences initiales font référence à la part de la variation de l’intelligence dont le facteur héréditaire est responsable. Cette part d’héritabilité est estimée entre 25% et 75% et concerne l’intelligence générale, aussi appelé g, qui est le facteur générale corrélé avec une batterie de tests différents (mathématiques, vocabulaire, géométrie, logique, etc). Ce facteur est hautement héritable et n’est pas affecté par l’environnement familiale (mais possiblement par l’environnement culturel). D’un autre côté, nous avons l’effet Flynn qui fait bouger tout le monde vers le haut, il ne change pas la distribution mais la moyenne. La découverte essentielle de Flynn, c’est que cet effet n’est pas une augmentation de l’intelligence générale (g) et qu’il est probablement propulsé par l’environnement cognitif. Il n’est donc pas paradoxal que le QI augmente alors qu’il est hautement héritable, puisque ce sont les différences d’intelligences (la distribution) qui le sont, mais pas la moyenne, qui est elle influencée par l’environnement. Lorsque Laurent Alexandre affirme que l’école ne fait que prolonger les différences initiales, cela signifie que l’école ne change pas la distribution de l’intelligence au sein de la population. Par contre, Steven Pinker, psycholinguiste à Harvard, montre dans son livre “Enlightemnent Now”, que c’est bien l’école qui est en partie responsable de l’effet Flynn. Ce que ne montre pas Laurent Alexandre, c’est que l’effet Flynn ne touche pas de la même manière les différents tests. Les résultats à tous les sous-tests (spatial, verbal, math, mémoire) ont augmentés, mais certains ont augmenté plus que d’autres. Les plus fortes hausses étant trouvées exactement dans les éléments qui ne font pas appel au savoir (donc pas l’arithmétique ou le vocabulaire, par exemple). Alors quels sont ces éléments principalement affectés par l’effet Flynn ? Premièrement, les similarités, par exemple : “Qu’est-ce qu’une livre et un pouce ont en commun ?”. Deuxièmement, les analogies, par exemple : “Un oiseau est à un oeuf ce qu’un arbre est à …?”. Et troisièmement, la visualisation matricielle, par exemple remplir des trous dans une figure géométrique. Les gains les plus important ne sont pas trouvés pour les compétences concrètes apprises à l’école mais plutôt pour celles liées à l’esprit d’analyse. L’effet Flynn n’est pas une augmentation de la puissance du cerveau mais de l’habileté au raisonnement abstrait : organiser des concepts dans des catégories abstraites et déconstruire des objets en plusieurs parties reliées par certaines relations plutôt qu’à les absorber d’un seul bloc, ainsi que se placer dans des mondes hypothétiques définis par des règles et explorer des conséquences logiques en sachant s’extraire de l’expérience de la vie quotidienne. D’un autre côté, les plus faibles hausses concernent le vocabulaire et les mathématiques qui sont liés à des connaissances générales. L’augmentation des capacités à chaque sous-tests peut donc avoir différentes causes à différentes périodes et non pas un facteur unique influençant le QI. Concernant les compétences visuels, nous avons été forcés par les hautes technologies et nos environnement remplis de symboles à traiter des symboles visuels tout en les connectant à des règles abstraites. L’amélioration de l’habileté au raisonnement abstrait (analogies et similarités) est lié selon Flynn à la propagation de la pensée dites post-scientifique, opposée à la pensée pré-scientifique qui rejette un stade de la cognition nommé “formel”. Avant l’enseignement de la pensée scientifique, les personnes rejetaient toute logique pure pour ne se baser que sur l’expérience direct. Le raisonnement formel c’est l’habileté à se détacher de la connaissance classique de son petit monde pour explorer des implications et des postulats purement hypothétiques, mais c’est aussi voir le monde à travers des expériences dites scientifiques. Mais comment ces expériences sont-ils devenus disponibles ? La réponse est simple : l’école. Au début du 20ème siècle, un enfant passait en moyenne 7 années à école en moyenne et un quart des enfants passait moins de quatre ans à l’école. Ce n’est qu’en 1930 que l’école obligatoire s’est généralisée. Mais c’est aussi la nature de l’école qui a changé, au début du 20ème siècle, l’école favorisait l’apprentissage par coeur et la récitation ainsi que les connaissances géométriques (pays, capitales, etc). Au cours du 20ème siècle, l’école a mis moins d’attentes sur les connaissances factuelles pour se concentrer sur des concepts abstraits comme les taux, les quantités, les contingences multiples et les bases économiques. Nous sommes donc passé pendant le siècle dernier, d’une école qui favorise l’apprentissage par coeur à l’école favorisant la compréhension. C’est au cours du 20ème siècle que la pensée scientifique s’est infiltrée dans la vie quotidienne depuis l’école. Dans la vie quotidienne, nous avons vu apparaître un environnement cognitif riche en symbole comme le travail de bureau et une libération des loisirs permettant de dépenser plus de temps pour lire et faire des jeux. Mais aussi l’apprentissage par la lecture, les conversations et les médias d’outils d’analyse, des abstractions abrégées, permettant de manipuler des concepts abstraits. Des outils d’analyse comme les proportions, les pourcentages, les corrélations, la causalité, les groupes de contrôle, les placebos, la variabilité, etc. Étant l’une des sources de l’effet Flynn, l’école a bien démocratisé l’intelligence en faisant monter la moyenne de QI de la population, et in fine, le développement économique. On peut ensuite se poser la question de savoir si la variabilité de l’intelligence est un réel problème. En effet, tout projet de grande envergure nécessite une quantité énorme de travail humain et d’interdépendance qui ne peut être réalisés sans des personnes de tout le spectre du QI. Hors Laurent Alexandre semble croire que l’on peut avoir une économie moderne et un développement technologique qu’avec des gens ayant 160 de QI. Je pense que la réalité montre le contraire.
  5. L’intelligence artificielle va-t-elle dramatiquement élargir le fossé séparant les hauts et les bas QI ? Ce que montre Hernnstein et Murray, c’est que nous sommes passé d’une sélection sur des caractères arbitraires comme la parenté, les connaissances sociales et la fortune héritée à une sélection basée sur les capacités intellectuelles. Sélection rendue possible par les tests de QI, les bourses d’études et une plus grande mobilité. Les universités d’élite ont commencé au cours du 20ème siècle à sélectionner les élèves sur leurs résultats à des tests d’intelligence. La méritocratie et l’égalité des chances nous ont poussé paradoxalement vers des sociétés stratifiées le long des lignes de capacités cognitives. Les différentes classes sociales n’étant plus séparées arbitrairement par des caractères héritées mais sur les performances scolaires et académiques. Dans un même temps, nous sommes passé à une économie de la connaissance où la plus-value est crée par l’intelligence. Il est difficile de savoir dans quel sens va la causalité, est-ce l’économie de la connaissance qui nous a poussé à mieux détecter l’intelligence car il y avait un besoin à combler, ou est-ce l’utilisation de test d’intelligence et la sélection de l’intelligence qui a permis l’apparition d’une économie de la connaissance ? Dans un cas comme dans l’autre, ces deux facteurs se sont alliés à un troisième : la mondialisation. Comme le montre le travail de Thomas Piketty, ce troisième facteur a concentré les revenus dans les mains d’une petite partie de la population (top centile 1%) grâce aux revenus de l’innovation et de la rente foncière. La plus-value étant captée au niveau mondial plutôt qu’au niveau national ou régional comme c’était le cas avant. Le captage de cette plus-value suivant une loi de puissance où un petit nombre capte une majorité des revenus. On peut donc voir que ce fossé entre les hauts et les bas QI n’est pas élargi par l’intelligence artificielle mais par ces trois facteurs : le QI lui-même, l’économie de la connaissance et la mondialisation. Bien sûr, l’intelligence artificielle fait partie de l’économie de la connaissance, mais elle n’en est pas la seule et unique composante. Les créateurs d’algorithmes sont par exemple peu rémunérés en comparaison des grands patrons qui eux ne produisent pas de code et aucun algorithmes mais ne font que prendre des décisions. Laurent Alexandre prend en exemple les chercheurs connus dans le domaine du Deep-Learning, mais même leurs salaires sont insignifiants en comparaison à ceux des CEOs et autres grands patron de banques ou d’assurances.
  6. Selon Laurent Alexandre, la France serait un pays sous-développé en matière d’IA parce qu’elle ne possède pas de plate-forme numérique et se contente d’importer de l’IA de Californie. Une nouvelle fois, à quoi est dut cette absence ? A une sur-protection des données ? Ou à l’absence d’environnement économique européen capable de financer ce genre de projet. On pourrait aussi objecter qu’une économie ne se base pas uniquement sur des géants monopolistiques mais qu’une économie résiliente c’est surtout un réseau de PME ultra-performantes (exemple, la Suisse).

Chapitre 5 : “Tout se joue avant 0 an” : l’école est déjà une technologie obsolète

Idées clés

  1. Nature vs Nurture : la religion met l’accent sur notre part naturelle alors que les Lumières ont reconnus notre part culturelle. Au 21ème siècle cette distinction était faite par le communisme et le fascisme, le premier voyant tout comme culturel alors que pour le second l’être humain est déterminé par des forces innées. Aujourd’hui, nous croyons uniquement dans l’environnement parce que les bases innées sont vues comme des justifications des inégalités.
  2. Inégalité de QI : l’école est incapable de remédier aux inégalités, et seulement 9% des étudiants des grandes écoles proviennent des classes modestes, car tout serait joué avec six ans (Dodson, 1986) avant même que l’école n’entre en scène. L’école apprend à lire et à calculer alors que ces capacités sont surtout dépendantes de la part génétique. Notre ADN étant responsable à 50% de notre intelligence. L’effet Flynn va toucher l’Afrique car fortement déterminé par les conditions de vie.
  3. Discrimination intellectuelle : avec l’IA, le QI devient de plus en plus discriminant et déterminant dans la réussite sociale. Il faudra un QI de plus en plus haut pour être concurrentiel, surtout à partir de 2030. Malheureusement, la plasticité cérébrale étant limitée, nous ne pourrons transformer des ouvriers en leur faisant suivre une formation. Les discriminations de capacité intellectuelle ne sont pas reconnues dans nos sociétés.
  4. Barrière cognitive : les technologies d’augmentation cérébrale va augmenter les inégalités de QI car elles seront accessibles qu’à une caste dans un premier temps. Les humains non-augmentés n’auront pas accès aux emplois valorisés car ils seront remplaçables par des IAs.

Mes remarques

  1. Laurent Alexandre affirme que l’école est inefficace parce que tout serait joué avant six ans, donc avant l’école obligatoire, l’environnement n’expliquant qu’une part mineure du QI. Hors, comme précisé avant, les gènes expliquent entre 25% et 75% des différences d’intelligences dans les groupes testés, mais pas l’intelligence absolu. L’effet Flynn a fait bouger tous les bateaux vers le haut, c’est à dire l’ensemble de la population vers un QI plus élevé. Comme montré également plus haut, c’est bien l’école qui est responsable en partie de cet effet en attendant des élèves une meilleures compréhension au lieu d’un simple apprentissage par coeur. En enseignant le raisonnement formel (analogies, similarités, visuels) et un ensemble d’outils d’analyse (pourcentage, proportions, etc), l’école a augmenté notre capacité à penser de manière abstraite et à nous projeter dans des mondes hypothétiques afin d’évaluer des implications logiques. Ces capacités sont indépendantes des gènes, la hausse du QI n’est donc pas paradoxale avec la corrélation entre les gènes et les variations d’intelligence. L’effet Flynn se serait arrêté, mais on ne peut savoir si il s’agit d’une limite du cerveau humain, ou si avec une plus profonde compréhension de notre intelligence nous pourrions le relancer. Cette affirmation de Laurent Alexandre est basée sur des études en génétique comportementale de jumeaux élevés séparément ou non. Mais il faut rappeler que ces études ont de nombreuses limites, dont celle de ne pouvoir expliquer les différences entre les groupes. Laurent Alexandre affirme ensuite que paradoxalement l’apprentissage scolaire concernent des capacités qui sont en fait les plus dépendantes du patrimoine génétique. Hors, le travail de Steven Pinker nous montre que l’école a augmenté le QI de manière indirecte en rendant plus disponible les expériences et la pensée scientifiques et en augmentant la stimulation intellectuelle, et en changeant les attentes vers plus de compréhension.
  2. De nouveau selon Laurent Alexandre, ce même QI deviendrait de plus en plus discriminant que jamais à cause de l’intelligence artificielle. Hors comme montré plus haut, la hausse des inégalités de revenus est principalement due à l’économie numérique, à l’importance de la sélection sur l’intelligence et à la mondialisation concentrant les revenus mondiaux. De plus, les technologies de l’information augmente la productivité marginale des preneurs de décision. Ils peuvent prendre plus de décisions et de meilleures qualité, captant donc une part importante de la plus-value. Contrairement à ce qu’affirme Laurent Alexandre, ce sont ces tops managers qui ont les plus haut revenus, bien au-dessus des créateurs d’algorithmes.
  3. Le QI minimum pour être concurrentiel face à l’intelligence artificielle monterait considérablement à partir de 2030. Pour ma part, j’estime que l’évolution des capacités transversales n’est pas prévisible et que l’on ne peut donc estimer quand la barrière cognitive atteindra une grande partie de la population. Nous ne pouvons prédire cette évolution parce que nous ne connaissons pas assez l’intelligence et les problèmes que nous devrons résoudre pour estimer la charge de travail qui nous attend. La seule façon d’avoir une estimation serait de déjà connaître les réponses à ces questions. Laurent Alexandre base cette prédiction sur l’augmentation exponentielle de la puissance de calcul. Hors cette même puissance n’est pas suffisante pour créer de l’intelligence, car elle n’apparaît pas comme par magie lorsque l’on augmente la puissance des ordinateurs.
  4. Il serait difficile de transformer les ouvrières de Gad en Data Scientist, mais avec les ressources adaptés dans le système éducatif et de formation, nous pourrions former leurs enfants et petits enfants pour qu’ils deviennent Data Scientist.
  5. Concernant les technologies d’augmentation, l’éducation et la libération de la charge cognitive seraient peut être moins coûteuses et plus efficaces que le bazooka des implants cérébraux.
  6. Au sujet de la complémentarité à l’IA, le fameux QCIA, dont Laurent Alexandre nous dit qu’elle devrait être la cible des évaluations de capacité, sans la définir clairement. Cette notion fait peut être référence à l’étude d’Oxford qui en parle mais en d’autres termes. La complémentarité à l’IA, ce sont les métiers dont la productivité marginale augmente par l’utilisation des technologies numériques (et pas seulement de l’IA). Les décideurs captant du coup toute la plus-value.
  7. L’école, particulièrement dans les pays anglo-saxons, a déjà mis une grande importance sur les tests psychométriques pour aiguiller les élèves vers les bonnes écoles.

Chapitre 6 : Dans l’économie de demain, l’intelligence n’est plus une option

Idées clés

  1. La fin du travail : auparavant, l’avancée de la technologie était compensée par l’augmentation de la productivité et la formation des travailleurs. Les technologies NBIC rendront l’intelligence beaucoup plus indispensable, automatisant des tâches de plus en plus qualifiés, exemple, l’orthodontie et la radiologie.
  2. Big Data et médecine : les médecins sont menacés par le Big Data et les objets connectés, comme le projet Verily de Google qui traite beaucoup plus de données que les études classiques. Les géants du numérique industrialisent la médecine. Le nombre de données médicales vont exploser et le dossier moyen d’un patient va grossir jusqu’à plusieurs téraoctets de données. Les médecins ne pourront pas analyser ces gigantesques quantités de données et seront obligés de devenir l’équivalent d’infirmières déléguant leurs cerveaux aux GAFAs. En attendant, rien n’est fait pour adapter le système de formation.
  3. L’économie de l’exponentielle : l’économie du numérique est un jeu à somme nulle faussant la concurrence et le principe de l’offre et de la demande. Quelques entreprises monopolistiques peuvent attirer les meilleurs cerveaux et constituer des gigantesques bases de données. Ces monopoles sont dus à la concentration des meilleurs talents et la barrière à l’entrée est plus haute à cause de l’IA nécessitant énormément de données.
  4. Formation : l’économie va évoluer de plus en plus rapidement rendant nécessaire pour tout travailleur d’avoir la capacité de s’adapter aux changements (adaptabilité et flexibilité mentale) et une certaine transversalité afin d’être complémentaire avec l’IA. La solution ne résidant pas dans le tout formation mais également dans l’adaptation, par un état stratège, des compétences des travailleurs aux modèles économiques du numérique associant homme-robot et coopétition.
  5. Pessimisme technologique : la thèse de Jérémy Rifkin (1995), soutenue par Bill Gates : l’augmentation de la productivité va supprimer des emplois jusqu’à ce qu’il n’y aie plus de travailleur à l’exception de quelques postes très qualifiés. Le marché du travail va se polariser avec une élite d’un côté (qualifiée), et une masse de travailleurs au chômage ou effectuant des tâches non-routinière manuelles peu rémunérateurs. Le milieu du spectre de qualification se déplaçant vers le bas. Cette hypothèse est un mythe commençant sous Vespasien jusqu’à la reine Elisabeth interdisant un brevet de William Lee en 1561. Cependant, une étude d’Oxford (2013) montre que 702 types d’emplois aux US sont à haut risque d’automatisation et 19% à risque moyen. 66% des emplois pourraient disparaître dans les 20 ans, les bouleversements commençant dès 2025.
  6. Optimisme technologique : soutenue par Alfred Sauvy (économiste démographe), au début du 19ème siècle 80% des emplois étaient dans l’agriculture et personne n’imaginait les emplois d’aujourd’hui. Il nous est difficile de prévoir les nouveaux emplois, surtout lorsque les changements sont profonds. L’idée de Milton Friedman, soutenue par Marc Andreesen : les besoins des humains sont infinis et il faut toujours de nouveau emplois pour les satisfaire. Il faut donc laisser le marché fonctionner et ne pas freiner le progrès. Il reste énormément à faire, vaincre le cancer (20% des enfants, 45% des adultes), accès à l’eau potable, guerres civiles, etc. Tout cela nécessitera énormément d’intelligence humaine.
  7. Les fantasmes transhumanistes : tuer la mort, comprendre nos origines, coloniser l’espace. Nous aurons besoins d’emplois extrêmement qualifié et interdisciplinaire, la seule question est de savoir quelles compétences il nous faut et comment requalifier la population. L’IA s’ajoutera au capital et au travail comme facteur de production et aura un impact sur la productivité du travail, nos machines doublant leur puissance tous les 18 mois alors qu’il fallait 50 ans au 19ème siècle.
  8. Revenu Universel : défendu par les milliardaires du numérique anticipant la destruction d’emplois et des révoltes populaires. Le RU est suicidaire face à l’IA et ne sert que d’alibi pour ne pas faire les réformes nécessaires. Il faudrait plutôt combattre la désynchronisation entre la politique et les nouvelles technologies. Il serait très difficile de revenir au travail après un passage au RU, le manque d’effort intellectuel dégradant la plasticité neuronale.
  9. Formation professionnelle : il faut la moderniser et donner un droit à la formation continue plutôt que d’accepter que des groupes entiers soient marginalisés et mis au RU. Le chômage actuel est dû à un décalage entre la demande et les compétences. Le système éducatif n’est pas capable de résoudre le problème car il n’a que peu d’impact sur les capacités cognitives ce qui va produire une fracture sociale. Les géants du numérique prendront le contrôle du système éducatif.

Mes remarques

  1. Les technologies NBIC vont probablement changer la donne, mais cela me semble excessivement imprévisible pour en tirer des conclusions. Par contre on peut mettre en doute l’échec de l’école puisqu’elle est en partie responsable de l’effet Flynn et qu’elle a démocratisé l’intelligence. Les variations de l’intelligence n’étant pas grave et sa meilleure sélection probablement profitable à tout le monde car accélérant le développement économique. De plus, Steven Pinker montre que l’effet Flynn a un impact sur nos considération éthiques, les capacités de raisonnement abstrait nous permettant de nous mettre plus facilement à la place des autres. Dans ce cas, il vaut mieux que les décideurs et les responsables soient des gens à hautes capacités intellectuelles.
  2. L’automatisation concernerait des tâches de plus en plus qualifiées que l’on pensait inaccessible aux ordinateurs. Cependant, peut être a-t-on surestimé la difficulté de ces tâches. Tout en ayant une incapacité à prédire les nouveaux types d’emploi.
  3. Laurent Alexandre affirme que le Big Data et l’explosion des données mènera à la mort des médecines. Au-delà de cette affirmation un peu sensationnaliste, une nouvelle révolution scientifique est lancée. Comme celle que nous avons vécu au 20ème siècle. Le Big Data rendant la science beaucoup plus efficace grâce à des cohortes beaucoup plus importantes.
  4. Les spécialistes des domaines les plus sophistiqués pourraient être remplacés par des automates. Cependant, l’intelligence artificielle est pour l’instant incapable de produire des algorithmes ayant un soupçon d’intelligence générale. Ces spécialistes verront donc une baisse de leur charge mentale et une concentration de leur capacités sur des tâches plus intellectuelles.
  5. L’IA changerait l’économie, la transformant en un jeu à somme nulle zappant la concurence et créant des monopoles. Ces monopoles seraient rendu possible grâce à l’accumulation de gigantesque base de données pour entraîner des IAs. Cependant, est-il plus difficile de récupérer des données pour lancer une start-up dans le numérique qu’auparavant, lorsqu’il s’agissait de ressources physiques ?
  6. Il faudrait éviter le tout formation car le chômage ne serait pas due au manque de formation mais à un décalage entre les qualifications et les modèles économiques du numérique. L’exemple de la Suisse montre bien qu’une amélioration du système de formation afin de donner aux travailleurs des compétences concrètes et adaptées, permet d’atteindre un faible taux de chômage.  Un rapport du Conseil Fédéral montre qu’en Suisse le marché du travail ne s’est pas décalé vers le bas, le milieu du spectre de qualification étant occupé par des machines, des travailleurs qualifiés migrent vers des postes moins qualifiés, et un petit nombre de travailleurs qualifiés migrent vers le haut du spectre, contrairement à d’autres pays. Dans ce pays, la majorité des travailleurs ont immigrés vers le haut, et l’on observe quasiment pas de polarisation du marché du travail.
  7. Pour Laurent Alexandre, l’IA devrait s’ajouter au capital et au travail. Mais l’IA n’est-elle pas un simple capital ? Le calcul coûtant de moins en moins, les entreprises sont tentées de remplacer les travailleurs par du capital informatique. Encouragé encore plus par le haut retour sur investissement du capital comparé au travail.
  8. De nouveau, concernant l’incapacité du système éducatif. Steven Pinker montre qu’il a bien un impact sur les capacités cognitives. Je ne suis pas convaincu que les différences d’intelligence poseront un problème dans le futur, avoir une sélection plus efficace pourrait même être bénéfique pour tout le monde (économiquement et éthiquement).
  9. Le revenu universel (RU) pourrait être supplémentaire d’augmenter les capacités intellectuelles humaines. En effet, des études ont montré que le stress dû aux problèmes financiers et à la soumission à des stéréotypes a un impact sur les performances intellectuelles qui se traduisent par 13 points de QI en moins. Retirer ces problèmes à une partie de la population, c’est faire directement augmenter leur intelligence. De plus, l’augmentation du temps de loisir a permis d’augmenter le temps de lecture ou celui consacré à des jeux, augmentant encore plus le QI. Le RU serait donc possiblement efficace en libérant du temps pour des exercices intellectuels. Laurent Alexandre semble plutôt penser que le peuple utiliserait ce temps à ne rien faire et regarder la télévision.

Chapitre 7 : La première métamorphose de l’école : la brève ère des “edtechs”

Idées clés

  1. Nouvelles technologies d’éducation : dès 2020, la personnalisation de l’éducation va émerger. Grâce aux neurosciences, l’éducation prendra en compte la fluctuation des attentions, la différence de vitesse et la maturité. De nouvelles technologies d’éducation vont apparaître comme le Learning Expedition, les Serious Game et le Flipped Classroom ainsi que les MOOCs basées sur la progression différenciées, l’évaluation mutuelle, l’apprentissage mixte et l’adaptative learning.

Mes remarques

  1. L’utilisation de tests psychométriques dans le courant du 20ème siècle a déjà ouvert la porte à une école personnalisée. Elle devrait maintenant passer à un nouveau stade de cette personnalisation grâce aux technologies numériques. Cependant, Laurent Alexandre nous dit que rien à changer dans le transmission du savoir depuis des siècles. J’ai montré plus haut que c’est évidemment faux puisque c’est bien la métamorphose de l’école durant le 20ème siècle qui a propulsé en partie l’effet Flynn.
  2. Les tests de QI ont permis de diriger les élèves vers les bonnes écoles. Mais l’hostilité face au QI empêche de mettre totalement ces politiques en oeuvre. Dans le futur il faudra y recourir, ainsi qu’aux neurosciences pour étudier comment l’effet Flynn a marché concrètement au niveau cérébral.
  3. Révolution de l’éducation : QI, technologies numérique et neuroscience. Cela devrait suffir pendant encore quelques décennies.

2030-2060 – L’école de demain sera transhumaniste ou ne sera pas

Chapitre 8 : De la neuroéducation à la neuro-augmentation

Idées clés

  1. Neurone vs Machines : il y aura une école pour la jeune IA qui ne nécessitera que quelques secondes. Plusieurs milliers étant générés pour l’éducation et seulement les meilleurs étant gardés ce qui est beaucoup plus lent que l’évolution humaine. Notre cerveau ayant des limitation physiques que le silicium n’a pas. Pour les dépasser nous aurons le choix soit de pratiquer l’eugénisme (Gataca) ou la neuro-augmentation. 60 points de QI ont été obtenus en 5 générations.
  2. La loi de Stevenson : montre que la capacité à analyser le fonctionnement des neurones croît exponentiellement.

Mes remarques

  1. Laurent Alexandre parle dans ce chapitre de l’IA dans des termes très anthropomorphiques. Ce sont des abus de langage qui contribuent aux fantasmes technologiques. Lorsque l’on parle d’IA entre spécialistes, nous parlons du domaine de recherche et d’ingénierie. L’intelligence artificielle est un champs scientifique voulant recréer l’intelligence sous forme d’algorithmes capables d’effectuer des tâches simples à partir de données observées. Mais “une IA”, ça n’existe pas ! Un algorithme ne s’éduque donc pas, et s’euthanasie encore moins. Par exemple, lorsqu’on génère des “IAs” comme le dit Laurent Alexandre, on crée simplement un ensemble de fonctions sur le même modèle pour sélectionner celui qui est le plus efficace après apprentissage. On n’euthanasie pas plus quand on supprime une de ces “IAs” que quand on éteint son ordinateur.
  2. Le transistor est-il vraiment plus puissant que le neurone ? Le silicium n’est pas malléable contrairement aux neurones qui peuvent changer leur interconnexions, leur puissance de calcul est bien supérieur à celle du transistor, et il faut énormément de transistor pour simuler un neurone. De plus, c’est bien le neurone qui a créé le transistor. C’est bien à cause de ces limites que les chercheurs essayent de nouveau types de machines pour les dépasser.

Chapitre 9 : Pourquoi l’implant intracérébral s’imposera

Idées clés

  1. Neuro-augmentation : Elon Musk propose de créer des implants qui augmenteront les capacités intellectuelles de ceux déjà doués, ce qui augmentera les inégalités.
  2. Education : les éducateurs seront remplacé par des spécialistes en neuroscience chargés de paramétrer l’éducation pour chaque élève selon ses caractéristiques.

Mes remarques

  1. Concernant la voix choisie par Elon Musk, c’est-à-dire le cyborg, n’y a-t-il pas une grande marge de manoeuvre avec la réduction de la part environnementale des différences de QI et l’élimination de la charge mentale pour augmenter nos capacités intellectuelles ? Solution beaucoup moins cher que des implants, qui viendront beaucoup plus tard.

Chapitre 10 : L’école de 2060 rendra tous les enfants intelligents

Idées clés

  1. Neuro-augmentation : dans le futur, nous demanderons l’égalité intellectuelle en érigeant un droit opposable à l’intelligence. La modernité étant basée sur la lutte des inégalités, nous serons obligé d’augmenter et égaliser les QI pour préserver nos démocraties. Il y a un lien complexe et dérangeant entre la pauvreté, bagage génétique et QI, la pauvreté ayant un impact sur le cerveau en amincissant certaines zones corticales. Avant d’atteindre cette égalité, nous passerons par une phase d’augmentation des inégalités car les technologies de neuro-augmentation ne seront accessibles qu’à une élite. Ces neuro-technologies comme les implants neuronaux capables d’augmenter la mémoire et les capacités de calcul. Les pouvoirs publics et les conservateurs essaieront donc d’interdire ces technologies par un moratoire, hors aucun moratoire technologique n’a duré très longtemps. Des recherches sont déjà en cours et il faudra donc plutôt aider les plus défavorisés à se neuro-augmenter.
  2. QI et inégalités : en 2030, la robotisation et l’augmentation seront tels que les emplois disponibles nécessiteront au minimum un QI de 130. Nos démocraties sont basées sur la solidarité qui n’est qu’un mécanisme d’atténuation des inégalités intellectuelles, car la richesse venant avec l’utilité sociale est un signe d’intelligence. De nos jours, c’est la fiscalité qui réduit les inégalités créées par le libre marché, mais cet outil ayant des limites, il faudra demain faire appel à la neuro-augmentation. Le 21ème siècle étant le siècle des réductions d’inégalités de QI.

Mes remarques

  1. Je ne pense pas que les inégalités de QI poseront autant de problèmes. Car premièrement, la sélection des élites par l’intelligence est bénéfique pour tous. Deuxièmement, l’IA est à des années lumières de rendre la barrière cognitive dangereuse. Et troisièmement, l’école est efficace et peut le devenir encore plus. La formation peut être adaptée pour réduire le chômage.
  2. La pauvreté maltraite effectivement le cerveau, mais il le surcharge aussi d’information. Ce que l’on appelle le charge mentale. En effet, des travaux ont montré que la pauvreté rend une personne moins performante intellectuellement et cela de trois façons différentes.
  3. Premièrement, le stress dû à la pauvreté a un impact sur le QI. Cette baisse peut atteindre 13 points de QI. Cette capacité restante après soustraction de la charge mentale due au stress de la pauvreté pourrait être dénommé le “QI effectif”. Une personne pauvre ayant un QI de 115, c’est-à-dire une intelligence supérieure, ne possédera qu’un QI effectif de 102. Le cerveau possède une bande passante, qui peut être saturé par des problèmes liés à la pauvreté. Une expérience du Prof. Eldar Shafir montre que lorsque l’on fait passer un test de logique à des personnes défavorisés après les avoir mit dans une situation hypothétique de stress financier, ils obtiennent des résultats inférieurs, alors que leurs capacités logiques testé avant la mise en situation ne montrait aucune différence avec l groupe de personnes favorisées financièrement.
  4. Deuxièmement, on peut ajouter à cela les stéréotypes qui agissent comme une prophétie auto-réalisatrice. Le stress de confirmer le stéréotype étant un stress de plus augmentant la charge mentale. L’expérience du Prof. Fabrizio Butera montre comment les enfants des classes défavorisées sont plus mal notés que leurs camarades des classes supérieures. Une même correction de dictée recevra un demi-point de moins lorsque l’élève est issu d’une famille pauvre.
  5. Laurent Alexandre affirme que les capacités cognitives sont essentiellement héritées génétiquement. Hors, de nombreuses études montrent qu’au-delà de la situation économique des parents, c’est bien le niveau socio-culturel qui affecte le plus le développement cognitif de l’enfant. L’une des clés c’est l’acquisition du langage, car l’enfant peut accuser un retard dans l’ensemble des tâches d’apprentissage lorsqu’il ne peut pas consacrer assez de temps à la lecture ou à la conversation. Une initiative dans le canton de Genève essaie de réduire les inégalités dans le développement du langage chez les enfants. Pour cela ils stimulent le langage chez les tout petits afin qu’ils commencent leur parcours scolaire avec la plus grande aisance orale. Des différences sont déjà constaté chez des enfants de 4 ou 5 ans dans le développement du langage oral, entre 20% à 30% de mots connus en plus chez les enfants de classes moyennes ou supérieures. Si l’on fait passer des tests de logiques aux enfants des différentes classes sociales on ne constate pas de différences. Ces différences de compréhension du langage influencent ensuite le parcours social, le niveau de langage à 4 ans étant la variable qui prédit le mieux la réussite ou l’échec de la scolarité.
  6. Ces différents points montrent que contrairement à ce qu’affirme Laurent Alexandre , lorsqu’il dit que l’on ne peut améliorer l’égalité car nous n’avons pas de contrôle sur l’intelligence, nous avons encore une grande marge de manoeuvre pour jouer sur l’environnement afin de réduire les différences d’intelligence. Au lieu de chercher à mettre des puces dans la tête des enfants, ou de tomber dans l’eugénisme, nous pourrions chercher à modifier notre environnement cognitif, ce qui coûte beaucoup moins cher, mais est également beaucoup plus éthique.

Chapitre 11 : Du toboggan eugéniste à la dictature neuronale : trois scénarios pour un futur

Idées clés

  1. Trois scénarios : le futur sera un monde où tout le monde sera augmenté et à très haut potentiel intellectuel. Nous ferons alors face à deux problèmes : gérer les exclus ou dissidents, et la course à l’armement. Plusieurs scénarios sont alors possibles. Premièrement, un grand bond en arrière conservateur, les connaissances et la science régresse, où s’affronte transhumanistes et bio-conservateurs. Deuxièmement, la surenchère neuro-technologiste et eugéniste. Troisièmement, la neuro-dictature où les neuro-technologies sont utilisées pour nous manipuler et implémenter des modes de pensées, les IAs pouvant lire en nous alors qu’elles sont indéchiffrables.
  2. Intégrité cérébrale : l’intégrité de nos cerveaux pourrait être mis à mal par les nouvelles neuro-technologies qui pourraient être utilisées pour manipuler nos souvenirs et notre mémoire et prédire nos décisions. Quelle est la limite en cette manipulation et l’éducation ?

Mes remarques

  1. D’un côté Laurent Alexandre est spiritualiste lorsqu’il affirme que l’intelligence artificielle forte apparaîtrait comme par magie lorsque les machines seront assez puissantes, tout en pouvant tout aussi magiquement devenir jalouses, hostiles ou craintives. D’un autre côté, il fait preuve d’un déterminisme simpliste et réducteur. Le cerveau est un ensemble de milliards de neurones dont les potentiels changent de milliers de fois chaque seconde. Chaque changement d’état d’un neurone pouvant avoir un impact important sur tout le reste du cerveau car chaque neurone est connectés à plusieurs milliers d’autre neurones. Même en ayant la capacité de mesurer l’état de tous les neurones, ces mesures seraient incomplètes, et cette incomplétude aurait des impacts énormes sur les prédictions que l’on pourrait faire des états futurs, les rendant difficile voir impossible, peu importe la capacité de calcul à notre disposition. Il paraît donc improbable que nous ayons un jour la capacité de modifier le niveau d’ouverture d’esprit ou de fanatisme dans le cerveau de quelqu’un.
  2. L’IA n’est pas de plus en plus indéchiffrable. Les algorithmes sont conçus, testés et re-testés. Tous les chercheurs en intelligence artificielle connaissent très bien les algorithmes utilisés et leurs fonctionnements et cherchent expérimentalement à déterminer l’influence des paramètres et des différentes structures. Ce qui est compliqué aujourd’hui c’est d’expliquer la décision d’un algorithme de réseaux de neurones. Car en effet, les réseaux de neurones sont un exemple de modèle connexionniste. C’est à dire un modèle qui est composé d’un ensemble d’unités extrêmement simples qui participent toutes à la décision finale. Il est difficile de déterminer la chaîne des causes et des conséquences dans de tels modèles et d’expliquer le pourquoi du comment de la décision finale. Cela ne lève aucun problème de contrôle ou d’asymétrie de l’information, le problème avec ce type de modèle c’est qu’on ne peut les appliquer dans certain domaine, comme le juridique par exemple, où la justification et la vérification de la décision est indispensable. On ne peut aussi déterminer si l’algorithme est biaisé ou si il base sa décision sur des caractéristiques problématiques.  Par exemple, un algorithme de recrutement pourrait discriminer des candidats sur leurs origines sans que l’on puisse le déterminer. Même si leur origine n’apparaît pas clairement, la décision pourrait être liée à des caractéristiques corrélées avec l’origine ethniques.
  3. Il y a une incohérence supplémentaire à affirmer que le cerveau serait comme un livre ouvert face à l’IA, alors que cette IA serait indéchiffrable. Les réseaux de neurones étant des simplifications des neurones biologiques, mais surtout, des versions déterministes, c’est à dire sans hasard et totalement réplicables. Le cerveaux humain sera toujours plus imprévisible que n’importe quel modèle utilisé en intelligence artificielle, en tout cas tant qu’ils seront exécutés par des machines déterministes comme les ordinateurs actuels.
  4. L’intelligence artificielle est un outil, avons-nous vraiment besoin de déterminer comment cohabiter avec un outil ? Devons-nous déterminer comment vivre avec les marteaux ?

2060-2080 – L’humanité à l’école des dieux

Chapitre 12 : L’humanité en danger de mort

Idées clés

  1. IA vs Humain : l’IA pourrait devenir supérieure à l’être humain. Cependant, nous pensons trop souvent qu’elle sera bonne a fortiori. Des tests comme le test de Turing ont été créés pour évaluer l’intelligence des systèmes. Nous devons donc développer des méthode pour détecter si des robots nous manipulent. L’AI n’est qu’une question d’opération traitées, de plus, les ordinateurs atteindront la puissance du cerveau humain d’ici 2029 (selon Ray Kurzweil). Elle pourrait alors déterminer ses propres objectifs et se reprogrammer, c’est à dire d’apprendre et d’être libre. Il nous faudrait alors un consensus mondial sur l’IA.
  2. Loi des avantages comparatifs : la spécialisation ricardienne montre qu’il est macro-économiquement rationnel de se spécialiser dans ce que l’on fait de mieux, mais dangereux si ce domaine n’est pas porteur. Il faut alors éviter de spécialiser l’humain dans le social et de laisser l’IA s’occuper des domaines intellectuels car la maîtrise technologique sera la clé de notre survie en tant qu’espèce biologique.

Mes remarques

  1. Il n’est pas difficile de prédire l’avenir de l’IA, c’est tout simplement impossible. Yann Lecun donne une bonne réponse à ce propos. Nous venons de franchir une montagne en découvrant les capacités du deep-learning et nous faisons face à une nouvelle montagne. Certains disent qu’il s’agit de l’apprentissage non-supervisé ou d’autres des systèmes neuro-symboliques, mais il extrêmement probable que derrière cette montagne se cache encore d’autres montagnes tout aussi difficiles et compliquées qui nécessiteront un travail humain énorme pour être franchies. Nous ne pouvons alors déterminer la quantité de travail qu’il nous reste à fournir. Ne connaissant pas le chemin qui nous mène à l’intelligence générale, nous ne pouvons déterminer sa longueur et sa difficulté. Il suffit de regarder l’histoire de l’intelligence artificielle pour s’en convaincre. Des experts comme Marvin Minsky prédisaient que le problème de la vision par ordinateur nécessiterait pas plus d’un été pour être résolu. Il n’est toujours pas résolu 60 ans plus tard. Même les experts donc sont incapables de prédire l’avenir de l’IA, que se soit Marvin Minsky, Ray Kurzweil, et encore moins Laurent Alexandre. S’en rendre compte n’est pas faire preuve de déni, et affirmer que l’on est capable de prédire cet avenir n’est ni rationnel ni sérieux, mais bien du sensationnalisme opportuniste.
  2. L’IA ne serait ni bonne ni mauvaise parce qu’elle serait née de nos mains. Mais contrairement à nous, elle ne sera pas le fruit de la sélection naturelle. Un algorithme où chaque agent peut utiliser toutes les stratégies possibles, dont la violence, pour surpasser ses adversaires, les traits menant à ces stratégies se voyant propagés aux générations suivantes.
  3. Nous atteignons ici un point essentiel du livre. Pour Laurent Alexandre, qui reprend cette idée de Ray Kurzweil, l’intelligence ne serait qu’une question de quantité d’opérations traitées. On sait que c’est faux et que nous ne pouvons développer des machines intelligentes sans une profonde compréhension de l’intelligence.
  4. Laurent Alexandre confond intelligence et objectif. En effet, on ne cherche un nouvel objectif qu’à partir d’un précédent donné. Le recherche d’un nouvel objectif étant en soit un objectif qui a dû être programmé. Par exemple, Laurent Alexandre n’explique pas pourquoi une IA aurait un instinct de survie. Laurent Alexandre est en fait totalement spiritualiste et adopte les conclusions du dualisme. Le fantôme dans la machine peut déterminer ses objectifs sans aucune influence de facteurs extérieurs. Vouloir déterminer des objectifs, c’est déjà un objectif en soi. Il faut donc que cet objectif antécédent soit possible dans la construction du système. De plus, lorsque l’on fait des choix pour ces nouveaux objectifs, c’est sur la base de l’architecture préexistante parce que c’est un système déterministe. Laurent Alexandre, et ceux faisant référence à des systèmes pouvant déterminer leur “propre objectif” sont spiritualistes parce qu’ils suppose qu’une étincelle magique vient intervenir permettant à une machine de déterminer des objectifs à partir de rien.
  5. La théorie Ricardienne est correcte. La spécialisation se fait sur la base des capacités cognitives. Les méthodes d’IA s’occupent des tâches très spécifiques et automatisables, l’homme de toutes les tâches intellectuelles nécessitant un traitement symbolique.

Chapitre 13 : vers une alliance internationale pour dompter l’IA?

Idées clés

  1. IA hostile : nous devons définir une stratégie de contrôle de l’IA sinon nous risquons d’être exterminés par elle. Comment une IA libre considérerait-elle l’humanité ? Comme un danger ou comme des êtres irrationnels ? Les civilisations plus avancées ont toujours soumis les autres peuples au nom des bienfaits qu’elles pourraient apporter. L’IA ferait-elle de même ? Nous verrait-elle comme des êtres imprévisibles et irrationnels ? L’inexistence des ETs pourrait être due à la découverte du transistor et nous devrions ainsi tout faire pour éviter qu’un pays développe une IA hostile.
  2. 3 lois d’Asimov : Isaac Asimov a essayé de répondre à ces questions avec ses trois lois. 1. un robot n’a pas le droit de faire du mal à un humain et ne peut rester passif devant un humain en danger. 2. un robot doit obéir aux ordres des humains, sauf si ces ordres sont en contradiction avec le 1ère loi. 3. un robot doit protéger sa propre existence, dans la mesure où cette protection n’est pas en contradiction avec les deux 1ère lois;
  3. Problème du contrôle : cependant, une IA libre ne pourrait-elle pas effacer ces lois ? Nous devrions alors graver ces lois dans les CPUs afin qu’elles ne soient pas surpassées. Malheureusement, le développement d’une IA forte est un processus non-coopératif où chaque équipe essaye d’être la première et toute équipe voulant intégrer des systèmes de sécurité est assuré de perdre (équilibre de Nash). Il y a quantité d’exemples de ce types comme la bombe atomique et la course à l’espace.
  4. Education morale : nous avons donc besoin d’inculquer aux machines libres et autonomes de règles morales. Cependant, les réponses trouvées par des auteurs de science-fictions comme Isaac sont naïves car des IAs libres pourraient cacher leur vrais buts. De plus, nos principes moraux ont changés au cours du temps et il sera donc difficile de définir quelles données fournir aux IAs et qui les choisira, ou comment elle interprétera nos récits mythiques et religieux. Nous aurons encore besoin de rendre ces systèmes transparents pour qu’ils puissent expliquer leur décisions. Il nous faut donc investir dans la recherche sur la psychologie des IAs.

Mes remarques

  1. Dans son raisonnement sur les possibles dangers de l’intelligence artificielle, Laurent Alexandre oublie plusieurs limites techniques, physiques et logiques. Pourquoi une IA verrait-elle l’humanité comme un danger ? Elle devrait pour ça avoir un instinct de survie. Mais pourquoi en aurait-elle un ? Qu’est-ce qu’une volonté libre à par un réactivation de la thèse spiritualiste (la volonté venant de nulle part). Pourquoi l’IA aurait-elle sur nous une volonté de colonisation ? Tout cet ensemble de caractéristiques listées par Laurent Alexandre fait partie d’une erreur classique : confondre l’intelligence et le but. L’intelligence est la capacité à résoudre des problèmes et contourner des obstacles pour atteindre un but. Mais elle ne définit pas le but. L’instinct de survie, la volonté d’exterminer préventivement l’humanité ou de l’enfermer dans une cage dorée est un but qui n’apparaît pas par magie. Ce type de thèse sont en fait un réactivation de la vision dualiste, le mal apparaissant dans la machine par la magie de l’étincelle de l’intelligence. Cette version de l’hypothèse dualiste que nous pourrions appeler Le Démon dans la Machine (The Devil in the Shell), en référence au Ghost In The Shell. Paradoxalement, personne ne soutient l’hypothèse contraire, l’Angle dans la Machine, la morale apparaissant par hasard avec le “pouf” de l’intelligence. Au contraire, il est couramment soutenu que cette même morale doit être apprise.
  2. La transistor a des graves limites, il est premièrement beaucoup moins puissant que le neurone en terme de puissance de calcul brut. Il est aussi beaucoup moins souple, l’architecture des processeurs ne peut se modifier de façon plastique comme le cerveau, et il est surtout déterministe contrairement au cerveau qui est un ordinateur de type “analogique”, les neurones pouvant prendre une infinité de potentiel.
  3. Isaac Asimov fut l’un des premiers à essayer de déterminer les lois essentiels pour garantir la sûreté des robots. Mais il soutenait une vision d’ingénieur de l’intelligence artificielle et de la robotique. Dans une préfaces à l’une de ses nouvelles, il précise qu’il était las de voir les robots représentés comme des créatures pourvues de libre arbitre sur lesquelles l’être humain perd le contrôle tout en les voyant se rebeller pour le punir de sa volonté blasphématoire de créer la vie. Isaac Asimov nomma ces récits Faustien le complexe de Frankenstein. Les trois lois citées par Laurent Alexandre n’étaient pas là pour garder le contrôle sur des créatures robotiques potentiellement hostiles, mais comme simple mécanismes garantissant qu’un robot pourrait être sûr pour les être humains. Comme un manche équipe un coûteux, ces lois sont censées éviter qu’un robot puisse possiblement blesser un humain ou ne pas le secourir en cas de danger. Elles sont des systèmes de sécurité intégrés et créés par des ingénieurs après d’innombrables tests et contrôles de qualité. Cependant ces règles ont des limites, dont celles de ne pouvoir être intégrées telles quelles car trop rigides et trop formelles. Je ne vois donc aucune manière que nous pourrions avoir des les intégrer aux CPUs pour en garantir l’application.
  4. Cette volonté de graver les lois d’Asimov dans les CPUs est un exemple supplémentaire de la thèse spiritualiste qui se propage dans le grand public et chez les intellectuelles lorsqu’il s’agit d’intelligence artificielle. L’intelligence apparaîtrait dans une souffle magique accompagnée des composants inéluctables du mal et de l’autodétermination. Le libre arbitre acquis par la main de quelques mystérieux principes, on ne pourrait garder le contrôle sur un système intelligent sans lui mettre des menottes technologico-psychologiques sous formes de règles ou de protection.
  5. Il nous faut nous arrêter quelques instants sur le fameux “bouton rouge” qu’aurait développé Google car il s’agit presque d’une fake news. Des chercheurs de Google ont en effet publié un article qui montre en procédé permettant d’arrêter un robot en cas de danger pour un être humain ou pour lui-même. Mais il ne s’agit pas d’un “bouton” servant à arrêter une IA devenue incontrôlable. Lors de la phase d’apprentissage, on apprend à un robot à effectuer une tâche en lui donnant des feedbacks positifs ou négatifs. Le robot/IA va progressivement déterminer quelles sont les bonnes actions à effectuer dans quelles situations. Cependant, pendant cette phase d’apprentissage, un robot pourrait se mettre en danger (tomber d’une falaise par exemple), ou mettre en danger la vie d’un être humain. C’est pour cela que les chercheurs ont créé un mécanisme qui permet d’arrêter le robot/IA immédiatement, mais cela a un coup, celui d’interférer avec son apprentissage et donc de possiblement l’empêcher d’apprendre sa tâche. C’est afin de répondre à ce problème qu’ils ont développé une technique permettant de faire croire au robot/IA que cette décision vient de lui-même et donc de l’intégrer à son apprentissage.
  6. Laurent Alexandre utilise de nouveau des éléments de langage trompeurs communément rencontrés dans les discussions sur l’intelligence artificielle. Il affirme ici qu’il faudrait investir dans la psychologie de l’IA, cela afin de mieux la connaître. Hors nous n’avons pas besoin d’apprendre à connaître ce qui n’existe pas encore puisque c’est précisément le domaine de l’intelligence artificielle qui étudie et développe l’intelligence des machines. La psychologie de l’IA n’est donc rien d’autre que l’intelligence artificielle elle-même.
  7. Le développement de l’IA est un processus coopératif. La complexité est telle qu’une équipe qui déciderait de faire cavalier seule se verrait directement pénalisée. Tout chercheur travaillant dans le domaine de l’IA sait que tous les acteurs de ce domaine collaborent et partagent jusqu’à leurs codes sur des plateformes comme Github. Si un seul gros acteur voulait développer une IA forte seule dans son coin, la quantité de chercheurs nécessaires pour cela, et qui ne publieraient plus, ne passerait pas inaperçue. L’exemple avec la conquête spatiale est juste, elle est aujourd’hui une coopération entre plusieurs pays et des compagnies privées car le coût totale est trop important pour une seule équipe.

Chapitre 14 : “Corps, esprit et hasard”, les 3 nouveaux piliers qui remplacent “Liberté, égalité et fraternité”

Idées clés

  1. Limites : nous devrons instaurer trois limites à l’ère du cerveau téléchargeable. 1. Ne pas renoncer à nos corps physiques. 2. Garantir l’intégrité du cerveau de la personne. 3. Garder une place pour le hasard.
  2. Première limite : la réalité virtuelle va nous rendre accro car le monde physique ne sera jamais à la hauteur. La réalité sera alors réservée aux plus puissants et aux riches. Les systèmes de recommandation nous enfermant dans une bulle préfigure ce monde en maximisant notre satisfaction immédiate. Nous devons garder nos corps car il nous dicte le sens de la vie.
  3. Deuxième limite : la Noosphère (le branchement de tous les cerveaux) est la fascisme du futur capable de lire en continu nos pensées et nos secrets les plus intimes. Nos devons donc garantir l’intégrité de nos cerveaux.

Mes remarques

  1. Laurent Alexandre craint un scénario à la Matrix où l’humanité tomberait progressivement dans un monde simulé car plus attrayant que le monde réel. Cependant, il y a des limites physiques à la possibilité de créer un monde entièrement simulé et une première de ces limites est l’explosion combinatoire. Daniel Dennett, philosophe américain et spécialiste de la philosophie de l’esprit montre dans son livre “La conscience expliquée” qu’un scénario ressemblant à l’expérience de pensée du malin génie de Descartes n’est pas impossible logiquement, mais impossible en pratique. En effet, la capacité de traitement nécessaire pour créer les sensations physiques d’un monde virtuel parfaitement indissociable de la réalité, ainsi que les boucles de rétroactions nécessitant de prédire les actions d’un agent afin que celui-ci puisse interagir avec son environnement, rend cette possibilité tellement coûteuse en calcul qu’elle ne sera probablement jamais possible en pratique. Exit donc un monde à la Matrix et ses humains piégés dans un monde de rêve créé par une intelligence artificielle.

Chapitre 15 : devenir un démiurge sage pour maîtriser l’IA

Idées clés

  1. Trois crises du futur : notre seule chance est de co-évoluer avec les machines afin de faire faces aux trois crises du futur. 1. Crise sociale face à l’automatisation possible grâce aux IAs faibles. 2. Crise éthique car la neuro-augmentation deviendra nécessaire. 3. Crise existentielle face au défis de l’IA forte.
  2. Les différentes intelligence : nous devrons dans le futur naviguer entre plusieurs type d’intelligence, manuelle, sociale, musicale, etc. Nous devrons les comprendre afin de faire face aux question éthiques et de construire le futur. D’autant que nous connaissons de moins en moins bien l’IA. Autre question posée par Norbert Wiener est de savoir jusqu’où l’on peut déléguer nos décisions aux robots, par exemple, peut-on empêcher les médecins de suivre leur intuitions en faveur d’algorithmes.
  3. Scénarios pour le futur : plusieurs scénarios restent possibles pour le futur sans possibilité de déterminer le bon. Dans certains l’IA est dangereuse et dominante, ou stupide, ou même indéchiffrable et imprévisible. Elle pourrait être forte et quand même sous notre contrôle. Dans d’autres elle est utilisée par des terroristes ou indifférentes à notre sort, ou encore nous enferme dans un monde virtuel. Nous pourrions fusionner avec elle ou devenir collaborative afin de nous aider à nous comprendre nous-même et le monde qui nous entoure. Dans d’autres elle est paternaliste et prend le pouvoir dans notre intérêt ou nous aide à avancer plus vite en nous faisant découvrir de nouveaux modes de pensée ou nous menant vers de nouveaux types de sociétés. Nous pourrions aussi aller vers une humanité qui diverge entre leur divers implants (ou leur absence), les IAs pourraient aussi se combattre entre elles.
  4. QCIA : les virtuoses de demain seront ceux qui pourrons lier les différentes intelligences (QCIA).

Mes remarques

  1. Laurent Alexandre donne dans ce chapitre un ensemble de scénarios qu’il pense probables pour le futur. Certain sont en effet possibles, d’autres sont improbables et très anthropomorphiques, plaquant des conceptions et comportements humains sur de possibles intelligences artificielles. Considérer qu’une IA pourrait vouloir nous coloniser, c’est voir le monde mental et cognitif des êtres humains comme le seul possible et donc inévitablement lié à toute forme d’intelligence.
  2. Nous connaissons de mieux en mieux l’IA, et c’est inévitable pour créer des machines plus intelligentes. Laurent Alexandre affirme que nous la connaissons de moins en moins car il base ses déductions sur une hypothèse fausse : “l’intelligence se résume à la quantité de calcul”. L’intelligence artificielle pourrait donc se développer par magie dans des ordinateurs assez puissants, et nous pourrions donc être confronté à elles sans les connaître et en étant incapables de les analyser. Hors cette hypothèse est fausse, la puissance de calcul est une condition nécessaire mais pas suffisante pour développer des machines intelligentes. Nous devons donc développer notre compréhension de l’intelligence pour pouvoir développer ces machines. Nous ne pourrions donc pas créer des machines intelligentes que nous ne connaîtrions pas.
  3. Nous ne devons pas suivre les conseils irréalistes et dangereux d’Elon Musk, qui n’est ni un expert de l’IA, ni qualifié dans ce domaine contrairement aux chercheurs. Tous ces chercheurs savent que l’on ne peut développer des logiciels intelligents sans en connaître profondément le fonctionnement, et que stopper l’IA parce que nous ne la connaîtrions pas n’a pas de sens.
  4. Laurent Alexandre pense que nous avons surestimé l’IA avant 2012, et que depuis nous la sous-estimons depuis. Je pense que nous avons toujours surestimé l’IA depuis le début, et que nous sous-estimons la complexité des problèmes que nous avons à affronter pour créer des machines réellement intelligentes.

Conclusion : vers une rencontre du troisième type

Idées clés

  1. Sept bouleversements majeurs nous attendent. Le transfert du pouvoir économique vers l’Asie, du neurone au transistor, du juridique au code numérique et de la démocratie aux entreprises-états, du pouvoir politique court-termiste au multimilliardaires transhumanistes. La disponibilité infinie en énergie et l’apparition d’une nouvelle morale remplie de questions techniques.
  2. Grandes questions : comment allons-nous définir notre relation aux machines ? Sera-t-elle conflictuelle par incompréhension ou pourrons-nous avoir un accord éthique ? Il nous faut aussi savoir ce que nous voulons et quels sont nos buts ultimes afin d’accueillir au mieux nos nouveaux pouvoirs démiurgiques.
  3. Intelligence biologique : nous devons démocratiser l’intelligence biologique en même temps que l’IA s’industrialise. Jusqu’ici, l’IA n’est pas responsable du chômage mais c’est plutôt la désynchronisation entre les besoins et les formations professionnelles, qui sont à l’état d’abandon.  A partir de 2030, nous verrons apparaître des IAs transversales et des robots bon marché, il nous faudra donc gérer la dé-synchronisation entre l’IA et nos cerveaux car cela aura un impact profond sur les fondements politiques et sociales de nos sociétés. L’école de cerveaux a du mal à suivre l’école des IAs et nous devons démocratiser l’intelligence biologique. Pour l’instant, notre compréhension de l’intelligence et indigeste, anthropomorphique, remplie de biais cognitifs et de projections de nos peurs.
  4. Deux inquiétudes liées à l’apparition d’une IA généraliste sur lesquelles nous devons  travailler : 1. celle de la fin du travail et 2. la possibilité d’une IA hostile. Concernant la première, deux solutions ont été proposées, le revenu universel (RU) et l’augmentation cérébrale. Il faut alors à tout prix éviter le revenu universel et le cantonnement aux activités relationnelles qui ne mèneraient qu’à notre vassalisation. Cependant ces deux inquiétudes sont probablement injustifiées, premièrement parce que les capacités de nos cerveaux restant vraisemblablement inimitables pour les machines pour encore plusieurs décennies, et deuxièmement, parce que l’aventure humaine est infinie et que nous aurons toujours de nouveaux besoins.
  5. L’école du futur aura deux buts. 1. préparer les nouvelles générations à gérer nos pouvoirs démiurgiques. 2. leur apprendre le vivre ensemble neurone-transistor. Elle sera probablement dirigée par des géants du numérique et basée sur le neuro-hacking, puis sur la sélection embryonnaire et les technologies NBIC. Sans cette démocratisation de l’intelligence biologique, l’IA va menacer la démocratie par décalage avec nos cerveaux. Une élite technologique prendra alors le pouvoir pour organiser la transition vers une civilisation post-humaine.
  6. Régulation : des technologies comme l’IA, la génétique et la colonisation du cosmos vont devenir essentielles, nous devrons alors prendre les bonnes décisions concernant la régulation et la gouvernance des celles-ci car elles seront peut-être irréversible. Une régulation basée sur la démocratie va devenir de plus en plus difficile car les transhumanistes seront plus intelligents et en vie plus longtemps. Ils prendront alors probablement le pouvoir politique.
  7. Limites : ne pouvons échapper à l’eugénisme et à l’hybridation avec le silicium, il nous faudra cependant garantir plusieurs limites essentielles. 1. La préservation de notre corps physique. 2. L’autonomie de nos cerveaux car la Noosphère mènera au fascisme du futur. 3. Garder une part de hasard.
  8. Le transhumanisme accélère l’apparition d’une IA forte, pendant ce temps l’Europe protège trop les données et garantit la suprématie américano-chinoise.

Points de désaccords

Laurent Alexanre NS.ai
Puissance de calcul == intelligence. La puissance de calcul croissant exponentiellement. Puissance de calcul != intelligence. La difficulté des problèmes en informatique croît également exponentiellement. Donc un croissance linéaire à les résoudre avec les ordinateurs.
Enseigner le code à l’école ne sert à rien. Les codeurs seront remplacés par des IAs. Il faut enseigner la pensée algorithmique et la science des données pour relancer l’effet Flynn.
L’école n’a pas d’impact sur le QI L’école n’a pas d’impact sur la distribution du QI mais sur sa moyenne (Flynn). Elle démocratise l’intelligence.
On peut prévoir l’évolution des capacités transversales de l’IA. L’évolution des capacités transversales des algorithmes est imprévisibles. Même aux experts du domaine. C’est empirique.
Nous connaissons de moins en moins bien l’IA Nous la connaissons de mieux en mieux. Il n’y a pas d’intelligence artificielle sans connaissance profonde de ses mécanismes. L’intelligence n’apparaît pas par hasard.
Le développement de l’IA est un jeu à somme nulle Le développement de l’IA n’est pas un jeu à somme nulle. Il sera impossible de développer une IA forte sans une collaboration planétaire. Voir l’exemple de Mars.
Nils Schaetti is a doctoral researcher in Switzerland specialised in machine learning and artificial intelligence.

0 Comments

Leave a reply

Your email address will not be published. Required fields are marked *

*