Laurent Alexandre

La guerre des intelligences ou du sensationnalisme opportuniste ? Partie 2

Laurent Alexandre : la guerre des intelligences ou du sensationnalisme opportuniste ? Partie 2
December 21, 2018 nschaetti

Laurent Alexandre : la guerre des intelligences ou du sensationnalisme opportuniste ?

Partie 2 : Le QI et les robots à l’école de l’IA

Cet article est la seconde partie d’une analyse du livre “La guerre des intelligences” de Laurent Alexandre. Vous pouvez retrouver la première partie ici-même sur mon site.

Vous avez aussi probablement remarqué que la réponse habituelle à la question de savoir ce qu’est l’intelligence, c’est que’on ne peut pas vraiment la définir. Répondre à cette question est pourtant essentiel pour la mesurer, mais aussi pour la développer ou la créer. La question de la mesure de l’intelligence chez l’être humain est le sujet d’études d’un domaine appelé psychométrie, qui cherche à développer et à évaluer un ensemble de méthodes pour quantifier des caractéristiques psychologiques. L’éducation cherche à développer cette faculté chez l’être humain, alors que l’intelligence artificielle cherche elle à la développer à partir de rien. La psychométrie mesure l’intelligence, l’éducation la développe, l’IA la crée.

Comme tout édifice ambitieux doit être développé sur des bases solides, ces domaines ne peuvent avancer significativement sans la capacité à mesurer de manière précise les évolutions de méthodes et à quantifier les propriétés des éléments étudiés. Cette observation est très apparente dans le domaine de l’intelligence artificielle. La capacité des modèles en apprentissage automatique est évaluée selon un ensemble très large de mesures qui diffèrent d’une tâche à l’autre. En reconnaissance d’objets par exemple, on mesure le nombre d’objets correctement reconnus, par rapport au nombre total d’images soumises au modèle, ce que l’on appelle la précision. Mais au-delà de cette simple mesure, quantifier la performance d’un modèle nécessite de tenir compte de la nature du problème lui-même. La capacité à résoudre différentes tâches devant être évaluée selon différentes mesures qui correspondant au problème auquel le système fait face. Cette recherche de mesures adéquates est l’une des tâches principales qui occupent les chercheurs en intelligence artificielle. Que se soit en recherche d’informations, en vision par ordinateur ou pour développer des assistants virtuels, les systèmes d’intelligence artificielle sont évalués sous différents angles avec une pléthore de mesures, comme la capacité d’un système à résoudre une tâche, mais aussi son temps de réponse, son utilisation mémoire ou son temps d’apprentissage.

Ces exemples montrent la difficulté de définir objectivement un test d’intelligence spécifique à une tâche en intelligence artificielle avant même de créer et d’évaluer des modèles. Mais ce problème se corse lorsque l’on tente de définir un test général d’intelligence auquel soumettre des programmes dits intelligents afin d’évaluer leurs performances. Dans son article Computing Machinery and Intelligence, Alan Turing introduisit le test de Turing, censé évaluer le niveau d’intelligence d’une machine à tenir une conversation humaine. Dans ce test, un juge échange des messages textuels avec deux interlocuteurs qu’il ne peut pas voir et dont l’un est une machine. Sachant que seul l’un de ses interlocuteurs est un humain, le but du juge est de trouver lequel des deux est un ordinateur. Alan Turing créa ce test pour répondre à la question “est-ce qu’une machine peut penser ?” Définir ce qu’est “penser” étant trop difficile et flou, Turing remplaça cette question par celle de savoir si une machine pouvait imiter une capacité de l’être humain, celle de la conversation. Grâce à ce test, évaluer l’intelligence d’une machine semblerait à notre portée. Malheureusement, il est trop facile d’accorder aux ordinateurs plus de crédits qu’ils n’en méritent.

Dans les années qui suivirent, le test de Turing devint une référence en intelligence artificielle et plusieurs compétitions furent organisées. La plus connue fut le prix Loebner, organisé annuellement, et qui teste la capacité de programmes de conversation à se faire passer pour des humains. Le comité d’organisation promettait 100’000$ à toute personne capable de créer un programme capable de tromper les juges à des tests nécessitant de décoder et de comprendre du texte, des images et des sons. Comme aucun programme ne fut capable d’atteindre de près ou de loin cet objectif, le comité d’organisation créa une version plus facile promettant 1’500$ à ceux capables de l’atteindre. Dans cette version, le programmeur ou un humain testé choisit un seul sujet de conversation, le juge n’ayant alors pas le droit de poser des questions trompeuses comme demander si les chats aiment porter des chapeaux ou si la tête de Sarah vient avec elle lorsqu’elle va au centre commercial. Le juge devant se cantonner à une conversation naturelle et semblable à celle de la vie de tous les jours. Après sept minutes de conversation, les juges devant classer les participants du plus au moins humain, classèrent tous les humains en tête de liste. Cependant, la moitié des juges identifièrent le programme gagnant comme faisant partie des humains.

Cette réussite pourrait être à une prouesse de taille s’il n’était pas interdit aux juges d’utiliser les questions les plus discriminantes pour déterminer s’ils sont en train de parler avec une machine ou un humain, ce qui est le but initial de la compétition. De plus, les programmeurs avaient la possibilité de choisir n’importe quel sujet de conversation, comme la météo, qui peut être rempli de phrases simples et banales. En conséquence, les programmeurs utilisaient de simples techniques de substitution utilisées depuis les années 60 et qui consistent à insérer des fragments de la question dans des phrases types, leur permettant de simuler des conversations simples et grossières. La terrible conclusion de cette expérience ne fut pas seulement que les ordinateurs sont en fait incapables de tenir une simple conversation, mais que l’être humain est facilement trompé par des algorithmes d’une simplicité enfantine, démontrant la difficulté de tester objectivement l’intelligence générale d’un algorithme. Aucun vrai expert en intelligence artificielle et en traitement du langage naturel n’a l’arrogance de prédire que la capacité de compréhension du langage naturel des ordinateurs atteindra celui des humains dans un proche futur, seul quelques futurologues prophètes de la singularité se hasardent à de telles prédictions.

Du côté de l’être humain, le Quotient Intellectuel (QI) est la première chose qui nous vient en tête lorsqu’il s’agit d’évaluer nos capacités intellectuelles. Le QI est un test psychométrique dont le but est de quantifier et de standardiser (nous reviendrons là-dessus) l’intelligence humaine qui est effectué par un psychologue dans le cadre d’un examen psychologique complet. Il fut créé au début du vingtième siècle pour détecter les élèves en difficulté afin de les orienter vers un soutien approprié et fait depuis l’objet de nombreuses objections théoriques et méthodologiques. Le test de QI évalue différentes capacités cognitives qui sont corrélées entre elles comme nos capacités à faire des analogies, à compléter une suite d’éléments visuels ou à effectuer des rapprochements entre certains mots. Toutes ses capacités ne sont pourtant pas indépendantes, car contrairement à la croyance populaire, lorsqu’une personne est efficace à un de ces sous-tests, elle tend à avoir de bons résultats aux autres tests (corrélations positives), ce qui montre l’existence d’un facteur commun conditionnant l’ensemble des résultats. Ce facteur commun appelé facteur g, pour facteur générale (general factor), est une variable cachée (hidden factor) qui est corrélée généralement avec 40 à 50 pour cent de la variance dans les résultats aux tests de QI. Ce facteur g est souvent appelé intelligence générale ou habilité mentale générale mais ces termes et l’interprétation du facteur g sont souvent remis en cause. L’application des tests de QI à une grande partie de la population depuis des dizaines d’années a parmi aux chercheurs d’évaluer la distribution des capacités cognitives dans une population donnée et de déterminer si elles sont utiles pour prédire d’autres caractéristiques comme le succès académique ou professionnel mais aussi le milieu socio-économique.

atari, game, reinforcement learning, machine learning, artificial intelligence, intelligence artificielleMais ces deux approches peuvent-elles se rejoindre ? Peut-on comparer efficacement les capacités intellectuelles des machines et celles des êtres humains ? La réponse classique apportée à ce problème depuis le début de l’intelligence artificielle fut d’organiser des compétitions entre l’homme et la machine sur une tâche spécifique dans le cadre d’un jeu aux règles et aux contextes formalisés. La première victoire de la machine à l’une de ces compétitions fut la victoire de Deep-Blue face au champion du monde d’échec, Gary Kasparov, en 1997. En 2011, le programme informatique d’intelligence artificielle d’IBM battu le champion du jeu télévisé américain Jeopardy! qui consiste à trouver une question à partir de la réponse. En mars 2016, le programme AlphaGo battu un des meilleurs joueurs mondiaux au jeu de go, puis le champion du monde Ke Jie en mai 2017, c’est ensuite en octobre 2017 qu’une version de ce programme, AlphaGo Zero, atteignit un niveau supérieur sans connaissances humaines préalables. Finalement, c’est une version généralisée d’AlphaGo, appelée AlphaZero, qui surpasse toutes les autres en décembre 2017. Cette version est capable de battre les meilleurs programmes non seulement au jeu de Go mais aussi aux échecs et au shogi (échecs japonais) grâce à des algorithmes communs de parcours de graphes et de réseaux de neurones. Ces avancées semblent démontrer que les capacités des machines se dirigent vers plus d’intelligence générale et donc vers une capacité à résoudre un spectre de plus en plus large de problèmes à partir des mêmes algorithmes.

Toutes les capacités intellectuelles pourraient donc rapidement être à la portée des machines et ces dernières pourraient venir concurrencer les êtres humains sur un ensemble de plus en plus grand de tâches. Mais à y regarder de plus près, comparer les capacités intellectuelles des êtres humains et des machines de cette manière pose plusieurs problèmes. Premièrement, comme je l’ai démontré dans la première partie de cet article, ces compétitions sont biaisées en faveur des machines car prenant place dans le cadre formel, entièrement défini et virtuel d’un jeu qui permet aux machines de s’affranchir du monde réel et donc de pouvoir apprendre indéfiniment car la tâche à résoudre est indépendante de l’expérience. Les machines ayant besoin d’une quantité énorme de données pour apprendre, une tâche prenant place dans un monde fini et formel permettant de générer des données à l’infini mène inévitablement vers un test biaisé en faveur de ces dernières. En effet, la technique utilisée, dit d’apprentissage par renforcement, ne s’applique par définition qu’aux jeux vidéo. Le deuxième point, c’est que toutes ces tâches (go, échecs, shogi, moins le Jeopardy!) ne constituent en fait qu’une seule et même tâche, celle consistant à reconnaître les états formels (positions de pions) d’un jeu menant le plus probablement à la victoire en prenant en compte des règles simples et formalisées, tout en parcourant les différents états possibles afin de déterminer quels sont les coups intéressants ou inefficaces. Ce deuxième point montre que ces compétitions ne sont pas en capacité de mesurer l’intelligence générale d’un système mais une capacité spécifique, mais pire encore, le premier point démontre lui que cette mesure n’est pas non plus entièrement pertinente même dans le cadre d’une tâche spécifique.

Alors comment confronter l’intelligence humaine et l’intelligence artificielle ? Le test de Turing fut un premier essai intéressant car essayant de mesurer la capacité d’un système à résoudre un ensemble très large de problème (interprétation du langage, raisonnement logique, etc) tout en possédant plusieurs limites. Premièrement celle consistant à baser l’évaluation sur une interprétation subjective du résultat qui peut facilement être trompée par des méthodes simples, et deuxièmement, le fait de ne mesurer qu’un petit ensemble de tâches qui ne peuvent être réalisées que dans le cadre d’une conversation. Exit donc les tâches consistant à interpréter des images, des sons, à gérer un corps et ses mouvements, ou à analyser le comportement et les objectifs d’autres agents intelligents (théorie de l’esprit). Mais même avec ce test imparfait, encore faut-il l’appliquer de manière complète et non bridée, contrairement au prix Loebner, pour espérer avoir un semblant d’évaluation.

Si je me permets d’introduire tous ces questionnements c’est que le livre de Laurent Alexandre est sous-titré “Intelligence artificielle vs intelligence humaine” est que la question de l’évaluation comparée de l’intelligence humaine et de l’intelligence artificielle est donc centrale au sujet de ce livre. Il suppose une guerre entre ces deux intelligences, ou l’augmentation de la première pourrait mener à un déclassement d’une portion de la population humaine, incapable de faire face à la concurrence de l’intelligence artificielle. Pour Laurent Alexandre, les avancées de ces dernières années en IA démontrent que les machines vont être rapidement capables de nous concurrencer sur des tâches purement intellectuelles, mettant sur le carreau les moins intelligents d’entre nous, tout en donnant une prime de plus en plus importante à ceux possédant un haut QI. Ces inégalités de QI pourraient stratifier nos sociétés le long des lignes d’intelligence et mener à un chaos social si nous ne changeons pas rapidement l’éducation ou si nous ne prenons pas en considération la possibilité d’augmenter le cerveau humain avec des technologies de neuro-implants ou de sélection embryonnaire.

En me basant sur les réflexions contenues dans cette introduction ainsi que sur des travaux de cognitivistes, j’aimerais vous convaincre de plusieurs points. Le premier c’est que malgré les explications succinctes de Laurent Alexandre sur le QI, une bonne partie de ses réflexions sur les inégalités d’intelligence se base sur ce dernier alors qu’il ne permet pas de les mesurer de manière absolue. Le deuxième, c’est que l’école, la pensée scientifique et le rationalisme sont les causes principales de l’effet Flynn (l’augmentation du QI) et que l’éducation scolaire a été jusqu’ici une technologie très efficace pour augmenter nos capacités intellectuelles. L’exemple concret qui caractérise ses deux premiers points est l’interprétation que Laurent Alexandre fait des programmes éducatifs d’aide aux enfants défavorisés qu’il juge inefficaces alors qu’une simple lecture de ces études montrent leur utilité. Troisièmement, j’essayerais de vous montrer comment Laurent Alexandre a oublié un certain nombre de points sur le QI, particulièrement sur son hérédité, car les différents tests qui constituent le QI n’ont pas tous la même héritabilité, et que c’est bien sur les moins héritables que l’école a eu un poids très important. Et puis, quatrièmement, nous verrons qu’un système de formation efficace restera pour encore très longtemps une solution efficace pour garder un système économique compétitif comme le montre l’exemple de la Suisse, et que se préoccuper d’une concurrence de l’intelligence artificielle sur l’intelligence humaine fait plus appel au catastrophisme sensationnaliste et à la pseudo-science qu’au rationalisme scientifique.

Le Quotient Intellectuel

Comment mesurer les capacités intellectuelles et leur répartition ? Bien qu’essentielle comme démontré à l’introduction, cette simple question a été rejetée et présentée comme une idée raciste aux objectifs politiques alliée à une fraude académique. Cette interprétation a tellement imprégné la vie intellectuelle que le grand public prend ces faits pour acquis et prouvés. Pourtant, dans le monde de la psychométrie, l’intelligence humaine semble considérée comme un concept raisonnablement bien compris et pouvant être mesurée avec précision et équité grâce à des tests mentaux standardisés. Les premiers tests destinés à évaluer nos capacités intellectuelles virent le jour à la fin du dix-neuvième siècle avec les travaux de Francis Galton, un cousin de Charles Darwin. Francis Galton voulait prouver qu’au moins une partie de l’intelligence est héréditaire afin d’améliorer l’espèce humaine (eugénisme) mais fut incapable de mettre en pratique un test d’intelligence cohérent. Sa contribution fut de mettre sur le papier ce que beaucoup pensaient acquis, que les habilités intellectuelles varient d’une personne à l’autre et que cette différence importe autant au niveau personnel que collectif. Non seulement certaines personnes sont plus intelligentes que d’autres, selon Galton, mais chaque personne possède un schéma unique de capacités intellectuelles. 

Le premier test utilisable fut créé en 1905 par Alfred Binet et Théodore Simon pour détecter d’avance les élèves ayant des problèmes scolaires et le début du vingtième siècle fut le théâtre d’une percée dans ce domaine lorsqu’un officier de l’armée Britannique, Charles Spearman, découvrit un trait général qui influence les résultats à tous les éléments qui composent ce genre de test. Ce résultat fut rendu possible grâce au développement de nouveaux outils statistiques comme le coefficient de corrélation qui mesure la relation entre deux variables (comme la taille et le poids) sur une échelle allant de -1 (relation inverse parfaite) à +1 (relation directe parfaite). En utilisant cette méthode, Spearman observa qu’un groupe de personnes à qui l’on fait passer deux tests de capacités intellectuelles et qui obtient de bons résultats (ou de mauvais) au premier tend à réussir aussi bien (ou aussi mal) au second. Cette corrélation positive semble exister entre tous les tests de capacités cognitives et entre les différents composants des tests eux-même. Selon Spearman, cette corrélation existe parce que les différents composants des tests mesurent le même trait général. Les différents composants étant plus ou moins corrélés avec ce trait général selon qu’ils lui sont fortement liés ou non. Cette analyse factorielle des résultats aux tests cognitifs permis à Spearman de mettre en évidence un facteur mental unitaire appelé g pour “intelligence générale“. 

En 1912, l’Allemand William Stern fit le lien entre l’âge et les résultats obtenus au test de Binet-Simon et c’est sur cette base que furent développés les concepts d’âge mental (ou de niveau mental) et de quotient intellectuel (QI) qui définissent le niveau intellectuel d’une personne par rapport aux personnes du même âge. Avec la diffusion des tests d’intelligence, le QI devint d’une manière plus générale une façon d’exprimer les performances intellectuelles d’une personne par rapport à une population donnée. C’est dans les années qui suivirent que les psychologues créèrent la psychométrie ainsi que les outils nécessaires à son étude et les psychométriciens développèrent une compréhension étendue des capacités intellectuelles malgré de nombreux débats et désaccords. En effet, malgré ses bases statistiques et empiriques solides, le QI est aussi devenu l’un des résultats les plus controversés des sciences sociales car mesurant un trait important de l’être humain.

Les premières oppositions au QI firent leur apparition au début du vingtième siècle lorsque de fervents défenseurs de ces tests proposèrent de les utiliser pour supporter de terribles et choquantes politiques raciales. De 1907 à 1917, seize états Américains passèrent des lois de stérilisation censées éliminer les personnes atteintes de retards mentaux tandis que des professeurs et autres entrepreneurs proposèrent de restreindre l’immigration sur la base de tests d’intelligence. Ces propositions créèrent dans l’imaginaire du grand public la vision d’un QI utilisé à des fins discriminatoires soutenue par des histoires folkloriques. L’une d’entre elles raconte que les immigrants étaient considérés comme ayant une intelligence inférieure, voir comme faible d’esprit, ce qui serait une preuve incontestable du manque de confiance que l’on peut accorder aux tests d’intelligence. Une autre encore présente les tests d’intelligence comme base de certaines lois d’immigration racistes adoptées au début du vingtième siècle afin de démontrer la dangerosité des tests de QI. Hors il a été démontré que la première histoire est tirée du travail d’un certain H. H. Goddard qui présélectionna spécifiquement ses échantillons afin de trouver des évidences d’intelligences inférieures mais qu’il ne tira aucune conclusion sur la distribution générale de l’intelligence dans les groupes d’immigrants. Pour la seconde, une lecture attentive des audiences montre que les tests d’intelligence n’ont eu aucune influence sur leur adoption. Même si les tests de QI furent utilisés pour faire certaines généralisations totalement inappropriées aux vues de leurs précisions, et que certaines erreurs d’inférences furent faites car les méthodes d’analyse et de recueil de données psychologiques étaient encore toutes nouvelles, ces tests restèrent largement utilisés au sein d’institutions dépendantes significativement de la mesure des différences individuelles comme l’école, l’armée, l’industrie ou les gouvernements, car ils donnaient de bien meilleurs résultats que n’importe quelle autre alternative.

En 1939, le test de Stern étant inapplicable aux adultes, le psychologue David Weschler proposa un nouveau test qui calcule une nouvelle mesure appliquée à un ensemble de sous tests. Ce test a continué à être utilisé jusqu’à aujourd’hui sous le nom de WISC/WAIC (Weschler Intelligence Scale for Children, Weschler Adult Intelligence Scale) et est administré par des professionnels entraînés et donc trop coûteux pour être appliqués à grande échelle. Dans les années qui suivirent, cette procédure fut simplifié afin que les tests puissent être administrés facilement et rapidement et des centaines de millions de personnes furent testées chaque année. Bien qu’ayant des implications sociales et politiques, personne ne tenta d’utiliser ces résultas comme justification pour introduire des lois discriminatoires ou eugénistes, les différences d’intelligence semblant être un fait acquis de la vie courante ayant peu d’importance pour les politiques publiques.

Une deuxième controverse fit son apparition durant les années 60, et qui continue à perdurer aujourd’hui. À cette époque le regard sur la nature même des inégalités sociales changea radicalement. Alors qu’au début du vingtième siècle les débats entre chercheurs visaient à savoir si l’intelligence est entièrement héréditaire ou si l’environnement joue aussi un rôle, il est soudain devenu totalement controversé d’affirmer que les gènes jouent un quelconque rôle dans le développement de l’intelligence alors que c’est pourtant durant cette période que la science récolta le plus grand nombre d’évidences démontrant qu’un facteur génétique existe. La possibilité d’une influence génétique sur l’intelligence entrait en contradiction avec une volonté d’égalité dirigée vers une mise en place de politiques gouvernementales censées réduire ces inégalités. En conséquence, la cour suprême des États-Unis rendit illégale l’utilisation de tests d’habilité à l’embauche à moins qu’ils n’aient une relation manifeste et directe avec le travail en question. De même, la National Education Association appela à un moratoire sur les tests d’intelligence faisant l’hypothèse que leurs applications étaient discriminatoires car linguistiquement et culturellement biaisées. Puis en 1978, un tribunal américain statua qu’il était inconstitutionnel d’utiliser les tests de QI pour détecter les élèves nécessitant des besoins éducatifs particuliers. Pendant ce temps, les chercheurs travaillant à déterminer l’influence des gènes et de l’environnement, et sur le QI d’une manière générale furent l’objet d’accusations de fraudes scientifiques, de racisme et de déterminisme qui se cristallisèrent dans l’esprit du grand public.

Mais au début des années 80, le rejet de toute influence des gènes sur l’intelligence se transforma en un rejet total des mesures d’intelligence ou même de toute tentative de la définir. Selon Stephen Jay Gould, biologiste mondialement reconnu, personne ne saurait précisément ce qu’est l’intelligence ni comment la définir car elle serait si éphémère qu’il serait impossible de la mesurer. Les tests de QI et d’aptitude étant selon lui évidemment culturellement biaisés, ces tests seraient inutiles car le QI changerait énormément au cours de la vie et ne permettrait pas de prédire des mesures importantes du succès comme la réussite académique et professionnelle, les revenus ou la productivité.

Cette vision de l’intelligence est dominante dans la vie intellectuelle actuelle et dans le grand public. Cependant, cette vision propagée par les intellectuels et par la presse grand public a évolué en parallèle avec celle plus souterraine qui a cours dans la recherche en psychométrie. Les recherches en psychométrie ont continué tranquillement durant les décennies où le simple concept d’intelligence était passible de bannissement, mais dans un environnement cloisonné composé de personnes averties. Certaines positions controversées furent confirmées, d’autres rejetées et toutes menèrent à de nouvelles questions à explorer, ce qui mena à des progrès substantiels, et certains problèmes qui furent la cible de la fureur du grand public ont été depuis résolus. Il y a donc une grande différence entre les controverses liées à l’intelligence dans la communauté scientifique et celles qui ont cours dans le grand public. Par exemple, l’influence des gènes et de l’environnement sur l’intelligence ou l’existence de biais dans les tests de QI sont un sujet majeur des débats qui ont lieu dans le grand public alors qu’ils ne le sont pas entre professionnels car ces sujets font depuis longtemps l’objet d’un consensus dans la communauté scientifique. Il n’est pas dans les objectifs de cet article de montrer la pertinence des tests de QI, je n’ai ni l’envie ni les connaissances pour le faire, ce travail ayant déjà été fait par de nombreux chercheurs en psychométrie [1, 2]. Voici six conclusions sur les tests d’habilités cognitives qui ressortent de la longue tradition en psychométrie et qui sont maintenant largement acceptées par les spécialistes :

  1. Il existe un facteur général de l’habilité cognitive qui diffère d’une personne à l’autre.
  2. Tous les tests d’aptitude académique mesurent ce facteur général à un degré quelconque, mais les tests de QI créés spécialement à cet effet le mesurent plus précisément.
  3. Les scores aux tests de QI correspondent à ce que nous appelons communément l’intelligence.
  4. Les scores aux tests de QI restent stables au cours de la vie bien qu’imparfaitement.
  5. Il a été démontré que les tests de QI correctement administrés ne sont pas biaisés, socialement, économiquement, ethniquement ou culturellement.

Que représente alors le QI, que signifie-t-il et à quoi sert-il ? Le QI teste un ensemble de capacités cognitives, que je décomposerai dans la section suivante, et mesure le facteur g d’une personne relativement à une population représentée. Les résultats de ces tests sont étalonnés, c’est-à-dire que leur calcul est conçu pour que la moyenne et l’écart type (l’écart moyen avec la moyenne) de la population testée soient constants (moyenne de 100, écart type de 15). Même si les capacités de cette même population augmente, ou si les différences entre ses membres changent, la moyenne et l’écart type ne changeront pas car l’étalonnage est régulièrement mis à jour. Le QI est donc calculé pour correspondre à une distribution bien précise appelée courbe de Gausse (ou normale). En statistique, une distribution est un tableau qui associe des classes de valeurs à leurs fréquences d’apparition dans la population mesurée. La figure ci-dessous montre une représentation graphique de la répartition des scores de QI où la moyenne est toujours de 100 et l’écart type toujours de 15, quelle que soit la moyenne absolue des capacités intellectuelles et leurs répartitions inégales dans la population. Même si l’intelligence moyenne de la population augmente et que ses inégalités se réduisent fortement, les scores aux tests de QI ne changent pas puisque le calcul final effectué pour calculer le score est réévalué pour correspondre constamment à cette distribution. La majorité de la population, c’est-à-dire 68.2% est concentrée autour de la moyenne (100), 13.6% de la population possède une intelligence supérieure (> 115) (ou respectivement inférieure) alors que seulement 2.1% peut être classée comme surdouée (> 130).

Mais cet étalonnage est effectué pour chaque test et donc pour une population donnée. Les tests de QI sont disponibles dans des langues différentes et corrigés pour ne pas être biaisés culturellement, il n’est donc pas possible de comparer les résultats aux tests de QI de deux populations différentes car leurs QI moyens et leurs écarts types seront égaux même si l’intelligence dans ces deux populations n’est pas répartie de la même manière ou si un des deux groupes a des capacités cognitives supérieures.

Selon Laurent Alexandre, il y a dans l’économie de la connaissance une prime de plus en plus importante à l’intelligence, ceux situé sur le haut de la courbe de la figure précédente voyant leurs revenus augmenter en comparaison à ceux placés plus bas. Nous verrons dans une section suivante que c’est effectivement une des conséquences de l’économie moderne et des tests d’intelligence mais qu’elle n’est pas récente et pas entièrement due à l’économie numérique et encore moins à l’intelligence artificielle. Les inégalités de QI deviendront selon Laurent Alexandre de plus en plus problématiques dans le futur car la concurrence de l’intelligence artificielle créera une barrière cognitive en dessous de laquelle il ne sera plus possible de trouver sa place dans la société, développant une classe de laissés pour compte cantonnés au mieux au chômage et aux petits boulots, au pire à un revenu universel (RU) introduit pour garantir une stabilité sociale face à l’explosion des inégalités d’intelligence. Ainsi, la QI minimum pour trouver un emploi atteindrait 130 selon lui vers 2030. Pendant ce temps, l’école serait incapable de réduire les inégalités de QI car ce dernier serait en grande partie déterminé génétiquement.

Dans son livre, Laurent Alexandre concentre principalement son analyse sur les inégalités d’intelligence et leurs impacts actuels et futurs sur la répartition des richesses. Il prend allègrement comme base de cette analyse le QI et divers travaux effectués dans ce domaine. Cependant, sans être spécialiste de tests d’intelligence et de QI, loin de là même, il me semble que Laurent Alexandre utilise le QI dans un cadre conceptuel pour lequel il n’est pas prévu, et que Laurent Alexandre n’intègre pas ses limites dans ses analyses malgré une connaissance manifeste de celles-ci. La première, et la plus essentielle, c’est que le QI ne permet pas de mesurer les inégalités d’intelligence.

Le QI ne permet pas de mesurer les inégalités d’intelligence.

Cela semble au premier regard incohérent. Le QI n’est-il pas en soi une mesure des inégalités d’intelligence au sein d’un groupe ? Oui et non, le score au test de QI donne le rang auquel se situe la personne testée par rapport aux autres personnes de cette population, mais il ne définit pas de manière absolue la différence d’intelligence qui existe entre cette personne et les autres membres du groupe. Il peut vous dire si vous vous situez dans les 2%, les 10%, ou les 50% les plus intelligents, mais pas si vous êtes 2, 3, ou 4 fois plus intelligent qu’une autre personne. Rappelez-vous que la moyenne et l’écart type sont constamment mis à jour pour correspondre à une distribution standard, les scores de QI ne permettent donc pas d’étudier l’impact de politiques éducatives ou de soutiens scolaires sur les inégalités d’intelligence. Pour cela il faudrait une mesure absolue de l’intelligence et de sa répartition.

À quoi servent donc les tests de QI ? Premièrement, à étudier l’impact de votre rang en matière de capacités intellectuelles sur votre vie, votre milieu et vos occupations. Vous faites partie des 2% les plus intelligents ? À quel point cela permet-il de prédire votre milieu socio-économique, votre salaire, votre emploi, vos choix de vie, votre espérance de vie, ou le QI de votre partenaire. Deuxièmement, d’étudier ce qui influence ce rang et ce qui le fait varier. Si vous êtes dans les 2% les plus intelligents, est-ce dû à vos gènes, à l’éducation parentale que vous avez reçue pendant votre enfance ou au milieu dans lequel vous avez grandi, les écoles et les camarades que vous avez fréquentés ? Quel est l’impact de ce constat sur le travail de Laurent Alexandre ?

Premièrement, Laurent Alexandre pointe vers les résultats d’un programme du type “Head Start” qui suit un ensemble d’enfants auxquels ont fourni une aide scolaire et éducative pendant les premières années de la vie et dont on mesure l’impact sur tout un ensemble de variables à l’adolescence puis à l’âge adulte. Laurent Alexandre prend l’étude PPP comme exemple (The Perry Preschool Project) qui fut créé pendant les années 60s et déduit que le soutien scolaire n’a aucun impact sur le QI. Au-delà du fait que ce programme a montré une réelle augmentation du QI, mais seulement pendant le programme, et qu’un autre programme (le projet ABC pour Carolina Abecedarian Project) a démontré une vraie influence sur le QI, Laurent Alexandre passe à côté des conclusions principales de ces études : le soutien scolaire et éducatif pendant les premières années a un impact significatif sur la vie future de ces enfants, que ce soit leur chance de trouver un emploi ou de passer par la case prison, mieux encore ils ont eu un impact sur la vie des proches des enfants suivis. Laurent Alexandre passe donc à côté de politiques utiles et efficaces comme les programmes PPP et ABC parce qu’il se focalise uniquement sur le QI. De plus, il ne pousse pas l’analyse de ces programmes jusqu’au bout et ne montre pas d’autres pistes de réflexions. Comme nous le verrons, l’environnement cognitif a un fort impact sur le QI, et si le programme PPP n’a pas eu d’impact sur le QI à long terme c’est peut-être parce qu’il ne modifiait l’environnement cognitif tout au long du développement intellectuel de ces enfants. De plus, il ne mentionne pas que même si ces programmes appliqués à grand échelle pourraient réduire les inégalités d’intelligence, ils n’auraient par définir aucun impact sur la répartition des scores de QI. Obnubilé par le QI, Laurent Alexandre passe à côté des conclusions importantes de ces études et ne voit pas leurs bénéfices réels.

Deuxièmement, Laurent Alexandre affirme que les capacités cognitives des machines rendront certains postes inaccessibles car demandant trop de ressources intellectuelles pour certaines personnes. Une sorte de barrière cognitive minimum au-dessous de laquelle vous ne pourrez trouver un emploi et prendre votre place dans la société. Selon lui, le QI minimum pour trouver un emploi atteindrait 130 vers 2030 grâce au développement de l’intelligence artificielle générale qui devrait apparaître selon lui autour de ces années-là. J’ai déjà démontré dans la première partie de cet article qu’une telle prédiction ne vaut pas mieux que celles d’un Nostradamus ou d’une madame soleil, mais au-delà de ce simple fait, il paraît douteux de pouvoir comparer l’intelligence des machines et celle des humains sur la base du QI. Comme démontré dans l’introduction, nous ne possédons pas de bons moyens d’évaluer l’intelligence générale des machines et celles développées jusqu’à maintenant se sont révélées trompeuses, les ordinateurs étant pour l’instant trop bêtes pour passer un test de QI. Si de telles mesures étaient développées, elle mesurerait certainement l’intelligence artificielle de manière absolue (comme la précision vue précédemment) car la machine ne s’inscrit pas dans une population humaine. Comment alors comparer cette mesure absolue avec une mesure relative comme le QI ? Par rapport à quelle population ? À quelle période ? Le 130 de QI que Laurent Alexandre sort de son chapeau fait il référence au QI actuel ? À celui des années 2030 ? À celui de la France ou d’une autre population ?

Troisièmement, vous avez peut-être comme moi était surpris par le fait que Laurent Alexandre compare le QI de plusieurs pays afin d’expliquer les succès et les échecs économiques et éducatifs de ces derniers. En effet, le QI étant calculé pour correspondre à une moyenne et à un écart type pour chaque population testée, tous les pays ont un QI moyen de 100 et un écart type de 15. Les tests étant recalibrés d’un pays à l’autre, on ne peut comparer le QI moyen entre ces pays. Cette mesure est en fait un QI national estimé dont la pertinence a été aussi mise en doute qui a été développé par Richard Lynn dans “IQ and the Wealth of Nations”, le même chercheur qui a introduit l’effet Flynn inversé (dont on montrera l’inexistence) et qui est connu pour ses thèses racistes et eugénistes. Il ne s’agit pas d’invalider totalement cette approche, je n’en ai pas les connaissances, ni de mettre en doute l’influence du développement intellectuel sur la réussite économique, mais plutôt d’apporter une nuance qui n’est pas donnée par Laurent Alexandre. 

En somme, si les inégalités d’intelligence ont un énorme impact sur notre vie sociale, et que ses relations avec les capacités cognitives vont devenir un sujet d’une importance grandissante dans le futur, c’est aussi un sujet qui demande un traitement bien plus sérieux et rigoureux que celui proposé par Laurent Alexandre dans son livre.

L’école et le QI

Selon Laurent Alexandre, l’école n’aurait jamais été capable de réduire les inégalités d’intelligence car tout serait joué avec six ans, la part de la génétique étant trop importante. L’école ne pourrait donc nous mettre à l’abri de la concurrence que les machines nous opposeront dans les années qui vont suivre. L’intelligence ayant un impact sur notre capacité à trouver un emploi, à le garder et sur notre revenu, cette incapacité mènera nécessairement à une stratification de nos sociétés le long des capacités intellectuelles, et dans le pire des cas à un disloquement et à une montée des autoritarismes. Ce qui choque à la première lecture du livre de Laurent Alexandre, c’est une incohérence qui arrive rapidement et qui n’est jamais complètement évacuée. En effet, Laurent Alexandre ne cesse de répéter que le QI est majoritairement héréditaire, que l’école n’a aucune influence sur celui-ci, mais que pourtant il faudrait rapidement révolutionner cette dernière, et que les différences supposées entre les pays n’ont rien à voir avec les gènes. Quelle est donc la part des gènes dans les capacités intellectuelles ? Comment ont-elles évolué au cours du temps et quel a été le rôle de l’école dans cette évolution ?

Le QI mesure donc ce que les chercheurs appellent l’intelligence générale, un facteur générale, ou variable cachée, qui est corrélée avec les performances à différents tests d’intelligence. Comment peut-on déterminer la part de la génétique et de l’environnement dans le développement intellectuel ? Pour cela, les chercheurs font des études dites de génétique comportementale qui étudient les parts génétiques et environnementales dans les variations d’intelligence. Pour cela, ils mesurent le score aux tests de QI de jumeaux séparés à la naissance (mêmes gènes, environnements différents), de jumeaux élevés ensemble (mêmes gènes, même environnement), de frères et sœurs (50% de gènes en commun, même environnement), ou de frères et sœurs adoptés (aucun gène en commun, même environnement). Ils recherchent ensuite des corrélations entre les traits mesurés afin de déterminer l’importance de trois facteurs : les gènes, l’environnement partagé (parents, maison, voisinage) et l’environnement non partagé (tout le reste, place dans la fratrie, expériences de vie, etc). Par exemple, en mesurant les traits de vrais jumeaux élevés séparément, toute corrélation est liée aux gènes. En mesurant les traits de frères et sœurs adoptés, toute corrélation est liée à l’environnement partagé. On peut aussi mesurer l’influence de l’environnement partagé avec des vrais jumeaux dont on soustrait les effets de la part génétique, et l’influence de l’environnement non partagé en soustrayant à 1 la corrélation entre des jumeaux identiques (gènes + environnement partagé).

Ces études ont trois principales limites que ne cite pas Laurent Alexandre :

  1. Elles peuvent expliquer les différences mais pas ce que nous avons en commun.
  2. Elles ne peuvent estimer les différences entre les groupes et encore moins les expliquer. Elles peuvent expliquer les différences intellectuelles entre deux Américains de la classe moyenne, mais pas celles entre une personne de classe moyenne et une appartenant à la classe supérieure, ou entre un Américains et un non Américains. On ne peut donc estimer par ce moyen les différences citées par Laurent Alexandre entre les groupes sociaux, ou déduire qu’elles sont dues ou non aux caractères génétiques.
  3. Elles montrent des corrélations et non des causalités. Elles ne peuvent montrer les effets des gènes sur le câblage ou le métabolisme du cerveau, les effets indirects d’autres gènes.

Quelles sont les conclusions de ces études. Premièrement que les effets de l’environnement partagé sont faibles, souvent insignifiants, particulièrement à l’âge adulte. Deuxièmement, que la part substantielle d’héritabilité oscille entre 25% et 75%. Pourquoi tant d’incertitude ? À cause des erreurs de mesures, des effets additifs des gènes, de la grande variation dans les échantillons originaux et de la différence d’héritabilité avec l’âge. En effet, à force de vieillir nous devenons de plus en plus indépendants de notre environnement familial partagé et nous pouvons choisir plus librement ce que nous voulons faire de notre temps et avec qui.

Cela semblerait démontrer que l’éducation ne peut avoir une forte influence sur les capacités cognitives. Or, nous assistons depuis plus d’un siècle à une augmentation des capacités cognitives au niveau mondial. Ce phénomène est appelé l’effet Flynn et montre que le QI a effectivement augmenté pendant plus d’un siècle dans toutes les parties du monde avec une augmentation moyenne de 3 points par décennies. Cette augmentation a été récemment confirmée par une méta-étude de 271 échantillons dans 31 pays et effectuée sur 4 millions de personnes. Au début des années 80, le philosophe James Flynn se rend compte que les entreprises qui éditent les tests de QI les rehaussent continuellement afin d’éviter une inflation car le pourcentage de questions correctement remplies augmente. Les tests de QI étant administrés dans plusieurs pays depuis des dizaines d’années, on constate une augmentation du QI avec le temps quel que soit le test. Une base de données Anglaise montre que l’effet Flynn est présent depuis au moins 1887 et depuis la Première Guerre mondiale dans 36 autres pays. L’augmentation de 3 points par décennies signifie qu’une personne de 1910 ayant un QI moyen (100) projetée aujourd’hui aurait un QI de 70, c’est-à-dire à la limite du retard mental. Comment est-ce possible ? Comment un trait hautement héritable comme l’intelligence générale peut-il augmenter dans un temps trop court pour que l’évolution puisse avoir un impact ?

C’est en fait l’intelligence générale g qui est hautement héritable et inaffectée par l’environnement familial (mais possiblement culturel) car il est fortement corrélé avec :

  • La vitesse de traitement de l’information.
  • La taille du cerveau.
  • L’épaisseur de la matière grise.
  • L’intégrité de la matière blanche entre deux régions corticales.

De son côté Flynn a pu écarter des causes comme l’augmentation de la nutrition, la santé ou le mariage hors communauté. Quelle est donc la source de l’effet Flynn ? Rappelons-nous que le facteur g explique 40% à 50% de la variation des résultats aux tests de QI, et que c’est ce même facteur g qui est hautement héritable. Si ce n’est pas la puissance du cerveau qui a augmenté c’est probablement l’environnement cognitif dans lequel nous évoluons : l’effet Flynn n’est pas une augmentation de l’intelligence générale mais de l’habilité aux raisonnements abstraits. Cette augmentation de nos capacités à raisonner de manière symbolique a probablement eu différentes causes à différentes époques. Il n’est donc pas paradoxal que le QI augmente alors qu’il est hautement héritable, puisque se sont les différences d’intelligences (la distribution) qui le sont, mais pas la moyenne, qui est elle influencée par l’environnement cognitif. Lorsque Laurent Alexandre affirme que l’école ne fait que prolonger les différences initiales, cela signifie que l’école ne change pas la distribution (l’écart type) de l’intelligence au sein de la population (ce qui n’est à nouveau pas mesurable par le QI), mais elle a pu avoir une influence sur les capacités de toute la population (sur la moyenne).

Steven Pinker, psycholinguiste à Harvard, montre dans son livre “Enlightemnent Now”, que c’est bien l’école qui est en partie responsable de l’effet Flynn. Ce que ne montre pas Laurent Alexandre, c’est que l’effet Flynn ne touche pas de la même manière les différents tests. Les résultats à tous les sous tests (spatial, verbal, math, mémoire) ont augmenté, mais certains ont augmenté plus fortement que d’autres. Les tests de QI sont en effet composés de plusieurs tests d’aptitude censés mesurer des capacités différentes :

  • Raven’s Progressive Matrices (matrices progressives de Raven) : compléter des suites de formes géométriques.
  • The 5 Performances subtests : arranger des images, compléter des images, construire des bloques, assembler des objets et des symboles digitaux.
  • The Similiraties subtests : traiter des similarités. Exemple : “Qu’est-ce qu’une livre et un pouce ont en commun ?”
  • The Comprehension subtest : compréhension de texte.
  • Information & Arithmetic & Vocabulary : vocabulaire, arithmétique et information.
  • Full Scale IQ : QI total.

Or, ce que montre Steven Pinker, c’est que les plus fortes hausses ont été identifiées exactement dans les éléments qui ne font pas appel au savoir (donc pas aux tests d’arithmétique ou de vocabulaire, par exemple). Alors quels sont ces éléments principalement affectés par l’effet Flynn ? Premièrement, la capacité à traiter des similarités (Similarities subtests), par exemple : “qu’est-ce qu’une livre et un pouce ont en commun ?”. Deuxièmement, la capacité à traiter des analogies comme “un oiseau est à un œuf ce qu’un arbre est à …?”. Et troisièmement, celle définie par le terme de visualisation matricielle (Raven’s progressive matrices) dans lequel la personne testée doit compléter une suite de figures géométriques. Les gains les plus importants ne sont pas trouvés parmi les compétences concrètes apprises à l’école mais plutôt parmi celles liées à l’esprit d’analyse. L’effet Flynn n’est pas une augmentation de la puissance du cerveau mais de l’habileté au raisonnement abstrait : organiser des concepts dans des catégories abstraites et déconstruire des objets en plusieurs parties reliées par certaines relations plutôt que de les absorber d’un seul bloc, et savoir se placer dans des mondes hypothétiques définis par des règles et explorer des conséquences logiques en sachant s’extraire de l’expérience de la vie quotidienne. D’un autre côté, les plus faibles hausses concernent le vocabulaire et les mathématiques qui sont liés à des connaissances générales. La figure ci-dessous montre les gains au cours du temps à chaque sous tests.

Gains aux différents sous-tests du WISC aux États-Unis, 1947-2002 – Flynn (2007)

L’augmentation des capacités à chaque sous tests peut donc avoir différentes causes à différentes périodes et non pas un facteur unique influençant le QI. Concernant les compétences visuelles, nous avons été forcés par les hautes technologies et nos environnements remplis de symboles à traiter des symboles visuels tout en les connectant à des règles abstraites. L’amélioration de l’habileté au raisonnement abstrait (analogies et similarités) est lié selon Flynn à la propagation de la pensée dite post-scientifique, opposée à la pensée pré-scientifique qui rejette un stade de la cognition nommé “formel”.

Avant l’enseignement de la pensée scientifique, les personnes rejetaient toute logique pure pour ne se baser que sur l’expérience. Des travaux du début du vingtième siècle (Michael Core et Alexander Luria) montrent comment les paysans russes d’avant-guerre rejetaient toute pensée logique au profit de l’expérience seule et étaient incapables d’utiliser spontanément des catégories scientifiques. Le raisonnement formel c’est l’habileté à se détacher de la connaissance classique de son petit monde pour explorer des implications et des postulats purement hypothétiques, mais c’est aussi voir le monde à travers des expériences dites scientifiques. Mais comment ces spectacles sont-ils devenus disponibles ? La réponse est simple : l’école. Au début du vingtième siècle, un enfant passait en moyenne 7 années à l’école et un quart des enfants passait moins de quatre ans à étudier, ce n’est qu’en 1930 que l’école obligatoire s’est généralisée. Mais c’est aussi la nature de l’école qui a changé, au début du vingtième siècle, l’école favorisait l’apprentissage par cœur et la récitation ainsi que les connaissances géographiques (pays, capitales, etc). Au cours du vingtième siècle, l’école a mis moins d’attente sur les connaissances factuelles pour se concentrer sur des concepts abstraits :

  • les taux, pourcentages et proportions.
  • les quantités et autres mesures.
  • les concepts de corrélation et de causalité.
  • les contingences multiples.

Nous sommes donc passés pendant le siècle dernier, d’une école qui favorise l’apprentissage par cœur à une école favorisant la compréhension. C’est au cours du vingtième siècle que la pensée scientifique s’est infiltrée dans la vie quotidienne grâce à l’école. Dans la vie quotidienne, nous avons vu apparaître un environnement cognitif riche en symbole comme le travail de bureau et une libération des loisirs permettant de dépenser plus de temps à lire et à jouer. Mais nous avons aussi vu apparaître l’apprentissage par la lecture, les conversations quotidiennes et des outils d’analyse, des abstractions abrégées, permettant de manipuler des concepts abstraits. Des outils d’analyse comme les proportions, les pourcentages, les corrélations, la causalité, les groupes de contrôle, les placebos, la variabilité, etc. Étant l’une des sources de l’effet Flynn, l’école a bien démocratisé l’intelligence en faisant monter la moyenne de QI de la population, et in fine, le développement de l’économie. Nous pouvons alors nous poser la question de savoir si la variabilité de l’intelligence est un réel problème. En effet, tout projet de grande envergure nécessite une quantité énorme de travail humain interdisciplinaire qui ne peut être réalisé sans des personnes de tout le spectre des capacités. Or Laurent Alexandre semble croire que l’on peut avoir une économie moderne et un développement technologique avec des gens ayant 160 de QI uniquement. Je pense que la réalité montre le contraire et que la demande en intelligence humaine qui va fortement augmenter dans les années à venir ce qui va pousser tous les acteurs économiques à la démocratiser.

Laurent Alexandre affirme que l’école est inefficace car que tout serait joué avant six ans, donc avant l’école obligatoire, l’environnement n’expliquant qu’une part mineure du QI. Or, comme précisé avant, les gènes expliquent entre 25% et 75% de la variation du facteur g dans les groupes testés, mais pas l’intelligence absolue. L’effet Flynn a fait bouger tous les bateaux vers le haut, c’est-à-dire l’ensemble de la population vers un QI plus élevé. Comme je viens également de le démontrer, c’est bien l’école qui est responsable en partie de cet effet en attendant des élèves une meilleure compréhension au lieu d’un simple apprentissage par cœur. En enseignant le raisonnement formel (analogies, similarités, visuels) et un ensemble d’outils d’analyse (pourcentage, proportions, etc), l’école a augmenté notre capacité à penser de manière abstraite et à nous projeter dans des mondes hypothétiques afin d’évaluer des implications logiques. Ces capacités sont indépendantes des gènes, la hausse du QI n’est donc pas paradoxale avec la corrélation entre les gènes et les variations d’intelligence.

Malheureusement, l’effet Flynn se serait inversé depuis quelques années. Ainsi selon Laurent Alexandre, cet effet Flynn se serait inversé et on verrait actuellement une baisse du QI dans les pays occidentaux, les Français perdant 4 points de QI entre 1990 et 2009, à cause de la moindre reproduction des personnes intelligentes, des perturbateurs endocriniens et de la consommation de haschisch. La France stagnerait à un QI moyen de 98 alors que l’Asie aurait repris le relais avec un QI moyen de 108. On peut opposer deux choses à cette analyse. La première, c’est que l’existence de cette supposée régression a été mise en doute par d’autres scientifiques pour qui ces études ne sont pas fiables. L’étude citée au début de cette section (méta-étude sur 271 échantillons) montre un plafonnement sur les 30 dernières années, mais pas une régression. Pour l’instant, aucune donnée ne permet d’attester d’une réelle baisse du QI dans les pays occidentaux et il ne semble pas régresser mais plutôt augmenter plus lentement. Ce plafonnement n’est pas inattendu ou effrayant car l’effet Flynn obéit à la loi de Stein : “les choses qui ne peuvent continuer éternellement finissent par s’arrêter”. Le cerveau humain atteindrait les limites de sa puissance, tout comme la stagnation des performances sportives montre les limites du corps humain. 

L’effet Flynn obéit à la loi de Stein : “les choses qui ne peuvent continuer éternellement finissent par s’arrêter

La baisse constatée dans les pays du nord, comme la Finlande, mesurée entre 1997 et 1999 ne concernent que les sous tests numériques et verbaux (arithmétique et vocabulaire). Hors ces tests concernent le savoir et non les capacités de raisonnement logique qui eux montrent une simple stagnation. Il est également à noter que cette théorie a été introduite par le psychologue britannique Richard Lynn, comme le précise Laurent Alexandre à la page 85, mais il ne précise pas qu’il est aussi connu pour des idées eugénistes. Il a par exemple soutenu au journal Suisse “Le Temps” : “seules Marin Le Pen et la Hongrie ont compris que les migrants venant d’Afrique et du Moyen-Orient ont une intelligence limitée”.

Le deuxième élément que l’on peut opposer à cette analyse, c’est l’utilisation douteuse d’une comparaison du QI entre la France et les pays d’Asie. Comme démontré précédemment, on ne peut comparer simplement les résultats aux tests de QI de deux populations car leurs moyennes seront identiques. Il faut pour cela faire appel à une mesure intermédiaire appelée QI national dont la méthodologie a été mise en doute. La figure suivante montre l’augmentation du QI dans les différentes parties du monde entre 1910 et 2015.

L’Amérique a vu la plus forte hausse avec plus de 30 points de QI gagnés suivie par l’Asie avec un peu moins de 20 points de QI, suivi par l’Europe et l’Océanie avec une vingtaine de points, puis par l’Afrique avec un peu plus de 10 points de QI gagnés. Le point essentiel à noter sur ce graphique, c’est qu’il représente les gains obtenus dans chaque partie du monde mais ne permet en aucun cas de comparer l’intelligence des populations de ces régions. On ne peut pas en déduire que les Américains sont plus intelligents que les Asiatiques ou que les Européens tout simplement parce que ces courbes sont relatives. Nous n’avons pas de valeur absolue définissant le point de départ de ces courbes par rapport aux autres. Lorsque Laurent Alexandre affirme que l’Asie a pris le relais avec un QI moyen de 108 comparé aux 98 points de la France, il faut savoir que cette évaluation est méthodologiquement contestée, et que si les performances intellectuelles continuent d’augmenter en Asie, et pas en Europe, c’est peut-être parce que l’Europe a atteint la limite du cerveau humain alors que l’Asie a encore une marge de manœuvre. Une constatation vient alimenter cette hypothèse, c’est le fait que l’effet Flynn ralenti plus fortement dans les pays où il a eu lieu depuis le plus longtemps, ces pays atteignant une limite après de très nombreuses années d’augmentation.

L’école, particulièrement dans les pays anglo-saxons, a déjà mis une grande importance sur les tests psychométriques pour aiguiller les élèves vers les bonnes écoles et leur utilisation dans le courant du vingtième siècle a déjà ouvert la porte à une école personnalisée. Elle devrait maintenant passer à un nouveau stade de cette personnalisation grâce aux technologies numériques. Cependant, Laurent Alexandre affirme que rien n’a changé dans la transmission du savoir depuis des siècles. J’ai montré plus haut que c’est évidemment faux puisque c’est bien la métamorphose de l’école durant le siècle dernier qui a propulsé en partie l’effet Flynn. Les tests d’aptitude ont permis de diriger les élèves vers les bonnes écoles. Mais l’hostilité face au QI empêche de mettre totalement ces politiques en oeuvre et dans le futur il faudra y recourir, ainsi qu’aux neurosciences, pour étudier comment l’effet Flynn a marché concrètement au niveau cérébral.

De nombreuses analyses de Laurent Alexandre se basent sur un ouvrage paru dans le courant des années 90s et écrit par deux psychométriciens reconnus, Herrnstein et Murray. Selon Laurent Alexandre, ce livre aurait réinstauré les théories de déterminisme social, c’est-à-dire la prédisposition génétique à appartenir à une classe sociale plutôt qu’à une autre. Le livre de Herrnstein et Murray ne réinstaure pourtant pas totalement des théories de déterminisme social mais explose plutôt une théorie simple que Laurent Alexandre ne cite pas.

Moins le statut social est déterminé par des héritages arbitraires comme la race, la parenté, l’éducation et la fortune héritée, plus il est déterminé par le talent, plus spécifiquement, dans une économie moderne, l’intelligence. (The Bell Curve)

Une société où les héritages arbitraires ont moins d’importance se stratifie donc le long des lignes génétiques. Mathématiquement, lorsque le pourcentage de variation de l’intelligence déterminé par des facteurs non génétiques (environnement) baisse, celui des facteurs génétiques augmente. Cependant, le QI et les différences d’intelligences n’ont pas toujours été vus comme une réactivation des thèses de déterminisme social ou comme une manière de justifier les inégalités. En fait, beaucoup de sociologues travaillant dans ce domaine étaient des radicaux de gauche. Dans un article intitulé “The Bell Curve Liberals”, le journaliste Adrian Wooldridge montre que le QI a aussi été le fer de lance de la gauche radicale anglaise des années 30 à 60 qui voulait créer une machine à extraire les talents de la pauvreté. À travers les tests d’intelligence, elle voulait changer la nature des élites, considérant ceux en place comme scientifiquement illettrés et comme le résultat d’héritages arbitraires (fortune, réseaux, etc), et voulait les remplacer par une méritocratie soigneusement sélectionnée et proprement éduquée. Les tests de QI devant être utilisés pour tester la puissance intellectuelle d’un candidat, les Bell Curve Liberals voulaient appliquer les tests de QI dans un idéal politique de méritocratie.

Ces tests de QI étaient selon eux très utiles pour détecter les enfants prometteurs du prolétariat qui étaient retenus à l’école par la pauvreté de leur milieu d’origine, leur permettant de monter l’échelle sociale. Cette gauche ne défendait pas le statu-quo mais bien une mobilité sociale inévitable. Le résultat de cet idéal s’est concrétisé dans le Education Act de 1944 qui spécifiait que les enfants devaient être éduqués en fonction de leur “âge, habilité et aptitude” en les envoyant dans des écoles correspondant à leurs talents particuliers. Les écoles d’élite anglaises se sont alors tourné de plus en plus vers des psychologues pour peaufiner les examens traditionnels, les transformant en institutions méritocratiques. Au-delà de cet acte, l’âge de l’école obligatoire a été repoussé, les professeurs mieux entraînés et le budget de l’éducation a été augmenté. Avant cela, les enfants étaient sélectionnés sur leur capacité à écrire des essais, à traduire du Latin ou lors d’examinations orales, tests fortement biaisés en faveur de l’élite éduquée et au détriment des pauvres prometteurs et talentueux.

Inégalité de QI et pauvreté

Selon Laurent Alexandre, il y aurait un lien dérangeant entre QI et pauvreté, et les performances aux tests de QI permettraient de prédire les performances professionnelles et académiques, c’est une question très sensible qui mérite que l’on s’y attarde. Les personnes à haut QI ont effectivement de meilleurs emplois, de plus grandes réussites professionnelles et académiques et moins de problèmes avec la justice. Cependant, Laurent Alexandre ne précise pas que ces différences sont mesurées en gardant le statut socio-économique constant et que même si le QI est une variable prédictive importante de la réussite économique, c’est aussi loin d’être la seule. Pour ma part, je ne pense pas que les inégalités d’intelligences poseront autant de problèmes. Premièrement, parce que la sélection par les capacités d’intelligence est bénéfique parce qu’elle permet un développement économique important. Deuxièmement, parce que l’IA est à des années-lumière de rendre la barrière cognitive dangereuse. Puis troisièmement, parce que l’école a été efficace jusqu’à maintenant et qu’elle peut encore grandement s’améliorer grâce aux technologies numériques. La formation peut être adaptée pour réduire le chômage et réduire la polarisation du marché du travail comme nous le verrons plus tard. Mais au-delà de l’éducation et de la formation, n’y a-t-il pas encore une grande marge de manœuvre pour améliorer notre environnement cognitif ? Je pense non seulement que c’est le cas, mais aussi que l’intelligence artificielle va être une technologie déterminante dans ce domaine.

Mais en regardant de plus près les propos de Laurent Alexandre, il s’avère bien plus catégorique. Ainsi selon lui, le manque de capacité cognitive est l’unique responsable du manque de succès et de la pauvreté. Il a déclaré dans un interview à la radio Sputnik :

Il est indicible de dire aux gens qui n’ont pas beaucoup d’argent et qui ont un boulot pas terrible que c’est parce qu’ils ne sont pas très intelligents. (Laurent Alexandre)

Il est très dur pour un individu de s’entendre dire qu’il a échoué dans sa vie professionnelle parce qu’il n’est pas très malin. (Laurent Alexandre)

Peut-on réduire le problème de la pauvreté à un simple manque de capacités cognitives ? Comment quelqu’un ayant un QI probablement très élevé, puisqu’il est à la tête d’une fortune de plusieurs centaines de millions d’euros et que selon son raisonnement cette fortune est un signe de très haut QI, peut-il réduire à ce point un problème complexe tout en faisant perdurer certains stéréotypes qui piègent les plus défavorisés dans un cercle vicieux. La pauvreté maltraite le cerveau mais elle le surcharge aussi d’informations inutiles et encombrantes, ce qu’on appelle la charge mentale. En effet, des travaux ont montré que la pauvreté rend une personne moins performante intellectuellement et cela de trois façons différentes. Premièrement, le stress dû à la pauvreté a un impact sur le QI et cette perte peut atteindre 13 points de QI. De quoi passer d’une intelligence moyenne à une intelligence presque déficiente. Imaginez maintenant le nombre de personnes vivant dans la pauvreté et soumis au stress financier constant, multipliez ce nombre de personnes par les 13 points de QI perdus par chacun d’entre eux et vous aurez une estimation de la perte brute d’intelligence humaine que cause la pauvreté.

Cette capacité restante, une fois la charge mentale due au stress de la pauvreté soustraite, pourrait être dénommée le “QI effectif”. Une personne pauvre ayant un QI de 115, c’est-à-dire une intelligence supérieure, ne possédera qu’un QI effectif de 102. Le cerveau possède une bande passante, qui peut être saturée par des problèmes liés à la pauvreté comme par exemple des problèmes d’argent qui vont tourner en boucle dans le système cognitif de la personne. Une expérience du prof. Eldar Shafir montre que des personnes défavorisées financièrement à qui l’on fait passer un test de logique après les avoir mis dans une situation hypothétique de stress financier obtiennent des résultats inférieurs à ceux de personnes favorisées financièrement, alors que leurs capacités logiques testées avant la mise en situation ne montraient aucune différence avec le groupe de personnes favorisées. Le fait d’être mis dans une situation de stress financier accapare donc d’importantes ressources intellectuelles empêchant d’autant plus ces personnes de sortir de leur situation. L’émission “Dans la tête d’un pauvre” de la Radio Télévision Suisse montre cette expérience au complet.

 

Deuxièmement, on peut ajouter les stéréotypes qui agissent comme une prophétie autoréalisatrice, le stress engendré par le fait de confirmer le stéréotype étant un stress de plus augmentant la charge mentale. Cette préoccupation va perturber la performance et donc la réduire en comparaison à celle qu’on aurait pu obtenir sans cette préoccupation. L’importance des stéréotypes commence dès l’école, une expérience du prof. Fabrizio Butera montre comment les enfants des classes défavorisées sont plus mal notés que leurs camarades des classes supérieures. Un même résultat recevra un demi-point de moins lorsque l’élève est issu d’une famille pauvre. De plus, il a été démontré que même lorsque les résultats sont les mêmes, les enseignants introduisent des différences artificielles qui font que les résultats des élèves défavorisés sont moins bons. Ces stéréotypes et la charge cognitive supplémentaire n’atteignent pas seulement les capacités intellectuelles mais aussi l’impression que l’on se fait de ses propres performances générales. La pauvreté baisse le sentiment que l’on a de ses propres capacités, on va donc baisser ses ambitions et les attentes que l’on a de soi-même. En gros, les pauvres ne sont pas pauvres parce qu’ils manquent d’ambitions, c’est exactement le contraire, les pauvres manquent d’ambition parce qu’ils sont pauvres.

Laurent Alexandre affirme que les capacités cognitives sont essentiellement héritées génétiquement. Or, de nombreuses études montrent qu’au-delà de la situation économique des parents, c’est bien le niveau socio-culturel qui affecte le plus le développement cognitif de l’enfant. L’une des clés c’est l’acquisition du langage, car l’enfant peut accuser un retard dans l’ensemble des tâches d’apprentissage lorsqu’il ne peut pas consacrer assez de temps à la lecture ou à la conversation. L’initiative “Parle avec moi” aux Avanchets dans le canton de Genève essaie depuis 2014 de réduire les inégalités dans le développement du langage chez les enfants. Pour cela ils stimulent le langage chez les tous petits afin qu’ils commencent leur parcours scolaire avec la plus grande aisance orale. Des différences sont déjà constatées chez des enfants de 4 ou 5 ans dans le développement du langage oral, ainsi les enfants des classes moyennes ou supérieures connaissent entre 20% à 30% de mots en plus comparés aux enfants des classes sociales basses. Si l’on fait passer des tests de logique aux enfants des différentes classes sociales on ne constate pas de différence. Ces différences dans la compréhension du langage influencent ensuite le parcours social, le niveau de langage à 4 ans étant la variable qui prédit le mieux la réussite ou l’échec de la scolarité. 

 

Ce programme n’est pas le premier. Des programmes de ce type, appelé “Head Start Programs“, furent mis en place aux États-Unis à partir des années 60 et deux d’entre eux sont particulièrement connus, le Perry Preschool Project (PPP) en 1962 et l’Abecederian Project (ABC) dix ans plus tard. Le programme PPP fut conduit à Ypsilanti au Michigan depuis 1962 et fournit à 123 enfants âgés de 3 à 4 ans, donc avant leur entrée à l’école, des aides parentales directement dans le foyer familial. Ce programme est souvent cité par Laurent Alexandre comme exemple de l’absence d’impact des programmes éducatifs sur le QI. Selon lui, l’éducation de marche que sur les hauts QI et n’est d’aucune aide pour les bas QI.

En effet, le programme PPP fut principalement destiné à des enfants ayant un QI entre 70 et 85. Les chercheurs évaluèrent les performances des enfants ayant reçu une aide éducative jusqu’à leurs 41 ans et comparèrent ces résultats à un groupe de contrôle. Le programme consistait à donner tous les matins une classe de 2h30 en groupe de 6 élèves avec un enseignant dédié et un cours personnalisé de 1h30 à chaque enfant toutes les semaines avec la mère de l’enfant. Ce programme fut suivant pendant environ 2 ans par la majorité des enfants.

Un autre programme de ce type appelé Abecederian Project (ABC) fut conduit entre 1972 et 1977 sur des enfants possédant un QI plus élevé mais en dessous de la moyenne (92.65 en moyenne, 15.95 en écart  type). Les enfants venant de familles défavorisées furent assignés aléatoirement à un groupe d’intervention éducatif précoce ou à un groupe de contrôle. Ces enfants reçurent un support éducatif précoce de très haute qualité allant de la petite enfance à l’âge de 5 ans. Ces activités éducatives étaient composées de jeux incorporés à la journée des enfants et elles furent concentrées sur le développement social, émotionnel et cognitif mais particulièrement sur le langage. Les progrès de ces enfants furent évalués tout au long du développement à l’âge de 12, 15, 21 à 30 ans et furent ensuite comparés avec le groupe de contrôle.

Quels sont donc les résultats obtenus par ces programmes et supportent-ils les affirmations de Laurent Alexandre ? Les deux programmes eurent des impacts significatifs et importants à long terme. Concernant le programme PPP, l’impact sur les résultats académiques à 27 ans des enfants soutenus furent les suivants :

  • 1 année de plus passée à l’école (11.9 ans contre 11 ans).
  • 1.3 année de moins passé aux services d’éducation spécial pour des manquements émotionnels, cognitifs ou au niveau du langage.
  • 44% de succès supplémentaires au BAC ou équivalent (65% contre 45%).

Concernant d’éventuels problèmes avec la justice, les résultats furent à l’âge de 40 ans :

  • 46% de temps en moins passé en prison (28% contre 52%).
  • 33% de condamnations en moins pour crime violent (32% contre 48%). 

Aux niveaux financier et professionnel, les chercheurs ont pu constaté deux impacts significatifs à 40 ans :

  • un revenu médian mensuel 42% supérieur ($2’712 contre $1’911).
  • 26% de chance en moins de recevoir des aides gouvernementales dans les 10 dernières années (59% contre 80%).

Du côté du programme ABC, les cherchent constatèrent des impacts significatifs sur les capacités cognitives, mais aussi en lecture et en mathématiques à l’âge de 21 ans, dont :

  • Un gain de 1.8 aux notes de lecture.
  • Un gain de 1.3 aux notes de mathématiques.
  • Un gain de QI de 4.4 points.

Concernant la vie à l’âge adulte des enfants ayant participé au programme ABC on peut noter :

  • Une année et demie de plus passé aux études.
  • Un bien plus haut pourcentage de participants en étude à 21 ans (42% contre 20% pour le groupe de contrôle).
  • Un bien plus haut pourcentage de participants allant à l’université suivre un bachelor (36% contre 14%).
  • Un bien plus grand pourcentage engagé à des postes qualifiés (47% contre 27%).
  • Un plus petit pourcentage de participants parents à l’âge adulte (26% contre 45%).
  • Une réduction des activités criminelles.

À 30 ans, les impacts sont encore plus importants :

  • 4 fois plus de chance d’avoir obtenu un diplôme de premier cycle universitaire (23% contre 6%).
  • Plus de chance d’avoir un emploi à durée indéterminé depuis plus de deux ans (74% contre 53%).
  • 5 fois moins de chance d’avoir recours à l’aide public dans les sept années précédentes (4% contre 20%).
  • l’âge du premier enfant retardé de deux ans en moyenne.

Quel est le coût de ces programmes ? En fait, ils rapportent bien plus qu’ils ne coûtent. Le coût par enfant fut d’environ 67’000$ par enfants, soit 13’000$ par année, mais ces coûts furent contrebalancés par l’argent économisé par la suite en support social, éducatif et juridique mais aussi en impôts supplémentaires perçus. Au final, chaque dollar investi dans ces programmes a rapporté 12.90 dollars ce qui donne à ces programmes un taux de retour sur investissement très intéressant. Qu’en est-il du QI ? Le programme ABC a permis aux enfants aidés de gagner 4.4 points de QI mais cette conclusion fut remise en cause par des problèmes méthodologiques. Du côté du programme PPP cité par Laurent Alexandre, les chercheurs notent :

Les performances intellectuelles ont été mesurées à l’aide du test de Stanford-Binet QI jusqu’à l’âge de onze ans et de l’échelle d’intelligence de Wechsler pour enfants (WISC) à l’âge de quatorze ans (voir tableau 1). À la fin de la première année préscolaire, les enfants du projet préscolaire High / Scope Perry surpassaient leurs homologues du groupe témoin d’environ 13 points de QI. Ces gains initiaux ont toutefois disparu après la participation au projet. À l’âge de huit ans, les gains n’étaient plus statistiquement significatifs. Des schémas similaires ont été trouvés dans de nombreuses autres interventions en faveur de la petite enfance.

Le programme PPP a donc eu un fort impact sur le QI de ces enfants mais seulement pendant leur participation au programme. Les enfants du groupe participant au programme et ceux du groupe de contrôle ont commencé avec un QI similaire (80) mais ceux du premier ont obtenu jusqu’à 95 points de QI après la deuxième année du programme comme le montre le tableau suivant.

Âge

Groupe testé

Groupe contrôle

Différences

Entrée (3 ou 4 ans)

80

79

Fin de la 1ère année

95

84

11

Fin de la deuxième année

95

84

11

6 ans

91

87

4

7 ans

92

88

4

8 ans

88

87

9 ans

87

87

10 ans

85

85

14 ans

80

81

 

Ces programmes ont donc eu des impacts concrets et positifs sur la vie de ces enfants mais aussi sur toute la société. Ils ont permis d’augmenter l’intelligence des enfants soumis à des aides éducatives, cependant ces gains se sont estompés après seulement quelques années. Pourquoi ? On peut imaginer plusieurs pistes. En faisant le lien avec l’effet Flynn, on peut imaginer que ces programmes ont modifié l’environnement cognitif de ces enfants de manière à augmenter leurs capacités à penser de manière symbolique et abstraite. Ce mode de raisonnement pourrait avoir été petit à petit oublié une fois l’environnement revenu à la normale. De plus, Steven Pinker montre dans certains de ses ouvrages que ces modes de pensée ne sont pas naturels pour l’être humain et qu’ils demandent donc un effort constant, ce qui pourrait expliquer pourquoi ils seraient oubliés une fois que les stimulations intellectuelles ont disparu de l’environnement cognitif. Cette hypothèse et les résultats de ces programmes vont à l’encontre de la vision d’une intelligence fixée après six ans mais tendent plutôt vers celle d’une intelligence boostée par un environnement cognitif riche en symboles et en raisonnements abstraits. On peut aussi se demander si la société du numérique actuelle ne crée pas d’elle-même un tel environnement riche en symboles et donc capable d’augmenter le QI de ceux évoluant en son sein. Ces gains pourraient aussi être liés à des connaissances acquises comme le langage, le vocabulaire et l’arithmétique. Il est évident qu’investir dans ce domaine de recherche est d’un point crucial qui va devenir de plus en plus important dans le futur.

Ces différents points montrent, contrairement à ce qu’affirme Laurent Alexandre lorsqu’il dit que nous n’avons pas de contrôle sur l’intelligence et sa répartition, que nous avons encore une grande marge de manœuvre pour jouer sur l’environnement afin de réduire les différences d’intelligence. Au lieu de chercher à mettre des puces dans la tête des enfants, ou de tomber dans l’eugénisme, nous pourrions chercher à modifier notre environnement cognitif. Une solution rentable à long-terme et beaucoup plus éthique. Alors que Laurent Alexandre pose la question des inégalités d’intelligence héréditaires face à une IA dangereuse en concurrente, nous avons concrètement sous les yeux plusieurs chemins pour réduire ces inégalités et démocratiser l’intelligence : réduire la pauvreté et le stress financier, mais aussi libérer le cerveau des préoccupations inutiles grâce à l’intelligence artificielle tout en créant un système éducatif plus objectif et rationnel. Mais la vision que propose Laurent Alexandre n’est pas seulement simpliste, elle est aussi dangereuse sous certains aspects. Elle nous représente la pauvreté comme unique conséquence d’un manque de capacités cognitives. Cette représentation ne fait que renforcer un stéréotype pesant sur le système cognitif des plus défavorisés, mais elle renforce aussi la croyance qu’ils ont de leurs propres possibilités, ce qui les enferme dans un désespoir et un manque d’ambition chronique.

Il est évident que ceux dotés de faibles capacités cognitives vont avoir de plus en plus de mal à trouver une place dans une société de la connaissance et du numérique. Pour cela Laurent Alexandre a raison ainsi que sur la nécessité de révolutionner l’éducation en investissant massivement dans la compréhension de l’intelligence et en dépassant le tabou des tests d’aptitude. Les technologies numériques et d’intelligence artificielle vont nous fournir de nouveaux moyens de décrypter la fabrique de l’intelligence biologique. Le développement du langage est un bon exemple, les technologies de reconnaissance vocale nous permettent déjà aujourd’hui d’analyser comment les enfants acquièrent le langage dans leur environnement naturel, mais alliée au développement de l’éducation en ligne, l’IA nous permet d’analyser exactement comment évolue la compréhension d’un élève, quels points sont difficiles à comprendre et quels exercices il doit pratiquer. Elle permettra bientôt d’avoir une éducation personnalisée et adaptée à chacun qui ressemblera plus à de la chirurgie de précision. Ces constats sont indéniables et méritent un investissement massif de tous les acteurs de la société. Une seconde porte ouverte par l’intelligence artificielle, c’est celle de la libération de la charge mentale par l’automatisation des tâches simples et répétitives, cette automatisation doit impérativement être suivie d’une redistribution des richesses efficaces pour supprimer la charge mentale liée aux problèmes financiers. Ces deux pistes d’investigation permettent à mon avis une marge de manœuvre très importante pour augmenter concrètement l’intelligence biologique.

L’intelligence artificielle et le QI

L’intelligence artificielle va-t-elle dramatiquement élargir le fossé séparant les hauts et les bas QI ? Ce que montrent Herrnstein et Murray, c’est que nous sommes passé d’une sélection sur des caractères arbitraires comme la parenté, les connaissances sociales et la fortune héritée à une sélection basée sur les capacités intellectuelles. Sélection rendue possible par les tests de QI, les bourses d’études et une plus grande mobilité. Les universités d’élite ont commencé au cours du vingtième siècle à sélectionner les élèves sur leurs résultats à des tests d’intelligence. La méritocratie et l’égalité des chances nous ont poussé paradoxalement vers des sociétés stratifiées le long des lignes de capacités cognitives. Les différentes classes sociales n’étant plus séparées par des caractères arbitraires mais sur les performances scolaires et académiques. Dans un même temps, nous sommes passé à une économie de la connaissance où la valeur ajoutée est créée par l’intelligence. Il est difficile de savoir dans quel sens va la causalité, est-ce l’économie de la connaissance qui nous a poussés à mieux détecter l’intelligence car il y avait un besoin à combler, ou est-ce l’utilisation de test d’intelligence comme base de sélection qui a permis l’apparition d’une économie de la connaissance ?

Dans un cas comme dans l’autre, ces deux facteurs se sont alliés à un troisième : la mondialisation. Comme le montre le travail de Thomas Piketty, ce troisième facteur a concentré les revenus dans les mains d’une petite partie de la population (top centile 1%) grâce aux revenus de l’innovation et de la rente foncière. La valeur ajoutée étant captée au niveau mondial plutôt qu’au niveau national ou régional comme ce fut le cas auparavant. Le captage de cette valeur suivant une loi de puissance où un petit nombre capte une majorité des revenus, on peut donc voir que ce fossé entre les hauts et les bas QI n’est pas élargi par l’intelligence artificielle mais par ces trois facteurs : l’utilisation des tests d’aptitude, l’économie de la connaissance et la mondialisation. Bien sûr, l’intelligence artificielle fait partie de l’économie de la connaissance, mais elle n’en est pas la seule et unique composante. Les créateurs d’algorithmes sont par exemple peu rémunérés en comparaison des grands patrons qui eux ne produisent pas de code et aucun algorithmes. Laurent Alexandre prend en exemple les chercheurs connus dans le domaine du Deep-Learning, mais même leurs salaires sont insignifiants comparés à ceux des CEOs et autres grands patrons de banques ou d’assurances.

De nouveau selon Laurent Alexandre, ce même QI deviendrait de plus en plus discriminant à cause de l’intelligence artificielle. Hors comme je l’ai démontré plus haut, la hausse des inégalités de revenus est principalement due à l’économie numérique, à l’importance de la sélection sur l’intelligence et à la mondialisation concentrant des revenus devenus mondiaux. De plus, les technologies de l’information augmentent la productivité marginale des preneurs de décision. Ils peuvent prendre plus de décisions et de meilleure qualité, captant donc une part importante de la valeur ajoutée. Contrairement à ce qu’affirme Laurent Alexandre, ce sont ces tops managers qui ont les plus haut revenus, bien au-dessus des créateurs d’algorithmes.

Contrairement à Laurent Alexandre affirmant que le QI minimum pour être concurrentiel face à l’intelligence artificielle montera considérablement à partir de 2030, j’estime que l’évolution des capacités transversales n’est pas prévisible et que l’on ne peut donc estimer quand la barrière cognitive atteindra une grande partie de la population. Nous ne pouvons prédire cette évolution parce que nous ne connaissons pas assez l’intelligence et les problèmes que nous devrons résoudre pour estimer la charge de travail qui nous attend. La seule façon d’avoir une estimation serait de connaître les réponses à ces problèmes. Laurent Alexandre base cette prédiction sur l’augmentation exponentielle de la puissance de calcul. Hors cette même puissance n’est pas suffisante pour créer de l’intelligence, car elle n’apparaît pas par magie lorsque l’on augmente la puissance des ordinateurs.

Qu’en est-il de la polarisation du marché du travail constatée dans de nombreux pays ? Je ne pourrai me prononcer complètement là-dessus au vu de la complexité du sujet et du peu de connaissances que j’ai en économie. Il y a deux avis sur cette question, la première étant celle de la destruction créatrice de Schumpeter, qui pense que l’évolution technologique détruit des emplois tout en créant de nouveaux besoins. Le problème ne serait donc pas une disparition de l’emploi mais une adaptation constante des compétences des travailleurs aux besoins des entreprises et une aide aux reconversions. Le deuxième avis, plus pessimiste et incarné par Jeremy Rifkin dans La fin du travail, pense que l’évolution technologique détruit plus d’emplois qu’il n’en crée. Nous tendrions donc vers un monde sans emploi et vers une disparition du travail avec comme perdants immédiats les moins formés et les moins doués cognitivement. La solution serait alors un plus grand partage du travail et la création d’un revenu de base.

Deux documents me viennent en tête dans ce débat, le premier c’est l’étude d’Oxford souvent citée et qui prédit que 47% des emplois aux États-Unis sont en danger d’automatisation (The Future of Employment : How susceptible are jobs to computerisation, du 17 septembre 2013). Le deuxième, c’est le rapport du conseil fédéral (Suisse) qui analyse les impacts des technologies numériques sur le marché du travail suisse (“Rapport sur les principales conditions-cadre pour l’économie numérique“, du 11 janvier 2017). Le premier montre à mon avis correctement les possibilités d’automatisation sans pour autant évaluer les possibles créations d’emplois qui sont imprévisibles car nous ne pouvons imaginer quels besoins devront être comblés dans le futur. Le deuxième montre que contrairement à des nombreux autres pays, la Suisse semble résister à la polarisation du marché du travail grâce à son système d’apprentissage souple et adapté aux besoins des entreprises. 

La polarisation du marché de l’emploi fait référence à un phénomène qui s’illustre par l’augmentation simultanée des emplois qualifiés et des emplois peu qualifiés, créant des inégalités de plus en plus importantes entre les différentes catégories d’emplois. L’étude d’Oxford prévoit une polarisation grandissante du marché de l’emploi aux États-Unis comme le montre le graphique ci-dessous. Il représente la proportion de chaque secteur selon leurs probabilités d’être automatisés. Sur la gauche du graphique, les secteurs à faible probabilité d’être automatisé sont composés principalement d’emplois de services peu rémunérés comme l’éducation, les arts, les médias et la santé, ou d’emplois très qualifiés et très bien rémunérés comme les positions de manager, de conseils aux entreprises et de spécialistes financiers, ou encore d’ingénieurs. D’un autre côté, les emplois fortement automatisables sur le côté droit montre une grande proportion des emplois de bureau et de support administratif, de services en tous genres, particulièrement ceux liés à la vente, ainsi que de production et transport.

 

 

Que montre le rapport du conseil fédéral sur le marché de l’emploi en Suisse ? La Suisse a vu entre les années 60 et aujourd’hui une nette diminution dans les secteurs primaires, comme l’agriculture, et secondaires, comme l’industrie par exemple, largement compensée par une forte hausse dans les services comme le montre le graphique ci-dessous extrait du rapport. Entre 1995 et 2015, plus de 800’000 emplois ont été créés dans ce secteur alors que le taux d’activités des 15-64 ans a grimpé de 78.6% à 84.2%. On peut voir l’évolution Schumpétérienne à l’oeuvre, le secteur secondaire régressant particulièrement dans les branches manufacturières comme l’industrie textile, l’imprimerie et la métallurgie à cause de la sous-traitance et de l’automatisation, alors que l’électronique, l’horlogerie et l’industrie pharmaceutique ont enregistré une croissance supérieure à la moyenne.

Le graphique suivant montre comment le secteur tertiaire ainsi que les services privés comme la recherche et le développement, les technologies de l’information et le consulting ont aussi connu une croissance élevée en Suisse alors que l’hôtellerie et la restauration ont légèrement régressé entre 1995 et 2015. Les services publics comme l’administration publique, la santé et la formation ont aussi vu une forte augmentation pendant ces années. Ces services ont connu une forte croissance car ils sont difficilement automatisables car ils comprennent des tâches non répétitives nécessitant beaucoup d’interactions sociales.

Voit-on une polarisation sur le marché du travail Suisse ? Pas dans une large mesure, comme le montre la variation de l’emploi par grands groupes de professions entre 1995 et 2015 (ci-dessous), nous pouvons voir que le nombre d’emplois a fortement crû majoritairement dans les groupes d’emploi comme ceux de directeurs et de gérants, de scientifiques et de techniciens, c’est-à-dire des postes plutôt qualifiés et rémunérateurs. La seule augmentation d’emplois peu qualifiés est celle des services directs aux particuliers et de vendeurs qui reste cependant inférieur à tous les autres groupes.

Mais cette croissance des postes qualifiés pourrait être accompagnées par de fortes rémunérations car ils ne peuvent être occupés que par des personnes ayant de bonnes capacités cognitives, ce qui selon la théorie de Laurent Alexandre, pourrait ne constituer qu’une petite partie de la population. On verrait alors une hausse du chômage et une augmentation des inégalités de salaire causée par la prime plus importante à l’intelligence. Or, on observe au contraire que ces transformations structurelles se sont accompagnés d’une amélioration du marché du travail en Suisse et de la qualité des emplois et des rémunérations comme l’explique le rapport.

Les profondes transformations structurelles de ces dernières décennies sont allées de pair, en Suisse, avec une extraordinaire bonne tenue du marché du travail en comparaison internationale. En 20 ans, le taux d’activité des 15-64 ans est passé de 79 à 84 %, un taux record en comparaison des pays de l’Organisation de coopération et de développement économiques (OCDE). Le taux de chômage au sens du Bureau international du travail s’est établi à 4 % environ en moyenne à long terme. Actuellement, il est légèrement au-dessus (4,6 %), en raison du ralentissement passager de la conjoncture (en données corrigées des variations saisonnières en juin 2016, selon l’OFS). Parmi les pays de l’OCDE, la Suisse a l’un des taux de chômage les plus bas. Elle fait également la course en tête dans les évaluations qualitatives de l’emploi. L’indice de la qualité de l’emploi de l’OCDE est établi sur la base d’informations sur la sécurité de l’emploi, le niveau et la répartition des salaires et les conditions de travail subjectives. Dans chacune de ces trois catégories, la Suisse se classe dans les six premiers rangs. Comme le montre l’OCDE, le niveau de l’emploi et l’indice de la qualité de l’emploi présentent un rapport favorable, ces deux facteurs s’influençant probablement l’un l’autre dans un sens positif. L’excellente position de la Suisse en comparaison internationale est la preuve que le marché suisse du travail n’a pas seulement réussi à faire face au changement structurel observé ces 20 dernières années, mais qu’il a aussi su la transformer à son avantage.

Le rapport présente une analyse en accord totale avec la destruction créatrice de Schumpeter, la source des suppressions d’emplois venant selon le conseil fédéral de la substitution des postes par l’automatisation et par l’inadéquation des qualifications des travailleurs et par le chômage technologique, compensée par une création d’emplois grâce à l’apparition de nouveaux besoins et de nouveaux emplois dans des branches existantes ou complètement nouvelles. Les gains de productivité poussant les salaires et les revenus du capital à la hausse tout en baissant les prix.

Selon le conseil fédéral, lorsque les nouvelles technologies sont complémentaires à la main d’oeuvre, c’est-à-dire à une main d’oeuvre formée en conséquence, elles augmentent l’attrait pour le travail par rapport au capital, ce qui augmente les salaires et stimule la demande économique globale. Cette demande augmente en conséquence la demande de main-d’oeuvre. Le cycle continue, le progrès technologique réduit la demande de main-d’oeuvre, augmente la productivité et baisse les coûts de production. Cela augmente les revenus de la main-d’oeuvre restante et fait baisser les prix ce qui stimule la demande globale. La production s’intensifie donc grâce à cette demande ce qui génère une demande accrue de main-d’oeuvre comme le montre le rapport.

Depuis quelque temps, les effets destructeurs des nouvelles technologies sur l’emploi ont largement alimenté le débat public. Les améliorations de l’informatique, de l’intelligence artificielle et de la robotique permettent des gains de productivité et des économies de coûts. Or, lorsque l’automatisation des étapes de travail est rentable pour l’entreprise, la main-d’œuvre est remplacée par les machines. Les effets de substitution peuvent être observés en règle générale directement et sont considérés dans la littérature scientifique actuelle comme une conséquence majeure des technologies numériques sur l’emploi. Par le passé, des effets de substitution significatifs ont déjà été observés dans l’agriculture, dans l’industrie manufacturière et dans les activités de bureau.

Lorsque les compétences offertes sur le marché du travail ne s’adaptent pas, ou seulement avec retard, à une évolution technologique importante, l’ajustement entre l’offre et la demande de travail peut se dérégler. Cette inadéquation des qualifications risque de provoquer un chômage technologique et une baisse des salaires réels.

Par le passé, les divers développements technologiques ont tous entraîné, en fin de compte, une augmentation globale de l’emploi en dépit des effets de substitution mentionnés ci-dessus. Les emplois se sont déplacés vers de nouveaux domaines. Les avancées technologiques ont favorisé la création de nouveaux produits, de nouvelles branches et de nouveaux métiers. On le voit aujourd’hui notamment dans le secteur des TIC. En 2013, 22 % de l’ensemble des emplois créés dans l’OCDE l’ont été dans les TIC. En Suisse aussi, l’avènement des TIC a fait augmenter fortement la demande en spécialistes de l’informatique. Au cours de ces 10 dernières années, leur taux d’activité a progressé de plus de 4 % par an. On a également assisté à l’émergence de nouveaux profils professionnels, comme celui de bioinformaticien.

En plus de favoriser l’apparition de nouveaux métiers, les nouvelles technologies peuvent aussi venir compléter des emplois existants. Elles possèdent alors un potentiel de création d’emplois dans des branches traditionnelles. Cet effet bénéfique sur l’emploi s’est déjà observé dans la branche de l’hôtellerie (motels) et de la restauration (restauration rapide) au moment de la démocratisation de l’automobile. Il est probable que la numérisation déclenchera des effets similaires, en particulier dans les branches à forte intensité de savoir. On le voit déjà dans la hausse de la demande de spécialistes et de consultants, par exemple, et dans la progression de l’emploi dans ces domaines. Lorsqu’elles sont complémentaires à la main-d’œuvre, les nouvelles technologies accroissent l’attrait du travail par rapport au capital. Cet attrait accru peut se refléter dans une hausse des salaires. Cela stimule la demande économique globale, ce qui peut en retour augmenter la demande de main-d’œuvre.

Le progrès technique influence aussi l’emploi par le biais de la demande globale. Grâce à de nouvelles technologies qui réduisent le besoin de main-d’œuvre, les coûts de production diminuent et la productivité augmente. Cette évolution soutient les revenus de la main-d’œuvre restante. Sur des marchés compétitifs, des gains de productivité entraînent en règle générale des baisses de prix. Cela accroît en retour le revenu disponible des consommateurs et stimule la demande globale. Pour répondre à cette demande, la production est intensifiée, ce qui génère un besoin accru de main-d’œuvre. L’ampleur de cet effet sur la demande globale dépend dans une large mesure de l’élasticité-prix de la demande et de la vivacité de la concurrence sur les marchés concernés par le progrès technique. Sur un marché où l’intensité de la concurrence est faible, des gains de productivité n’entraînent pas forcément des baisses de prix. Grâce cependant aux gains en capitaux et aux réinvestissements, l’accroissement de la productivité peut néanmoins se répercuter positivement sur l’emploi, même quand la concurrence est faible. Les effets des gains de productivité sur l’emploi dépendent donc aussi de la disposition des entreprises à investir et de la propension des ménages à consommer.

Le marché du travail Suisse voit une nette augmentation des postes qualifiés à forte demande cognitive qui sont pris par une main-d’oeuvre qui devait occuper auparavant des postes moins qualifiés, ou venant de milieux peu qualifiés, aucun signe donc d’une barrière cognitive qui réserve les emplois qualifiés à une élite cognitive. Aucune preuve non plus d’une barrière cognitive créée par la concurrence de l’intelligence artificielle qui pourrait soudainement augmenter dans les années à venir en mettant tout un pan de la société au rebut.  L’exemple de la Suisse montre à mon avis la pertinence du modèle de Schumpeter sous certaines conditions : un système de formation très réactif et adapté, un réinvestissement massif des gains en capitaux dus à l’augmentation de la productivité, un système politique stable basé sur la démocratie semi-directe. Nous pourrons faire face aux modifications de plus en plus rapides du marché du travail si nous mettons en place un système de formations adaptées et des institutions capables de le soutenir. Pour cela, la formation doit passer d’une approche faite de longues années initiales ayant comme but d’obtenir un diplôme, à celle d’une base plus courte permettant ensuite de développer un portfolio de formations plus courtes et orientées précisément. Pour créer un tel système, les technologies numériques seront indispensables pour obtenir la souplesse nécessaire.

Dans son ouvrage, Laurent Alexandre introduit le QCIA, le Quotient de Complémentarité avec l’Intelligence Artificielle. Selon lui, ce QCIA devrait être la cible des évaluations de capacité mais sans la définir clairement. Il s’agirait de mesurer la complémentarité de chacun avec l’intelligence artificielle et d’utiliser cette mesure pour guider l’éducation et la formation. J’ai plusieurs choses à opposer à ce QCIA. Le premier élément, c’est que cette notion semble faire référence à l’étude d’Oxford qui parle d’un concept similaire de complémentarité avec l’IA mais en d’autres termes. Pour les chercheurs d’Oxford, la complémentarité à l’IA, ce sont les métiers dont la productivité marginale augmente par l’utilisation des technologies numériques (et pas seulement par celle de l’IA). Un avocat par exemple peut fortement augmenter sa productivité marginale grâce aux technologies numériques de recherche d’informations et de traitement automatique de texte afin de se concentrer sur la plaidoirie et le traitement des dossiers. Mais cela n’inclut aucune maîtrise approfondie des technologies numériques ni d’une capacité à gérer des “intelligences” différentes. Je proposerai donc une définition plus concrète du QCIA appelé Quotient Intellectuel Humain-Machine (QIHM) qui a comme but d’évaluer les capacités de l’être humain à résoudre des problèmes en utilisant des artefacts intelligents comme les ordinateurs et les outils d’IA. Cette nouvelle mesure n’est pas encore formelle mais pourrait le devenir dans un futur proche, pour l’instant elle se base sur un constat simple, c’est que nos capacités cognitives ne peuvent être évaluées indépendamment des outils que nous créons.

L’intelligence humaine ne peut être évaluée indépendamment des outils que nous créons.

Quelle est la définition de ce QIHM ? Simplement le score absolu obtenu à un test de capacité à résoudre un ensemble de problèmes avec l’aide de machines et d’outils d’analyse automatisés. Les types de problèmes restent à définir, les outils pouvant être utilisés évoluant constamment avec les avancées des technologies numérique.

Le Quotient Intellectuel Humain-Machine (QIHM) : le score absolu obtenu à un test de capacité à résoudre un ensemble de problèmes avec l’aide de machines et d’outils de d’analyse automatisés.

Ce QIHM serait donc évolutif puisqu’il prendrait en compte les dernières avancées des technologies numériques. Ce QIHM ne fait pas la différence entre l’intelligence humaine et l’intelligence artificielle, cette dernière étant une extension de l’intelligence humaine, je considère que nos capacités cognitives ne peuvent être évaluées indépendamment des outils que nous créons. Une fois de tels tests développés, nous pourrions comparer les capacités humaines seules, celles de l’IA seules et nos capacités étendues grâce à nos artefacts intelligents. Le concept de Centaure qui montre qu’aux échecs les meilleurs résultats sont obtenus par des humains équipés d’outils intelligents prouve l’intérêt de cette démarche. Cette vision de l’intelligence artificielle comme composant inséparable de notre propre intelligence fait penser que cela n’a aucun sens d’imaginer l’IA nous dépasser un jour ou l’autre.

Références

  1. Jensen, A. R. (1980). Chronometric analysis of intelligence. Journal of Social and Biological Structures3(2), 103-122.
  2.  Seligman, D. (1992). A question of intelligence: The IQ debate in America.
Nils Schaetti is a doctoral researcher in Switzerland specialised in machine learning and artificial intelligence.

0 Comments

Leave a reply

Your email address will not be published. Required fields are marked *

*