23 juillet 2024 ⋅ Retour à l'accueil du blog
Aujourd'hui, un billet court0 où je ne vais rien dire de particulièrement profond, que j'écris pour pouvoir donner le lien à l'avenir quand il faut dissiper une certaine confusion courante sur l'intelligence artificielle.
Je vais parler de la question qui semble agiter le monde entier depuis le lancement de ChatGPT, et dont je vais tenter d'expliquer pourquoi elle est mal posée et n'a pas de sens : « L'intelligence artificielle a-t-elle dépassé les humains ? Les dépassera-t-elle un jour ? Peut-elle même théoriquement les dépasser ? » On en retrouve des variantes dans tous les débats entre ceux qui voient dans ChatGPT un agent « véritablement créatif » et ceux qui balaient ses capacités d'un revers de la main (← le français n'a pas de bon équivalent pour dismiss) en le présentant comme un « perroquet qui recrache mécaniquement les données sur lesquelles il a été entraîné ».
Une analogie illustrera mon propos. En terminale, dans un cours de philo sur le relativisme culturel, j'ai entendu l'argument suivant : « Si on compare les sociétés occidentales aux sociétés africaines sur le plan de l'accomplissement technique, les sociétés occidentales sont supérieures. Mais si on les observe du point de vue de la maîtrise de son corps (en parlant des danses rituelles qui plongent dans une sorte de transe), alors ce sont les sociétés africaines qui ont l'avantage. Donc, on ne peut pas dire que les sociétés occidentales soient supérieures aux sociétés africaines (ou l'inverse). »
Or, cet argument, formulé ainsi… relève justement d'une forme d'ethnocentrisme, qui est certes plus subtile que l'argument raciste « La maîtrise technique de l'Occident prouve qu'il est supérieur à l'Afrique ». On a remplacé l'idée simpliste « Certaines sociétés sont supérieures à d'autres » (ou pour les matheux : l'ensemble des sociétés est muni d'un ordre partiel) par l'idée moins simpliste mais toujours suspecte « Il existe un ensemble de critères objectifs selon lesquels on peut comparer les sociétés, et certaines sociétés sont supérieures à d'autres selon certains critères » (pour les matheux : l'ensemble des sociétés est muni de plusieurs ordres partiels qui ne coïncident pas forcément). C'est un argument à base de « Il y a du pour et du contre à la fois », alors que la vraie réponse est « Il n'y a ni pour ni contre, car la question n'a pas de sens ».
Car, en voulant comparer les deux univers culturels, on a choisi des critères… selon sa propre culture. On a pris la capacité à construire des ponts, à observer des cellules au microscope ou à mener des calculs avec des ordinateurs comme un critère où nous sommes supérieurs, mais ce critère est conçu d'après notre vision du monde. De l'autre côté, dans une autre culture, pourquoi ces techniques devraient-elles être considérées comme des réussites ? Le culte du cargo est une illustration très frappante de ce qui peut se produire lorsque des cultures qui n'ont pas connaissance du progrès technique dans la majeure partie du monde entrent à son contact : pour simplifier, des tribus aborigènes se sont mises à imiter les colons en croyant que cela permettrait d'attirer sur elles la faveur des mêmes divinités qui fournissaient à ces colons une abondance matérielle. Manifestement, ces aborigènes ne pouvaient pas concevoir la technique telle que nous la comprenons (et comment le pourraient-ils ?), elle était complètement hors de leur univers mental.
Dans l'autre sens, lorsque nous considérons que les cultures africaines nous sont supérieures dans la maîtrise du corps, nous avons choisi un critère que nous pouvons envier parce qu'il fait partie de notre univers. Mais sans interagir avec ces cultures (c'est la limite de l'exemple africain, donc disons plutôt que l'autre côté est une culture d'aborigènes reculés qui n'a pas eu de contact avec la civilisation dite « moderne »), qui nous dit que ces humains n'ont pas une vision des choses complètement différente où notre idée de « maîtrise du corps » leur paraîtrait aussi absurde que leurs croyances à des divinités qui apporteraient des médicaments nous paraissent ridicules ? Qui nous dit qu'ils ne nous regardent pas de manière méprisante en nous jugeant très inférieurs à eux sur des critères que nous ne pouvons même pas comprendre, de même que certains d'entre nous les regardent de manière condescendante en les jugeant sur leur technique ?
Avec l'intelligence artificielle, c'est une erreur similaire qui est à l'œuvre. Nous nous demandons si l'intelligence artificielle nous est devenue supérieure, et nous répondons souvent par des « sur certains plans oui et sur d'autres non », par exemple, « sur le plan du calcul brut, l'intelligence artificielle est déjà des milliards de fois supérieure à l'humain » (avec la confusion habituelle du grand public entre intelligence artificielle et informatique en général, mais passons), et « sur le plan de la synthèse de textes, l'IA est devenue comparable à nous récemment », « sur le plan du raisonnement mathématique, nous sommes encore supérieurs à l'IA », etc. On donne souvent aussi comme dates marquantes celles où les IA ont commencé à battre les humains aux échecs ou au jeu de go. En soi, ces comparaisons individuelles ont du sens (on peut se demander si une IA est capable de battre au go le meilleur des humains, et la réponse objective est oui depuis des années). Mais la conclusion que nous en tirons, à savoir une sorte d'angoisse existentielle que l'IA va « dépasser l'humain », n'est pas fondée parce que les critères que nous avons choisis se rapportent à notre univers d'humains, ils sont taillés pour comparer les humains entre eux (tel est meilleur au go que tel autre), ils sont relatifs.
Dit autrement : le progrès des IA est d'avoir des capacités de plus en plus élevées, mais aussi des capacités qui ressemblent de plus en plus aux capacités humaines. L'Homme fit l'intelligence artificielle à son image. C'est très manifeste quand on regarde les capacités que les systèmes informatiques ont acquises : d'abord celle de calculer incroyablement vite, mais nous ne la considérons pas vraiment comme une intelligence parce qu'elle « pense » certes rapidement mais ne pense pas comme nous, et maintenant celle de produire des textes cohérents, qui n'est pas « supérieure » en un sens absolu objectif au simple calcul mais qui nous inquiète beaucoup plus parce qu'elle nous ressemble plus. Qu'un ordinateur fasse des calculs surhumains ne passionne pas le grand public d'aujourd'hui, mais qu'il soit capable de rédiger une réponse banale à un mail banal est un exploit du progrès technique. Quelle sera la prochaine étape ? Je n'en ai aucune idée, et je ne pense pas qu'il soit possible de le prévoir, mais étant donné qu'aucune technique passée n'a complètement satisfait tous les désirs humains au point de remplacer leur désir d'améliorer la technique pour assouvir leurs nouveaux besoins (par exemple le besoin d'être connecté avec un haut débit, qui n'était pas imaginable il y a quelques siècles), je ne crois absolument pas que l'intelligence artificielle va devenir un agent qui dépasse les humains au point qu'ils se sentiraient perdus dans leur propre monde.
Pour être plus concret, prenons la question de savoir si l'IA va dépasser l'humain pour faire des mathématiques. On se demande : y aura-t-il encore des mathématiciens dans cinquante ans ? Ou bien seront-ils remplacés par des IA qui trouveront les théorèmes à leur place bien plus vite qu'ils ne peuvent le faire ? Finalement, nous pouvons déjà voir la réponse dans la situation actuelle. À l'aide d'un ordinateur, je peux très facilement, disons, produire par millions des théorèmes de la forme « 𝑛 est premier », car il ne me faut pas une minute pour écrire un programme qui teste si des nombres sont premiers, et mon ordinateur calcule des milliards de fois plus vite que moi. Pourtant, je continue à réfléchir aux maths (ou plutôt à l'informatique théorique, qui en est proche), parce que mon but n'est pas de produire des quantités de théorèmes, il est de produire (ou plus réalistement, à ce stade, comprendre) des théorèmes intéressants, qui enrichissent ma vision du monde conceptuel. Or il n'y a que moi qui puisse dire si je trouve un théorème intéressant. Comment imaginer qu'une IA me remplace ?
Je peux même dire plus : j'espère que ça ne va pas paraître présomptueux, parce que je ne suis pas franchement un bon étudiant, mais je suis profondément heureux de faire des maths, d'apprendre comment les topos se voient comme des modèles de la logique intuitionniste d'ordre supérieur ou pourquoi on ne peut pas prouver constructivement que les réels sont indénombrables. Et ce bonheur, aucune IA ne pourra me l'apporter gratuitement car il repose sur un effort de ma part, de passer beaucoup de temps à comprendre un article de 45 pages, à me faire une image mentale des définitions, à reformuler les preuves d'une manière que je comprends mieux, à essayer de tirer au clair les liens avec d'autres connaissances, … Donc, l'IA remplacera-t-elle les mathématiciens ? Même si l'humanité découvrait subitement un grand livre envoyé par des extraterrestres contenant des théorèmes mathématiques très profonds, il ne servirait à rien si personne ne le lisait. Les mathématiques que je ne comprends pas ne me rendent pas heureux.
En conclusion, l'IA deviendra-t-elle « supérieure » aux humains ? La question n'a pas de sens : l'IA s'améliorera certainement selon certains critères, comme produire des textes toujours plus élaborés, mais ces critères eux-mêmes sont anthropomorphes, ils sont choisis d'après ce qui est humain, or s'il y a une chose que l'IA ne pourra jamais faire, c'est être strictement plus humaine que les humains, ou être humaine à la place des humains.
PS : Pas si court finalement…