La séance du 6 novembre 2023 était consacrée à une question d’actualité : intelligence artificielle et intelligence humaine à laquelle Daniel Andler (académicien, philosophe et mathématicien) s’est exprimé.
Synthèse de la séance
S’il fallait résumer d’un mot la différence entre intelligence humaine et intelligence artificielle, Daniel Andler choisirait « jugement ». Mais que faut-il entendre par intelligence artificielle ? L’idée en est proposée par Alan Turing, dans un article paru dans Mind en 1950 ; il montre qu’en élargissant les concepts de machine et de pensée, on conçoit qu’une machine pensante puisse n’être pas un oxymore, dès lors qu’il s’agit d’un ordinateur qui s’acquitte de tâches faisant appel chez l’homme à son intelligence. Au sens large, l’intelligence artificielle se confond presque avec l’informatique, du moins avec ses réalisations les plus complexes. Au sens strict, la machine doit être capable d’apprendre de manière autonome, d’aller au-delà des instructions de l’ingénieur qui l’a construite. Les fondateurs de l’intelligence artificielle ramènent la pensée au raisonnement, et partent des raisonnements de l’homme dans la solution à différents problèmes, pour les transmettre sous forme d’un algorithme à un ordinateur. Dès lors ils procèdent à une série de renoncements : à la compréhension — l’ordinateur n’est pas censé comprendre les symboles qu’il manipule ; à l’isomorphisme entre processus humains et algorithmes ; à la généralité, propriété de l’intelligence humaine capable de s’acquitter de toutes les tâches sans changer de régime, contrairement à l’intelligence artificielle qui se décline en mécanismes spécialisés ; à l’autonomie vis-à-vis des connaissances des experts humains, transmises à l’ordinateur sous forme de règles.

Cette première conception de l’intelligence artificielle, dite « symbolique », se heurte cependant à de graves limitations, et cède la place, au cours des années 1980, à une approche très différente, le « connexionnisme » (aujourd’hui appelé deep learning), qui conçoit l’intelligence non sur le modèle de la logique, mais sur celui de la perception. Les informations que traitent aussi bien l’appareil cognitif humain que la machine, par exemple pour percevoir ou se mouvoir, sont de nature « subpersonnelle » (c’est-à-dire inaccessibles à l’introspection, contrairement aux informations traitées au cours d’un raisonnement). Les machines capables de traiter ces informations sont constituées de réseaux de « neurones formels », inspirés des structures du cortex humain. Les rapports entre intelligence artificielle et sciences cognitives, qui se situent au niveau des pensées conscientes pour l’approche symbolique, se placent au niveau des interactions cérébrales pour la nouvelle approche. Les réseaux sont « dressés » à distinguer différents types de stimulus, en s’entraînant sur des répertoires d’exemples. Les performances étonnantes des derniers modèles de deep learning, en particulier ceux des modèles massifs de langage, dont le célèbre ChatGPT apparu il y a un an, dépendent non seulement de capacités de calcul astronomiques, mais aussi de la disponibilité de gigantesques répertoires d’exemples, procurés par internet et les téléphones portables.
Néanmoins, pour Daniel Andler, l’intelligence artificielle est loin de pouvoir résoudre tous les problèmes accessibles à l’intelligence humaine, et en ce sens n’est pas près de l’égaler, même si elle la surpasse dans beaucoup de cas. Mais ce qui lui manque peut-être à jamais, c’est une capacité essentielle : celle de prendre la mesure de la situation concrète d’un agent humain ou d’une société placés dans le contexte complexe de leur histoire.