De la machine informatique à l'intelligence artificielle

 

 

 Une machine peut-elle penser ? Nous allons proposer une autre manière de poser ce problème. On doit plutôt se demander si lorsqu'un système informatique atteint un niveau de complexité suffisant, l'émergence de processus cognitifs autonomes est possible ? Cette question prend de l'importance au vu du développement massif de cette intelligence artificielle.

 

Pour citer cet article :

Juignet, Patrick. De la machine informatique à l'intelligence artificielle. Philosophie, science et société. 2015. https://philosciences.com/machine-pensee.

 

Plan de l'article :


  1. Alan Turing et l'ordinateur « Watson »
  2. L'erreur computationniste et son renversement
  3. Le retour du rêve
  4. L'évolution des machines
  5. L'après-machine

 

Texte intégral :

1. Alan Turing et l’ordinateur "Watson"

Un ordinateur qui fait la conversation

Dans un article de 1950, « Computing machinery and Intelligence », Turing se demandait si une machine pouvait penser. Pour le savoir, il proposa le « jeu de l’imitation ». La machine imiterait le comportement langagier d’un être humain et un juge comparerait le comportement écrit d’un humain à celui de la machine en posant des questions. Turing conjecture que, dans les cinquante années qui suivront la parution de l’article, les machines deviendront assez puissantes pour tromper le juge trois ou quatre fois sur dix. À ce moment, selon Turing, la sagesse populaire admettra l’idée que les machines peuvent penser.

"Watson", le calculateur d’IBM, vient de faire bien mieux. Il a participé en 2011 à un jeu télévisuel «Jeopardy » créé à la télévision américaine dans les années 1960. C’est un jeu de connaissance générale qui utilise le langage naturel sous des formes alambiquées et trompeuses. Le jeu repose sur la rapidité et sur la confiance que le candidat accorde à sa réponse, puisqu’il parie une somme sur chacune de ses réponses. Le calculateur a été opposé à deux concurrents humains.

Le défi informatique était de taille, puisqu’il cumulait deux difficultés majeures pour l’intelligence artificielle, d’une part la multiplicité de choix dans une banque de données très vaste et d’autre part la compréhension du langage ordinaire qui comporte beaucoup d’ambiguïtés.

Concernant les savoirs spécialisés, l’intelligence artificielle se montre très performante, car les algorithmes de choix sont bien définis et concernent une banque de données limitée. C’est beaucoup plus difficile lorsque les choix sont mal définis et que la banque de données est très vaste. Le langage naturel présente aussi des difficultés énormes avec toutes ses métaphores, ses doubles sens qui impliquent de repositionner les syntagmes dans leur contexte pour en saisir le sens.

Les débuts de la recherche ont été difficiles, mais, en quelques années, les performances de Watson se sont améliorées jusqu’à atteindre les taux de réussite des meilleurs joueurs de Jeopardy. Un match a donc été organisé et diffusé à la télévision en trois épisodes entre Watson et les deux meilleurs joueurs connus, Ken Jennings et Brad Rutter. Le calculateur Watson d’IBM a gagné deux manches sur trois du jeu télévisé.

Cette performance répond-elle à la question de Turing ?

Le critère d’une identité des performances, qui est avancé pour prétendre que les ordinateurs puissent penser, n’est pas valable, car il y a plusieurs manières d’arriver au même résultat. Si la machine est conçue pour imiter certains comportements humains (gestes, langage), forcément, elle les imitera. Si on s’en tient au résultat, il est identique. La différence tient à ce que le procédé de production n’est pas le même. Sous-entendre, au titre que l’imitation serait parfaite, que le procédé de production serait identique est un raisonnement irrationnel.

Penser par concept ou calculer en combinant des éléments concrets comme les signaux électroniques, ce n’est pas la même chose. Inventer un raisonnement ou appliquer un programme préétabli n’est pas la même chose non plus. Autrement dit, pour qualifier cette différence, nous dirons que les ordinateurs manipulent des signaux selon des algorithmes, alors que les hommes font interagir des représentations entre elles selon diverses logiques. Que ces deux procédés aboutissent au même résultat -dans certains cas-, n’implique pas qu’ils soient identiques. Deux voyageurs peuvent arriver au même endroit par des chemins différents.

Le cerveau humain est un système biologique hypercomplexe issu de l’évolution dont les capacités d'intelligence et de pensée laissent supposer qu'il s'est produit l’émergence d'un niveau d'organisation singulier de type cognitivo-représentationnel, c'est-à-dire qu'il s'est formé, à partir du fonctionnement neurobiologique, un fonctionnement de niveau supérieur. À ce titre, l’idée computationniste d'un cerveau-machine est peu plausible. Revenons au problème du computationnisme pour comprendre.

2. L'erreur computationniste et son renversement

Difficulté du calculisme

Il faut d'abord démontrer que la pensée est une logique calculable ou y est réductible d'une manière ou d'une autre. Le logicocalculisme vient de Leibniz, mais il prend une forme plus précise avec Boole. Dans son ouvrage, An investigation of the laws of thought, on which are founded the Mathematical of logic and Probability (1854), Boole reprend ses précédents travaux et les généralise. « Le but de ce traité est d’étudier les lois fondamentales des opérations de l’esprit par lesquelles s’effectue le raisonnement ; de les exprimer dans le langage symbolique d’un calcul, puis sur un tel fondement, d’établir la science de la logique et de constituer sa méthode, puis de faire de cette méthode elle-même la base d’une méthode générale que l’on puisse appliquer à la théorie mathématique des probabilités ; et enfin, de dégager des différents éléments de vérité qui seront apparus au cours de ces enquêtes des conjectures probables concernant la nature et la constitution de l’esprit humain » (Les lois de la pensée, Vrin, Paris, 1992, p. 21).

Le logicisme, au sens précis, a une ambition plus limitée. Il a été inventé par Frege et poursuivi par Russel. Le but du logicisme est d’utiliser le cadre de l’analyse logique pour explorer les notions fondamentales des mathématiques et en faire une théorie universelle. Le paradoxe de Russell a été responsable de l'échec du projet de Frege, car il nécessitait de compliquer la logique sous-jacente et l’introduction d’axiomes (comme l’axiome de l’infini) peu acceptables. De plus, le théorème d’incomplétude de Gödel a donné le coup de grâce au projet logiciste d’axiomatiser les mathématiques.

Les thèses logicistes sont devenues irrecevables, surtout lorsqu’elles sont abordées à partir du cadre de la sémantique due à Tarski en termes de théorie des modèles. La théorie des types logiques élaborée par Russell dans les Principia fut supplantée par la théorie des ensembles conçue comme une branche des mathématiques plutôt que comme une branche de la logique. Si nous avons fait ce détour par le logicisme, c'est pour montrer la difficulté d'une entreprise pourtant réduite comme de ramener le calcul à la logique, ou ne serait-ce que de les rassembler, comme Robert Blanché l'espérait, pour que les différences entre logique et axiomatique s'évanouissent et que les deux se fondent. Cela montre la difficulté énorme qu'il y aurait à ramener la pensée en général à la logique, puis au calcul. Le logicocalculisme (et son avatar computationniste) est une ambition démesurée qui n'a trouvé aucun début de réalisation sérieuse.

Le rêve leibnizien

La logicisation et la mécanisation de la pensée sont un vieux rêve de la philosophie occidentale qui s’amorce avec la démarche analytique de Descartes, mais voit vraiment le jour avec Leibniz. Il sera repris par George Boole, et poursuivi par Frege, Gödel, Turing, Shannon, etc. C’est bien un rêve qui se réalise, au sens d’un idéal merveilleux, celui d’une méthode simple et infaillible pour raisonner juste. C’est assurément un beau projet que de pouvoir ainsi accéder au savoir universel grâce à une automatisation des processus de calcul valides. Sans parler des applications techniques de la programmation qui ont donné les extraordinaires possibilités de l’informatique.

Mais, le rêve se transforme en cauchemar par l’anamorphose qui le retourne sur lui-même pour faire de la pensée une syntaxe automatique réalisée par notre cerveau-ordinateur. Pourquoi parler de cauchemar ? Parce que c’est une simplification abusive, réductrice et destructrice qui va dans le sens d'une machinisation de l'humain. Le vivant n’est pas mécanique et la pensée n'est pas une activité logico-mathématique. Elle est sous-tendue par des processus cognitifs complexes dont rien ne dit qu'ils soient des processus logico-mathématiques implémentés sous forme de circuits dans le cerveau. Que les ordinateurs puissent mimer et mettre en œuvre la pensée logico-mathématique n'implique pas que ce qui produit la pensée humaine fonctionne comme un ordinateur. C'est là un raisonnement analogique qui, comme tout raisonnement de ce type, n'a aucune valeur démonstrative.

Un cerveau-machine

L’assimilation de McCulloch et Pitts des portes logiques électroniques à des neurones cérébraux est abusive. Le seul argument en faveur de cette assimilation est le potentiel d’action qui parcourt les axones des neurones. Mais, cela ne suffit pas à faire que le cerveau fonctionne de manière digitale (par signaux discrets), car les manières dont sont repris les potentiels d’action sont très complexes et en particulier sont en parties analogiques, car ils passent par l’intermédiaire de synapses qui ont un fonctionnement à variation continue.

Le fonctionnement de l’ordinateur classique se fait en série, ce qui signifie un traitement successif des données. Il est certain que le cerveau ne fonctionne pas de cette manière. Enfin, dans un ordinateur, les opérations sont toutes programmées, elles ne s’effectuent pas spontanément (même si certaines sont déléguées à la machine), le fonctionnement dans un ordinateur est commandé par le programme. À l’inverse, le neurophysiologique produit une grande part de son activité de manière spontanée par auto-organisation. La situation est inversée.

L’assimilation du cerveau à un ordinateur classique est erronée puisque rien ne correspond. Ces erreurs, nous les attribuons au paradigme scientifique classique massivement mécaniste (séquentiel digitalisant), réducteur (analyse réduisant la complexité) et réductionniste (lutte pour imposer un matérialisme borné) et enfin la toute puissance scientiste (au tout déterminé de Laplace répond le tout calculable de Hilbert).

Von Neumann, après les avoir adoptées, s’est vite rendu compte de la fausseté des thèses de McCulloch et Pitts. Il suggéra de les inverser et de chercher à perfectionner les machines logiques à partir des observations physiologiques. C’est ainsi qu’il a développé sa théorie générale des automates qui s’inspire de l’organisation des cellules vivantes et formalise la construction de machines complexes fiables à partir de machines plus simples et moins fiables.

Le projet de Smolensky

Cet auteur a lancé un programme de recherche dans lequel la théorie connexionniste et la théorie symbolique pourraient collaborer pour former une approche multiniveau de l'esprit / cerveau. Son originalité est de l'avoir fait à un moment où le connexionnisme et la théorie symbolique étaient en opposition. Il a ainsi défini un nouveau domaine de recherche, celui de « the Integrated Connectionist/Symbolic Cognitive Architecture », traduisible par l'Architecture Cognitive intégrant symbolique et connexionnisme. 

Dans l'architecture ICS, le substrat connexionniste ne permet pas une simple implémentation du symbolique, il fournit le traitement « sub-symbolique » dont dépendent les aspects élevés de la cognition et du langage. Selon Smolensky, il y a un traitement connexionniste du calcul symbolique, et sans l'un, il n'y a pas l'autre. C'est là le point d'identité. Ensuite, la théorie connexionniste micro-niveau peut être décrite par une théorie macro-niveau symbolique. L'approche connexionniste fournit l'interface.

En 1986, Smolensky a montré que l'analyse mathématique des propriétés de haut niveau du système connexionniste permettait de faire des liens avec la théorie symbolique : en utilisant le calcul vectoriel, le modèle d'activation de neurones peut être identifié à certains aspects du niveau de description symbolique. On peut établir un isomorphisme entre les propriétés formelles de haut niveau de certains réseaux connexionnistes distribués et le calcul symbolique.

Smolensky part sur une bonne voie pour affronter le dualisme et tentant une jonction entre le connexionnisme et le calcul symbolique, puis en l'étendant à d'autres aspects comme la linguistique. Les problèmes resurgissent lorsqu'il s'agit d'appliquer cette tactique issue des artefacts (systèmes connexionnistes, intelligence artificielle) à l'Homme et de résoudre le dilemme esprit/corps ou esprit/cerveau.

L'approche connexionniste fournit l'interface pour penser l'interaction entre le neural et le mental. Cette hypothèse intéressante offre plusieurs difficultés. Pour les décrire, on peut partir du fait que nous sommes, là encore, dans l'analogie homme-machine qui hante les recherches depuis Leibniz, prend corps avec Boole, et imprègne le cognitivisme. Certes, Smolensky en donne une version améliorée par rapport au computationnisme, mais elle reste problématique. Les connaissances connexionnistes concernent des artefacts. Appliquer à l'homme ce qui est valable pour les machines est-il possible ?

Entre l'architecture du cerveau et celle des artefacts informatiques, il n'y a aucune commune mesure. Le cerveau a plus de 100 trillions de synapses, les réseaux fonctionnent en parallèle, et le transfert des signaux est mixte digital dans les axones (via le potentiel d'action) et analogique dans les synapses (via la libération des neuromédiateurs). L'hypothèse de Smolensky fait appel uniquement à un niveau sub-symbolique de type connexionniste (à réviser pour l'adapter au neurologique). Il y a une volonté réductionnisme évidente qui doit être questionnée.  

La volonté réductionniste est abusive

Toute cette rhétorique d’assimilation du cerveau à un ordinateur classique n’a aucune justification scientifique. Elle s’inscrit dans un vaste courant idéologique matérialiste réductionniste cherchant à mécaniser l’homme et, dans le cas qui nous occupe, son cerveau et sa pensée.

La première des conséquences est la négation d'un niveau proprement cognitif et représentationnel chez l’homme. En effet, il n’y a aucune représentation dans une machine, seulement des leviers mécaniques ou, pour les ordinateurs, des composants électroniques parcourus par des impulsions électriques selon un ordre défini. Si le cerveau de l’homme est identique à un ordinateur, alors il n’y a aucune raison de supposer un niveau cognitif autonome. C’est évidemment là l’enjeu majeur du processus idéologique sous-tendu par le matérialisme dur : amener à penser qu’il soit inutile de supposer un niveau de complexité propre à l’homme qui dépasserait le niveau neurobiologique.

La deuxième conséquence est une négation de l’autonomie de la pensée. Si le niveau cognitivo-représentationnel n’existe pas, la pensée qui en est le produit n’a pas d’autonomie, elle est hétéronome, c'est-à-dire qu'elle est déterminée par autre chose qu’elle-même (par le fonctionnement du cerveau-machine). Il s’ensuit une perte de la possibilité de choix selon un raisonnement qui aurait ses propres enchaînements, ce qui semble pourtant bien exister.

Il existe des ordinateurs « inventifs ». Par exemple, les machines non triviales de von Foerster (qui fonctionnent selon un déterminisme strict) ne sont pas prévisibles. La sortie actuelle dépend de l'histoire du système et des inputs précédents. Mais, cela ne résout pas le problème de l'autonomie de la pensée qui n'est pas une affaire de hasard. Ce qui est en jeu est l'autonomie ou une hétéronomie de la pensée : se détermine-t-elle par elle-même, ou est-elle déterminée par autre chose qu'elle-même (son support neurobiologique/neurosignalétique) ?

L'autonomie de la pensée n’est pas une indétermination, mais une possibilité de choix selon un raisonnement appuyé sur des principes. Pour que cela existe, il est nécessaire qu’il y ait un domaine autonome au sein duquel les concepts peuvent jouer et interagir entre eux. La théorie du cerveau-machine manipulant la pensée-calcul fait de la pensée un produit déterminé par son support biologique. Il est improbable qu’il en soit ainsi.

3. Le retour du rêve ?

Deux rêves se sont mêlés, celui des ingénieurs et celui des philosophes pour former le cauchemar d’un homme-machine gouverné par un « cervordinateur ». Même si l’intention computationniste est scientifique, son résultat ne l’est pas. Il y a dans le computationnisme un excès inquiétant, une volonté réductrice et mécaniste sans fondement rationnel. C’est bien dommage, car l’idée de chercher la jonction entre la pensée et son support concret, amenée par les recherches de Leibniz à Turing, est la voie royale pour dépasser le dualisme. Cette voie royale a bifurqué vers une impasse, car elle est certes efficace techniquement, mais représente une butée philosophique de par sa volonté mécaniste. Qu’elle se délivre de son mauvais génie réductionniste et la recherche pourrait continuer à chercher les clés de la pensée humaine de manière heuristique. C’est une évolution souhaitable de la science, évolution au-delà du paradigme classique vers le paradigme de la complexité.

L’homme et son cerveau ne sont pas des machines de type mécanique ou informatique, mais des systèmes biologiques hypercomplexes issus de l’évolution. Grâce à son organisation, le cerveau humain permet l’émergence du sensible, du représentationnel, de la cognition, c'est-à-dire le passage d’un fonctionnement neurosignalétique à un fonctionnement émergent de type représentatif. Nous utilisons le concept niveau cognitif pour déjouer le piège créé par la catégorie de « l'esprit » qui laisse supposer quelque chose d'unifié et de substantiel, voire transcendant. Si l’on admet cela, le rêve philosophique de mieux connaître la « pensée humaine » pourra reprendre, devenant, plus modestement, celui de cerner la multiplicité des processus cognitifs utilisés par l'Homme.

Du côté des machines, le rêve de l’ingénieur a été relancé grâce à l’orientation suggérée par Von Neumann. Un tournant s’est produit dans les années 1960 avec d’une part, le connexionnisme qui a permis de concevoir des machines autonomes non linéaires et d’autre part l'évolution en intelligence artificielle vers l’auto-reprogrammation. De même, les recherches pour reproduire certains processus cognitifs particuliers (et non la pensée en général) ont ouvert des voies plus réalistes et moins idéologiques. Elles ont eu des succès notables, comme par exemple dans le domaine du langage. Une évolution nette s'est produite avec l’auto-reprogrammation et l’utilisation du lambda-calcul.

4. L'évolution des machines

Définitions

Une machine est un dispositif fini qui a été construit en vue de produire un effet sur la réalité concrète. Une machine est un artefact, un produit de la technique humaine. Elle ne se fabrique pas spontanément. Pour comprendre ce qu'est une machine, il faut décrire comment elle est constituée et définir sa fonction. Concernant sa constitution, il faut décrire ses différents composants et les relations existant entre eux. L'ensemble des relations définit une machine comme une unité et constitue son « organisation ». C'est de cette organisation que dépend la fonction d'ensemble de la machine, qui, selon le type de machine considérée, est différent : c'est soit ce qu'elle permet, soit ce qu'elle effectue ou encore ce qu'elle produit. En utilisant les critères concernant la commande, la régulation, l'apport énergétique, l'auto-organisation, et en jugeant de l'autonomie, on peut opposer deux types de machines très différentes, les machines mécaniques et les machines systémiques.

Très grossièrement, on peut distinguer, selon l'énergie, des machines de type mécanique, hydraulique, électrique, thermique, selon le degré de régulation, les machines simples ou régulées, selon l'intégration de l'énergie, les machines dépendantes ou autonomes. Les machines anciennes (leviers, poulies, vis, engrenages) ne sont autonomes, ni du point de vue énergétique, ni du point de vue de la commande, ni de leur régulation. L'homme actionnant la machine fournit les trois. Les machines modernes sont souvent mixtes, utilisant plusieurs types de dispositifs. Une voiture automobile est à la fois thermique, mécanique et électrique, elle a son énergie intégrée (explosion du mélange) et en possède une réserve ; enfin, elle est en partie autorégulée par des dispositifs électroniques.

Dans la mesure où nous ne voulons pas faire une classification des machines, nous nous arrêterons uniquement aux distinctions qui sont utiles pour notre propos qui est de réfléchir sur la différence entre un mécanisme et un système. En utilisant les critères de commande, de régulation, d'énergie, d'inventivité et de leur autonomie, on peut opposer deux types de machines très différentes : les machines mécaniques et les machines systémiques et néguentropiques.

Par mécanisme, on désigne une machine dont le dispositif est purement mécanique. Un mécanisme est un ensemble dont les parties et les processus sont agencés de façon fixe et son processus de fonctionnement est un enchaînement successif dû à des éléments finis et solides dont les mouvements peuvent être intégralement compris selon des lois. Le mécanisme est indépendant de l'environnement sous réserve qu'il ne vienne pas le détruire et peut donc être considéré isolément.

Dans ces conditions, son état interne permet de prédire et calculer de façon unique son état prochain. Une machine mécanique est soumise à une détermination qui peut être explicitée selon un déterminisme strict. Toutefois, la machine introduit une petite nouveauté par rapport au paradigme scientifique classique, elle doit être considérée comme un ensemble, une entité autonome située dans un environnement.

Le cheminement des machines sophistiquées

Puis, sont apparues des machines à calculer et des machines autorégulées, et les machines autocommandées. Les machines à calculer sont des dispositifs qui miment le calcul. Par « autocommandée », nous voulons dire que la machine porte en elle (carte perforée, signaux informatiques) la suite des actions à effectuer. Cette autonomie, du point de vue de la commande, est le point qui a le plus étonné. Toutefois, ce n'est pas là le critère de la vraie nouveauté, car ces machines sont entièrement déterminées par un programme qui leur est imposé. Même si le programme est interne, il a été entièrement fabriqué par des ingénieurs en vue d'un fonctionnement prédéfini. Les ordinateurs ont permis de produire des systèmes de régulation et de commande pour d'autres machines leur conférant ainsi une autonomie accrue.

Pour ce qui est de l'IA  on en reste à l'IA dite faible. Le programmeur choisit la tâche pour laquelle on a besoin d’automatiser un comportement intelligent, les données qu’il fournit au système et leurs représentations informatiques. L'IA faible ne connait pas le contexte dans lequel elle est exécutée, ni de ce que ces différents aspects choisis par l’homme représentent. Il existe beaucoup d’approches et de méthodes différentes pour produire des systèmes d’IA faible, mais elles partagent toutes cette absence de saisie du contexte et de possibilité d'invention.

Par autorégulation, on entend d'une machine qu'elle a un dispositif interne qui modifie le fonctionnement ou en change l'orientation. C'est un dispositif de rétroaction qui peut être simple comme le régulateur à boules des machines à vapeur, ou complexe comme un dispositif électronique d'antipatinage et de correction de trajectoire d'une voiture. L'invention de machines interactives pouvant être régulées par leur environnement date des années 1960. Ashby introduisit l'idée de « machine with input ». C'est un ensemble dont les parties et processus peuvent varier sous l'influence de l'environnement. Associer une régulation interne et externe à une commande interne donne une machine autonome que l'on a nommé un robot.

William Ross Ashby est un psychiatre et ingénieur anglais qui s'est tourné vers la cybernétique, l'informatique et a contribué à la théorie de l'intelligence artificielle. Il est entré en concurrence avec Ludwig von Bertalanffy, car il a avancé des conceptions proches de celles de ce dernier à partir de la cybernétique au moment où Bertalanffy tentait de promouvoir sa théorie générale des systèmes. Ashby appartient à la seconde génération cybernétique. La première génération s'était penchée sur le maintien de l’homéostasie par des mécanismes d'auto-régulation.

La deuxième génération cybernétique, celle du psychiatre William Ross Ashby et des biologistes Humberto Maturana et Francisco Varela, étudie comment les systèmes évoluent et créent des nouvelles structures (morphogenèse). Ashby parle d'auto-organisation, Varela d'autopoïèse. Ashby est l'inventeur du concept de "variété" qui correspond au dénombrement des comportements et états d'un système. Il a énoncé ce qui est connu sous le nom de « loi de la variété » : pour qu’un système "A" puisse commander un système "B", il faut et il suffit que la variété de "A" soit supérieure ou au moins égale à celle de "B". L'auto-organisation peut amener une « inversion de contrôle » en produisant une augmentation de la variété du "commandé" qui dépasse celle du « commandeur ».

Au-delà de leur auto-régulation, les machines interactives peuvent être régulées par leur environnement. Ashby, vers 1960, introduisit l'idée de « machine with input ». C'est un dispositif dont les parties et processus peuvent varier sous l'influence de l'environnement, ce qui n'avait été le cas pour aucune machine auparavant. Ashby a travaillé sur la complexité qu'il a reliée à son concept de variété, puis son attention s'est portée sur les origines de l’ordre exprimées par le principe de von Foerster « Order from Noise» et le principe de Schrödinger « Order from Order ». Il s'agit de savoir comment de l'ordre (de l'organisation) peut se constituer à partir du bruit ou d'un autre ensemble ordonné.

L'autonomie énergétique des machines peut être augmentée non par des « réservoirs » quels qu'ils soient, mais par des processus interactifs comme des capteurs thermiques ou des capteurs solaires, ce qui rend ces machines ouvertes aux échanges énergétiques et encore plus autonomes, car rechargeables.

5. L'après-machine

Une autre manière de poser le problème

Xavier Verley commentant Gottlob Frege écrit :

« Pour être un véritable miroir des pensées au sens leibnitzien, la langue parfaite doit être une langue écrite destinée non pas à communiquer, mais à dénoter des objets et à exprimer des pensées ».

Il faut faire intervenir ici le problème qui a été énoncé par Louis Hjemlsev à savoir que le système linguistique est différent du système logique (Catégorie de cas, 1935). Autrement dit, si on ne dissocie pas pensée et langage les systèmes cognitifs logiques et les systèmes langagiers sont différents. Leur appariement demande un ajustement et l’invention d’une langue formelle spécialisée.

Un calcul de la pensée devient alors possible, mais au sens d’une pensée bien particulière qui est la pensée logique. C'est qu'a tenté une première forme d’IA.  L’IA symbolique a tenté de mimer les relations logiques entre des propositions. Le projet était de modéliser et reproduire les règles permettant de raisonner justement. Cette forme d'IA est restée limitée. 

L’enjeu majeur du moment est de savoir si les performances dans le traitement des données faites par les réseaux hyper-complexes sont explicables uniquement par les interactions électroniques ou, au contraire, si elles seront un jour rendues possibles par l’émergence d’une forme d’organisation spéciale et autonomie (que l’on peut appeler cognitive). En arrière-plan, se profile l'opposition philosophique entre le réductionnisme et l'émergentisme.

De plus, à côté de la logique, il existe des processus cognitifs rationnels bien plus complexes et probablement non formalisables. Sont-ils reproductibles ? Ce n’est pas impossible. Au vu de ce qui a été avancé au-dessus, ce ne sera pas par des machines informatiques, mais par des systèmes plus complexes. Cette manière semble plus prometteuse quant à ses résultats, mais la ressemblance avec la cognition humaine est incertaine.

Au-delà de la machine ?

Des machines dont la commande et la régulation sont internes et autonomes constituent des entités particulières. Si, de plus, la régulation se fait autant par rapport à son état interne que par rapport à son environnement, c'est-à-dire qu'elle peut apprendre, cette construction acquiert une capacité remarquable. Ce type de construction  forme des systèmes autonomes qui dépassent les critères caractéristiques des machines. Elles deviennent des artefacts complexes, des systèmes organisés autonomes.

Concrètement, il s'agit des systèmes informatiques possédant des bases de données gigantesques et utilisant la technologie dite métaphoriquement des « réseaux de neurones » (couches de composants informatiques disposés en réseaux), ce qui leur permet d'apprendre, point où l'on en est actuellement. Ces réseaux ou systèmes informatiques sont formés d’éléments de base les nœuds qui relient plusieurs composants. Ces nœuds sont eux-mêmes reliés en réseaux plus vastes. Dans un réseau chaque nœud (ou neurone) reçoit des signaux d’entrées provenant d'autres nœuds (ou de l'environnement). Il effectue des opérations sur ces entrées et génère des signaux de sortie. Les interconnexions sont elles-mêmes pondérées. 

Les types de réseaux sont : - multicouches (MLP), où les nœuds sont organisés en couches successives, - récurrents (RNN), où les connexions forment des boucles récurrentes, - convolutifs (CNN), où les nœuds sont organisés en couches avec des connexions locales et partagées. Chaque fonctionnement se fait selon des algorithmes qui ont été prédéterminés puis sont ajustés pour améliorer les résultats. Il existe plusieurs types algorithmes utilisés dans les réseaux, en fonction de la tâche spécifique à accomplir et de l'architecture du réseau. 

Dans les conditions technologiques actuelles, il est possible que, dans un tel système informatique, il se produise une auto-organisation interne non prévue par le programme de départ. Deux types de procédés existent, ceux constitués par les réseaux de composants à connexion aléatoire et ceux utilisant la reprogrammation. Un système auto-réorganisateur ou auto-reprogrammable crée spontanément une néo-organisation. Nous avons alors affaire à ce que l'on peut comprendre comme un système auto-organisateur.

Il y a une différence entre les ordinateurs et les artefacts d’un nouveau type qui sont en train d'être inventés. Un ordinateur exécute selon les données et le programme qui les met en jeu (par exemple, il peut suivre un arbre décisionnel et aboutir à un diagnostic). Dans le cas de l'intelligence artificielle, il manipule des données grâce à un programme fixe. Nous sommes là dans le cas d’une machine dont le fonctionnement est déterminé et préétabli.

Un système informatique complexe en réseau est capable de connaître, c’est-à-dire de produire de nouvelles données par un apprentissage. Il peut modifier son propre fonctionnement à partir des données qui lui sont fournies et produire des données nouvelles, inédites. Il y a un processus de connaissance, une « intelligence artificielle », dont on ne sait pas encore ce qu’elle peut produire, car nous en sommes aux balbutiements. Cet artefact d’un nouveau type n’a pas un fonctionnement déterminé et préétabli.

Actuellement, nombre de machines sont capables de prendre de l'énergie à leur environnement, on l'a vu précédemment. La combinaison des deux apporte potentiellement quelque chose d'entièrement nouveau. On peut produire des artefacts qui ont à la fois une capacité d'auto-réorganisation et, du point de vue énergétique, de se « recharger ». Nous avons là une entité nouvelle pourvue d'autonomie. Potentiellement, cette entité pourrait accroître sa différenciation et sa complexité grâce à l'énergie externe qu'elle capte.

Comment nommer ces objets ?

Comment nommer ces nouvelles machines qui n’en sont plus tout à fait ? Le terme machine convient mal, car il désigne une construction mécanique, c’est-à-dire ayant un fonctionnement précis, figé, répétitif, déterminé. Le terme de « robot » est aussi connoté de répétition mécanique, or, ce dont il s’agit ici, ce sont des fabrications qui ne répètent pas indéfiniment la même tâche, mais se réorganisent, s’auto-transforment.

Ordinateur ne convient pas bien, puisque la plupart des ordinateurs sont fabriqués sur le mode computationniste et ne font qu’exécuter des programmes. L’ordinateur est une machine informatique, il a les caractéristiques figées de la machine. Des artefacts plus complexes sont fabriqués actuellement. Ils constituent à la fois des dispositifs néguentropiques et des systèmes auto-organisateurs ouverts capables d'apprendre. Pour l’instant le vocabulaire n’est pas fixé, mais il est important de bien différencier les objets technologiques auxquels on a affaire et qui évoluent sans cesse.

Les différences à noter

Entre une machine et une construction informatisée auto-régulée et réactive (un robot), et une construction technique capable d'apprentissage (auto-réorganisateur), il y a des différences. Le robot gagne en autonomie, mais celle-ci reste relative. La différence est bien plus importante avec un artefact formant un système néguentropique qui acquiert la possibilité de connaître (apprendre et produire des données). On n'est pas en face de la même classe d'objet. Une machine (même informatique comme un ordinateur), aussi sophistiquée et autonome soit-elle, n'invente rien. Elle est entièrement déterminée par ses conditions internes. Si elle produit de l'imprévu, c'est par erreur, ce qui génère le plus souvent des arrêts de fonctionnement.

Une construction auto-réorganisatrice néguentropique n'est plus soumise à un déterminisme strict dépendant des données et des commandes implantées. Elle crée spontanément du nouveau sans intervention humaine. Il y a une différence radicale d'avec les mécanismes. La conception et la compréhension de ces systèmes artificiels nous font entrer dans le paradigme de la complexité. Dans ce cas, il est possible que des processus cognitifs autonomes se produisent. Pour clarifier les choses, il serait peut-être souhaitable de donner à ces artéfacts d'un nouveau genre un autre nom que celui de « machine ». De fait, on parle maintenant de l'intelligence artificielle sans plus préciser par quel dispositif elle est supportée. Il y en a d'ailleurs de plusieurs types et ils évoluent sans cesse.

Concernant les dernières évolutions (à partir de 2020) les modèles de programmation sont devenus essentiels. Les mathématiciens qui travaillent à la nouvelle l'intelligence artificielle dite générative (voir le débat au Collège de France en 2019), se basent presque entièrement sur des « recherches d’optima ». Il s’agit de méthodes empruntées à la physique mathématique et enrichies par des chercheurs à travers le monde. L’IA dite générative utilise aussi différentes théories des graphes aléatoires, qui reposent sur des méthodes d'optimalités conjointes à des statistiques. Les résultats peuvent être imprévisibles, comme pour les phénomènes émergents en physique. La production de nouveauté est donc possible.

L'enjeu : une possible intelligence artificielle

Le premier enjeu est de comprendre à quoi nous avons affaire avec l'évolution des artéfacts informatiques. Le second enjeu est pratique et social. Les artefacts informatisés sont de plus en plus nombreux et gagnent sans cesse en autonomie et en convivialité. Ils modifient notre quotidien et la vie sociale. Les artefacts auto-réorganisateurs sont encore expérimentaux, mais si on en fabrique industriellement, les choses vont devenir assez compliquées, car nous aurons affaire à des objets dont certains pourraient être imprévisibles.

Vient alors la question de la pensée. Un artefact de ce genre nouveau, que nous qualifierons d'hyper-complexe et auto-organisateur, pourra-t-il un jour atteindre une organisation suffisamment complexe pour que l'on puisse supposer l'émergence en son sein d'un niveau cognitif ? Serait-il possible qu'en complexifiant les artefacts informatiques l'évolution des recherches en produise qui atteignent un niveau de complexité suffisant qui produira un saut qualitatif dans les propriétés ?

C'est la question posée par ce qu'on nomme « l'intelligence artificielle », question que nous reformulerons de la manière suivante : la capacité d’auto-organisation des réseaux informatiques complexes amène-t-elle simplement à la formation d’un réseau hyper-complexe, sans changement de nature, ou aboutit-elle à la formation de processus cognitifs ? Les artefacts complexes permettent-ils l'émergence d'un niveau organisationnel de type cognitif ?

La question de départ « une machine peut-elle penser ? » se reformule différemment et plus justement en : une forme de cognition (d'intelligence) peut-elle émerger d'un système informatique complexe ? Plutôt que de comparer l'intelligence artificielle à la pensée de l'Homme, il est plus intéressant de se demander si l'autonomie croissante des systèmes informatisés peut produire une forme de cognition et laquelle ? Si la réponse est positive, il se peut que cette forme de cognition soit différente de la cognition humaine, et il serait important de la contrôler, car l'Intelligence Artificielle va aller en se développant sans cesse.

En contrepoint, voir l'article : Juignet Patrick. La pensée et sa genèse. https://philosciences.com/origine-pensee

Bibliographie :

Ashby W.R., "Mécanismes cérébraux de l'activité intelligente", in Perspectives cybernétiques en psychopathologie, Colloque, 1951.

Boole G., Les lois de la pensée, Vrin, Paris, 1992.

Gayon J., de Ricqlès A., Les fonctions : des organisations aux artefacts, Paris, PUF, 2010.

Segal J., Le zéro et le un Histoire de la notion d'information au 20e siècle, Paris, Syllepse, 2003.

Smolensky, Paul. 1986. Information processing in dynamical systems : Foundations of harmony theory. In Parallel distributed processing : Explorations in the microstructure of cognition. Vol. 1, Foundations, David E. Rumelhart, James L. McClelland and the PDP Research Group, 194-281. MIT Press.

Smolensky, Paul, and Géraldine Legendre. The harmonic mind : From neural computation to Optimality-Theoretic grammar. Vol 1 : Cognitive architecture. Vol 2 : Linguistic and philosophical implications. MIT Press,2005.

Turing, A. M. (1936), « On computable numbers, with anapplication to the Entscheidungsproblem », Proc. London Math. Soc.2, 42, p. 230-265.

Turing, A. M. (1950), « Computing machinery andintelligence », Mind LIX  , 236, p. 433-460. trad. fr. Blanchard P., in Pensée et machine , Champ Vallon, 1983, p. 39-67.

 

Webographie

Collège de France https://www.college-de-france.fr/media/alain-supiot/UPL1008664549678822631_Supiot_colloque_2019.pdf 

Gandon, Fabien. Les IA comprennent-elles ce qu’elles font ? The Conversation. 2021. https://theconversation.com/les-ia-comprennent-elles-ce-quelles-font-148513


Juignet, Patrick. La pensée et sa genèse. Philosophie, science et société. 2019. https://philosciences.com/origine-pensee.
             -          L'émergence du niveau cognitif chez l'Homme. Philosophie, science et société. 2021. https://philosciences.com/etude-cognition-representation.

Kohler, Arnaud. Relation entre IA symbolique et IA forte. HAL science ouverte. 2020. ⟨hal-02444894v2⟩.

Smolensky Paul. Conférence :a general cognitive architecture which formalizes computational relations between the mind and the brain. This architecture is illustrated in a domain particularly challenging for mental/neural integration.

 

L'auteur :

Patrick Juignet