Une machine peut-elle penser ?
De la machine informatique à l'artefact complexe auto-organisateur

 

JUIGNET Patrick

 

Une machine peut-elle penser ? Probablement pas. Cependant, si un artefact atteignait un niveau de complexité suffisant, l'émergence de processus cognitifs autonomes n'est pas impossible. C'est une question qui n'est pas tranchée ; nous allons seulement proposer une manière de la poser.

 

Pour citer cet article :

JUIGNET Patrick. Une machine peut-elle penser ? Philosophie, science et société [en ligne]. 2015. https://philosciences.com/Pss/philosophie-et-science/information-informatique-robotique/42-machine-pensee

 

Plan de l'article :


  1. Alan Turing et l'ordinateur "Watson"
  2. L'erreur computationniste et son renversement
  3. Le retour du rêve
  4. L'évolution des machines
  5. L'après-machine

 

Texte intégral :

1/ Alan Turing et l’ordinateur "Watson"

Un ordinateur qui fait la conversation

Dans un article de 1950 « Computing machinery and Intelligence », Turing se demandait si une machine pouvait penser. Pour le savoir, il proposa le « jeu de l’imitation ». La machine imiterait le comportement langagier d’un être humain et un juge comparerait le comportement écrit d’un humain à celui de la machine en posant des questions. Turing conjecture que, dans les cinquante années qui suivront la parution de l’article, les machines deviendront assez puissantes pour tromper le juge trois ou quatre fois sur dix. À ce moment, selon Turing, la sagesse populaire admettra l’idée que les machines peuvent penser. 

"Watson", le calculateur d’IBM, vient de faire bien mieux. Il a participé en 2011 à un jeu télévisuel «Jeopardy » créé à la télévision américaine dans les années 1960. C’est un jeu de connaissance générale qui utilise le langage naturel sous des formes alambiquées et trompeuses. Le jeu repose sur la rapidité et sur la confiance que le candidat accorde à sa réponse, puisqu’il parie une somme sur chacune de ses réponses. Le calculateur a été opposé à deux concurrents humains.

Le défi informatique était de taille, puisqu’il cumulait deux difficultés majeures pour l’intelligence artificielle, d’une part la multiplicité de choix dans une banque de données très vaste et d’autre part la compréhension du langage ordinaire qui comporte beaucoup d’ambiguïtés.

Concernant les savoirs spécialisés, l’intelligence artificielle se montre très performante, car les algorithmes de choix sont bien définis et concernent une banque de données limitée. C’est beaucoup plus difficile lorsque les choix sont mal définis et que la banque de données est très vaste. Le langage naturel présente aussi des difficultés énormes avec toutes ses métaphores, ses doubles sens, qui impliquent de repositionner les syntagmes dans leur contexte pour en saisir le sens.  

Les débuts de la recherche ont été difficiles, mais, en quelques années, les performances de Watson se sont améliorées jusqu’à atteindre les taux de réussite des meilleurs joueurs de Jeopardy. Un match a donc été organisé et diffusé à la télévision en trois épisodes entre Watson et les deux meilleurs joueurs connus, Ken Jennings et Brad Rutter. Le calculateur Watson d’IBM a gagné deux manches sur trois du jeu télévisé.

 Cette performance répond-elle à la question de Turing ? 

Le critère d’une identité des performances, qui est avancé pour prétendre que les ordinateurs puissent penser, n’est pas valable, car il y a plusieurs manières d’arriver au même résultat. Si la machine est conçue pour imiter certains comportements humains (gestes, langage), forcément elle les imitera. Si on s’en tient au résultat, il est identique. La différence tient à ce que le procédé de production n’est pas le même. Sous-entendre, au titre que l’imitation serait parfaite, que le procédé de production serait identique, est un raisonnement irrationnel.

Penser par concept, ou calculer en combinant des éléments concrets comme les signaux électroniques, ce n’est pas la même chose. Inventer un raisonnement ou appliquer un programme préétabli n’est pas la même chose non plus. Autrement dit, pour qualifier cette différence, nous dirons que les ordinateurs manipulent des signaux selon des algorithmes, alors que les hommes font interagir des représentations entre elles selon diverses logiques. Que ces deux procédés aboutissent au même résultat dans certain cas n’implique pas qu’ils soient identiques.

Le cerveau humain est un système biologique hypercomplexe issu de l’évolution qui a permis l’émergence du cognitivo-représentationnel, c'est-à-dire l’émergence à partir du fonctionnement neurosignalétique d’un fonctionnement de niveau supérieur. (voir l'article sur Le niveau cognitivo-représentationnel). L’idée computationniste d'un cerveau-machine est peu plausible. Revenons au problème du computationnisme pour comprendre.

2/ L'erreur computationniste et son renversement

Difficulté du calculisme

Il faut d'abord démontrer que la pensée est une logique calculable, ou y est réductible d'une manière ou d'une autre. Le logicocalculisme vient de Leibniz, mais il prend une forme plus précise avec Boole. Dans son ouvrage, An investigation of the laws of thought, on which are founded the Mathematical of logic and Probability (1854), Boole reprend ses précédents travaux et les généralise. « Le but de ce traité est d’étudier les lois fondamentales des opérations de l’esprit par lesquelles s’effectue le raisonnement ; de les exprimer dans le langage symbolique d’un calcul, puis sur un tel fondement, d’établir la science de la logique et de constituer sa méthode, puis de faire de cette méthode elle-même la base d’une méthode générale que l’on puisse appliquer à la théorie mathématique des probabilités ; et enfin, de dégager des différents éléments de vérité qui seront apparus au cours de ces enquêtes des conjectures probables concernant la nature et la constitution de l’esprit humain ». (Les lois de la pensée, Vrin, Paris, 1992, p. 21 )

Le logicisme, au sens précis, a une ambition plus limitée. Il a été inventé par Frege et poursuivi par Russel. Le but du logicisme est d’utiliser le cadre de l’analyse logique pour explorer les notions fondamentales des mathématiques et en faire une théorie universelle. Le paradoxe de Russell a été responsable de l'échec du projet de Frege, car il nécessitait de compliquer la logique sous-jacente, et l’introduction d’axiomes (comme l’axiome de l’infini), peu acceptables. De plus, le théorème d’incomplétude de Gödel a donné le coup de grâce au projet logiciste d’axiomatiser les mathématiques. Les thèses logicistes sont devenues irrecevables, surtout lorsqu’elles sont abordées à partir du cadre de la sémantique due à Tarski en termes de théorie des modèles. La théorie des types logiques élaborée par Russel dans les Principia fut supplantée par la théorie des ensembles, conçue comme une branche des mathématiques plutôt que comme une branche de la logique. Si nous avons fait ce détour par le logicisme, c'est pour montrer la difficulté d'une entreprise pourtant réduite, comme de ramener le calcul à la logique, ou ne serait-ce que de les rassembler, comme Robert Blanché l'espérait, pour que les différences entre logique et axiomatique s'évanouissent et que les deux se fondent. Cela montre la difficulté énorme qu'il y aurait à ramener la pensée en général à la logique, puis au calcul. Le logicocalculisme (et son avatar computationniste) est une ambition démesurée qui n'a trouvé aucun début de réalisation sérieuse.

Le rêve leibnizien

La logicisation et la mécanisation de la pensée sont un vieux rêve de la philosophie occidentale qui s’amorce avec la démarche analytique de Descartes, mais voit vraiment le jour avec Leibniz. Il sera repris par George Boole, et poursuivi par Frege, Gödel, Turing, Shannon, etc. C’est bien un rêve qui se réalise, au sens d’un idéal merveilleux, celui d’une méthode simple et infaillible pour raisonner juste. C’est assurément un beau projet que de pouvoir ainsi accéder au savoir universel grâce à une automatisation des processus de calcul valides. Sans parler des applications techniques de la programmation qui ont donné les extraordinaires possibilités de l’informatique.

Mais, le rêve se transforme en cauchemar par l’anamorphose qui le retourne sur lui-même pour faire de la pensée une syntaxe automatique réalisée par notre cerveau-ordinateur. Pourquoi parler de cauchemar ? Parce que c’est une simplification abusive, réductrice et destructrice qui va dans le sens d'une machinisation de l'humain. Le vivant n’est pas mécanique et la pensée n'est pas une activité logico-mathématique. Elle est sous-tendue par des processus cognitifs complexes dont rien ne dit qu'ils soient des processus logicomathématiques implémentés sous forme de circuits dans le cerveau. Que les ordinateurs puissent mimer et mettre en œuvre la pensée logico-mathématique n'implique pas que ce qui produit la pensée humaine fonctionne comme un ordinateur. C'est là un raisonnement analogique qui, comme tout raisonnement de ce type, n'a aucune valeur démonstrative.

Un cerveau-machine

L’assimilation de McCulloch et Pitts des portes logiques électroniques à des neurones cérébraux est abusive. Le seul argument en faveur de cette assimilation est le potentiel d’action qui parcourt les axones des neurones. Mais, cela ne suffit pas à faire que le cerveau fonctionne de manière digitale (par signaux discrets), car les manières dont sont repris les potentiels d’action sont très complexes et en particulier sont en parties analogiques, car ils passent par l’intermédiaire de synapses qui ont un fonctionnement à variation continue.

Le fonctionnement de l’ordinateur classique se fait en série ce qui signifie un traitement successif des données. Il est certain que le cerveau ne fonctionne pas de cette manière. Enfin, dans un ordinateur, les opérations sont toutes programmées, elles ne s’effectuent pas spontanément (même si certaines sont déléguées à la machine), le fonctionnement dans un ordinateur est commandé par le programme. À l’inverse, le neurophysiologique produit une grande part de son activité de manière spontanée par auto-organisation. La situation est inversée.

L’assimilation du cerveau à un ordinateur classique est erronée puisque rien ne correspond. Ces erreurs, nous les attribuons au paradigme scientifique classique massivement mécaniste (séquentiel digitalisant), réducteur (analyse réduisant la complexité) et réductionniste (lutte pour imposer un matérialisme borné) et enfin la toute puissance scientiste (au tout déterminé de Laplace répond le tout calculable de Hilbert).

Von Neumann, après les avoir adoptées, s’est vite rendu compte de la fausseté des thèses de McCulloch et Pitts. Il suggéra de les inverser et de chercher à perfectionner les machines logiques à partir des observations physiologiques. C’est ainsi qu’il a développé sa théorie générale des automates, qui s’inspire de l’organisation des cellules vivantes et formalise la construction de machines complexes fiables à partir de machines plus simples et moins fiables.

La volonté réductionniste est abusive

Toute cette rhétorique d’assimilation du cerveau à un ordinateur classique n’a aucune justification scientifique. Elle s’inscrit dans un vaste courant idéologique matérialiste réductionniste cherchant à mécaniser l’homme et, dans le cas qui nous occupe, son cerveau et sa pensée.

La première des conséquences est la négation d'un niveau proprement cognitif et représentationnel chez l’homme. En effet, il n’y a aucune représentation dans une machine, seulement des leviers mécaniques ou, pour les ordinateurs, des composants électroniques parcourus par des impulsions électriques selon un ordre défini. Si le cerveau de l’homme est identique à un ordinateur, alors il n’y a aucune raison de supposer un niveau représentationnel. C’est évidemment là l’enjeu majeur du processus idéologique sous-tendu par le matérialisme dur : amener à penser qu’il soit inutile de supposer un niveau de complexité propre à l’homme qui dépasserait le niveau neurobiologique.

La deuxième conséquence est une négation de l’autonomie de la pensée. Si le niveau cognitivo-représentationnel n’existe pas, la pensée qui en est le produit n’a pas d’autonomie, elle est hétéronome, c'est-à-dire qu'elle est déterminée par autre chose qu’elle-même (par le fonctionnement du cerveau-machine). Il s’ensuit une perte de la possibilité de choix selon un raisonnement qui aurait ses propres enchaînements, ce qui semble pourtant bien exister.

Il existe des ordinateurs "inventifs". Par exemple, les machines non triviales de von Foerster (qui fonctionnent selon un déterminisme strict) ne sont pas prévisibles. La sortie actuelle dépend de l'histoire du système et des inputs précédents. Mais, cela ne résout pas le problème de l'autonomie de la pensée, qui n'est pas une affaire de hasard. Ce qui est en jeu est l'autonomie ou une l'hétéronomie de la pensée : se détermine-t-elle par elle-même, ou est-elle déterminée par autre chose qu'elle-même (son support neurobiologique/neurosignalétique) ?

L'autonomie de la pensée n’est pas une indétermination, mais une possibilité de choix selon un raisonnement appuyé sur des principes. Pour que cela existe, il est nécessaire qu’il y ait un domaine autonome au sein duquel les concepts peuvent jouer et interagir entre eux. La théorie du cerveau-machine manipulant la pensée-calcul fait de la pensée un produit déterminé par son support biologique. Il est hautement improbable qu’il en soit ainsi.

3/ Le retour du rêve ?

Deux rêves se sont mêlés, celui des ingénieurs et celui des philosophes pour former le cauchemar d’un homme-machine gouverné par un « cervordinateur ». Même si l’intention computationniste est scientifique, son résultat ne l’est pas. Il y a dans le computationnisme un excès inquiétant, une volonté réductrice et mécaniste sans fondement rationnel. C’est bien dommage, car l’idée de chercher la jonction entre la pensée et son support concret, amenée par les recherches de Leibniz à Turing, est la voie royale pour dépasser le dualisme. Cette voie royale a bifurqué vers une impasse, car elle est certes efficace techniquement, mais représente une butée philosophique de par sa volonté mécaniste. Qu’elle se délivre de son mauvais génie réductionniste, et la recherche pourrait continuer à chercher les clés de la pensée humaine de manière heuristique. C’est une évolution souhaitable de la science, évolution au-delà du paradigme classique vers le paradigme de la complexité.

L’homme et son cerveau ne sont pas des machines de type mécanique ou informatique, mais des systèmes biologiques hypercomplexes issus de l’évolution. Grâce à son organisation, le cerveau humain permet l’émergence du sensible, du représentationnel, de la cognition, c'est-à-dire le passage d’un fonctionnement neurosignalétique à un fonctionnement émergent de type représentatif. Nous utilisons le concept nouveau de "cognitivo-représentationnel" pour déjouer le piège créé par la catégorie de "l'esprit" qui laisse supposer quelque chose d'unifié et de substantiel. Si l’on admet cela, le rêve philosophique de mieux connaître la "pensée humaine" pourra reprendre, devenant, plus modestement, celui de cerner la multiplicité des processus cognitifs et représentationnels utilisés par l'homme. 

Du côté des machines, le rêve de l’ingénieur a été relancé grâce à l’orientation suggérée par Von Neumann. Un tournant s’est produit dans les années 1960, avec d’une part le connexionnisme qui a permis de concevoir des machines autonomes non linéaires et, d’autre part, l'évolution en intelligence artificielle vers l’auto-reprogrammation. De même, les recherches pour reproduire certains processus cognitifs particuliers (et non la pensée en général) ont ouvert des voies plus réalistes et moins idéologiques. Elles ont eu des succès  notables, comme par exemple dans le domaine du langage. Un tournant s’est produit dans les années 1960, avec d’une part le connexionnisme qui a permis de concevoir des artefacts non linéaires et d’autre part l’auto-reprogrammation et l’utilisation du lambda-calcul.

4/ L'évolution des machines

Définitions

Une machine est un dispositif fini, qui a été construit en vu de produire un effet sur la réalité concrète. Une machine est un artefact, un produit de la technique humaine. Elle ne se fabrique pas spontanément. Pour comprendre ce qu'est une machine, il faut décrire comment elle est constituée et définir sa fonction. Concernant sa constitution, il faut décrire ses différents composants et les relations existant entre eux. L'ensemble des relations définit une machine comme une unité et constitue son "organisation". C'est de cette organisation que dépend la fonction d'ensemble de la machine, qui, selon le type de machine considérée, est différent : c'est soit ce qu'elle permet, soit ce qu'elle effectue ou encore ce qu'elle produit. En utilisant les critères concernant la commande, la régulation, l'apport énergétique, l'auto-organisation, et en jugeant de l'autonomie, on peut opposer deux types de machines très différentes, les machines mécaniques et les machines systémiques.

Très grossièrement, on peut distinguer, selon l'énergie, des machines de type mécanique, hydraulique, électrique, thermique, selon le degré de régulation, les machines simples ou régulées, selon l'intégration de l'énergie, les machines dépendantes ou autonomes. Les machines anciennes (leviers, poulies, vis, engrenages) ne sont autonomes, ni du point de vue énergétique, ni du point de vue de la commande, ni de leur régulation. L'homme actionnant la machine fournit les trois. Les machines modernes  sont souvent mixtes, utilisant plusieurs types de dispositifs. Une voiture automobile est à la fois à la thermique, mécanique et électrique, elle a son énergie intégrée (explosion du mélange) et en possède une réserve ; enfin, elle est en partie autorégulée par des dispositifs électroniques.

Dans la mesure où nous ne voulons pas faire une classification des machines, nous nous arrêterons uniquement aux distinctions qui sont utiles pour notre propos qui est de réfléchir sur la différence entre un mécanisme et un système. En utilisant les critères de commande, de régulation, d'énergie, d'inventivité, et de leur autonomie, on peut opposer deux types de machines très différentes : les machines mécaniques et les machines systémiques néguentropique.

Par mécanisme, on désigne une machine dont le dispositif est purement mécanique. Un mécanisme est un ensemble dont les parties et les processus sont agencés de façon fixe et son processus de fonctionnement est un enchaînement successif dû à des éléments finis et solides dont les mouvements peuvent être intégralement compris selon des lois. Le mécanisme est indépendant de l'environnement sous réserve qu'il ne vienne pas le détruire et peut donc être considéré isolément. 

Dans ces conditions, son état interne permet de prédire et calculer de façon unique son état prochain. Une machine mécanique est soumise à une détermination qui peut être explicitée selon un déterminisme strict. Toutefois, la machine introduit une petite nouveauté par rapport au paradigme scientifique classique, elle doit être considérée comme un ensemble, une entité autonome située dans un environnement.

Le cheminement vers d'autres artefacts

Puis, sont apparues des machines à calculer et des machines autorégulées, et les machines autocommandées. Les machines à calculer sont des dispositifs qui miment le calcul. Par "autocommandée", nous voulons dire que la machine porte en elle (carte perforée, signaux informatiques) la suite des actions à effectuer. Cette autonomie, du point de vue de la commande, est le point qui a le plus étonné. Toutefois, ce n'est pas là le critère de la vraie nouveauté, car ces machines sont entièrement déterminées par un programme qui leur est imposé. Même si le programme est interne, il a été entièrement fabriqué par des ingénieurs en vue d'un fonctionnement prédéfini. Les ordinateurs ont permis de produire des systèmes de régulation et de commande pour d'autres machines leur conférant ainsi une autonomie accrue. 

Par autorégulation, on entend d'une machine qu'elle a un dispositif interne qui modifie le fonctionnement ou en change l'orientation. C'est un dispositif de rétroaction qui peut être simple comme le régulateur à boules des machines à vapeur, ou complexe comme un dispositif électronique d'antipatinage et de correction de trajectoire d'une voiture. L'invention de machines interactives pouvant être régulées par leur environnement date des années 1960. Ashby introduisit l'idée de "machine with input". C'est un ensemble dont les parties et processus peuvent varier sous l'influence de l'environnement. Associer une régulation interne et externe à une commande interne donne une machine autonome que l'on a nommé un robot.

William Ross Ashby est un psychiatre et ingénieur anglais qui s'est tourné vers la cybernétique, l'informatique et a contribué à la théorie de l'intelligence artificielle. Il est entré en concurrence avec Ludwig von Bertalanffy, car il a avancé des conceptions proches de celles de ce dernier à partir de la cybernétique, au moment où Bertalanffy tentait de promouvoir sa théorie générale des systèmes. Ashby appartient à la seconde génération cybernétique. La première génération s'était penchée sur le maintien de l’homéostasie par des mécanismes d'auto-régulation.

La deuxième cybernétique du psychiatre William Ross Ashby et des biologistes Humberto Maturana et Francisco Varela étudie comment les systèmes évoluent et créent des nouvelles structures (morphogénèse). Ashby parle d'auto-organisation, Varela d'autopoïèse. Ashby est l'inventeur du concept de "variété" qui correspond au dénombrement des comportements et états d'un système. Il a énoncé ce qui est connu sous le nom de "loi de la variété" : pour qu’un système "A" puisse commander un système "B", il faut et il suffit que la variété de "A" soit supérieure ou au moins égale à celle de "B". L'auto-organisation peut amener une "inversion de contrôle" en produisant une augmentation de la variété du "commandé" qui dépasse celle du "commandeur".

Au delà de leur auto-régulation, les machines interactives peuvent être régulées par leur environnement. Ashby, vers 1960, introduisit l'idée de "machine with input". C'est un dispositif dont les parties et processus peuvent varier sous l'influence de l'environnement, ce qui n'avait été le cas pour aucune machine auparavant. Ashby a travaillé sur la complexité qu'il a reliée à son concept de variété, puis son attention s'est portée sur les origines de l’ordre exprimées par le principe de von Foerster "Order from Noise" et le principe de Schrödinger "Order from Order". Il s'agit de savoir comment de l'ordre (de l'organisation) peut se constituer à partir du bruit ou d'un autre ensemble ordonné.

L'autonomie énergétique des machines peut être augmentée non par des "réservoirs" quels qu'ils soient, mais par des processus interactifs comme des capteurs thermiques ou des capteurs solaires, ce qui rend ces machines ouvertes aux échanges énergétiques et encore plus autonomes, car rechargeables.

5/ L'après-machine

Comment aller au delà ?

Des machines dont la commande et la régulation sont internes et autonomes constituent des entités particulières. Si, de plus, la régulation se fait autant par rapport à son état interne que par rapport à son environnement, cette construction acquiert une capacité remarquable. Ce sont des machines que nous pouvons comprendre comme des systèmes autonomes qui commencent à dépasser les critères caractéristiques de la machine. Elles deviennent des robots. 

Dans les conditions technologiques actuelles, il est possible qu'une machine produise une auto-organisation non prévue par le programme de départ. Deux types de procédés existent, ceux constitués par les réseaux de composants à connexion aléatoire et ceux utilisant la reprogrammation. Une machine auto-réorganisatrice ou auto-reprogrammable crée spontanément une néo-organisation. Nous avons alors affaire à ce que l'on peut comprendre comme un système auto-organisateur. Nombre de machines sont capables de prendre de l'énergie à leur environnement, on l'a vu au-dessus. La combinaison des deux apporte quelque chose d'entièrement nouveau, une capacité d'auto-réorganisation autonome du point de vue énergétique. Nous avons là une entité nouvelle. Cette entité accroît sa différenciation et sa complexité grâce à une énergie externe.

Ce type d'artefact, vu globalement, constitue un dispositif néguentropique permettant que l'entropie soit décroissante à l'intérieur de la machine. On peut le qualifier de "système auto-organisateur ouvert" ou plus simplement d'artefact auto-organisateur.

Les différences

Entre une machine mécanique et une machine informatisée auto-régulée et réactive (un robot), il y a une différence quant à l'autonomie. Le robot gagne en autonomie, mais celle-ci reste relative. La différence est bien plus importante avec un artefact systémique néguentropique. On n'est pas en face de la même classe d'objet. Une machine de type mécanique (même informatique), aussi sophistiquée et autonome soit-elle, n'invente rien. Elle est entièrement déterminée par ses conditions internes. Ou, si elle produit de l'imprévu, c'est par erreur, ce qui génère le plus souvent des arrêts de fonctionnement.

Une machine auto-réorganisatrice néguentropique n'est plus soumise à un déterminisme strict dépendant des commandes implantées. Elle crée spontanément du nouveau sans intervention humaine. Il y a une différence radicale d'avec les mécanismes. Leur conception et leur compréhension nous font entrer dans le paradigme de la complexité. Dans ce cas, il est possible que des processus cognitifs autonomes se produisent. Pour clarifier les choses, il serait peut-être souhaitable de donner à ces artefacts d'un nouveau genre un autre nom que celui de "machine"  et de différencier les processus cognitifs de la pensée.

L'enjeu 

Le premier enjeu est de comprendre pour savoir à quoi nous avons affaire avec l'évolution des artefacts. Le second enjeu est pratique et social. Les artefacts informatisés sont de plus en plus nombreux et gagnent sans cesse en autonomie et en convivialité. Ils modifient notre quotidien et la vie sociale. Les artefacts auto-réorganisateurs sont encore expérimentaux, mais si on en fabrique industriellement, les choses vont devenir assez compliquées, car nous aurons affaire à des objets imprévisibles. 

Vient alors la question de la pensée. Un artefact de ce genre nouveau, que nous qualifierons d'hyper-complexe et auto-organisateur, pourra-t-il un jour atteindre une organisation suffisamment complexe pour que l'on puisse supposer l'émergence en son sein d'un niveau cognitivo-représentationnel ? Il est possible qu'en complexifiant les artefacts robotisés, l'évolution des recherches en produise qui atteignent un niveau de complexité suffisant qui produira un saut qualitatif dans les propriétés.

 

Bibliographie : 

Ashby W.R., "Mécanismes cérébraux de l'activité intelligente", in Perspectives cybernétiques en psychopathologie, Colloque, 1951.

 


 

© 2015 PHILOSOPHIE, SCIENCE ET SOCIETE
Cette œuvre est mise à disposition selon les termes de la licence  Creative Commons - Attribution - Pas d'utilisation commerciale - Pas de modification
Submit to FacebookSubmit to Google PlusSubmit to TwitterSubmit to LinkedIn