Démystifier l'intelligence artificielle

 

ROUGIER Nicolas

 

L'idée d'une intelligence artificielle est née en 1956, lors une conférence qui s'est tenue à Dartmouth. À sa suite, des chercheurs se sont réunis et ont voulu créer des ordinateurs qui puissent être aussi intelligents que l'homme. Cette notion d'intelligence est mal définie, mais ils vont prendre comme repère certaines tâches comme par exemple le jeu d'échecs.

 

Pour citer cet article :

ROUGIER Nicolas. Démystifier l'intelligence artificielle. Philosophie science et société [en ligne]. 2017. https://philosciences.com/Pss/philosophie-et-science/information-informatique-robotique/246-demystifier-intelligence-artificielle

 

Plan de l'article :


  1. Les deux courants de l'intelligence artificielle
  2. Courant symboliste et numérique
  3. Qu'est-ce que l'intelligence ?
  4. Dernière en date, la cognition incarnée

 

Texte intégral :

1. Les deux courants de l'intelligence artificielle

L'intelligence artificielle, techniquement, est née en 1956, lors d'une conférence qui s'est tenue à Dartmouth. Ça remonte à 60 ans déjà. À cette époque, des chercheurs se sont réunis et ont eu comme volonté de créer des ordinateurs qui puissent être aussi intelligents que l'homme. On y reviendra par la suite. Cette notion d'intelligence est mal définie, mais ce qu'ils vont prendre comme repère pour essayer d'arriver à leur but, c'est de prendre par exemple le jeu d'échecs. L'un des buts, c'est de faire un programme qui puisse jouer aux échecs aussi bien que l'homme, et éventuellement même le battre. Il y a d'autres domaines qui vont les intéresser, par exemple celui de la traduction automatique. À partir de cette conférence, pas mal de chercheurs vont rejoindre cette mouvance et vont commencer des recherches assez intensives. On va voir énormément de nouveaux résultats qui vont apparaître.

Évidemment, il faut se replacer à cette époque, encore une fois qui remonte à 60 ans. Ces résultats sont absolument prodigieux pour l'époque. L'une des toutes premières intelligences artificielles qui a été mise au point, c'est ce qu'on a appelé le logicien théorique ou logicien théoricien. C'est un programme qui a été capable de démontrer 38 des théorèmes des Principa Mathematica. Pour la première fois, on avait un programme capable de faire du raisonnement et de démontrer les choses. Dès la naissance de l'IA, ce qu'on va voir, ce sont deux courants forts qui vont émerger, l'un qu'on a appelé le courant symbolique et l'autre le courant plutôt numérique. Ces deux courants vont se distinguer par quelque chose qui a été énoncé plus tard, c'est que d'un côté on veut fabriquer un esprit, c'est le courant symbolique, et de l'autre, on veut modéliser le cerveau.

2. Courant symboliste et courant numérique

Fabriquer un esprit, c'est parti d'une idée qui était relativement simple de dire que le cerveau est une machine à traiter les symboles. Ce que vont faire ces chercheurs, c'est trouver de nouveaux algorithmes en partant de cette hypothèse que le cerveau traite tout sous forme de symboles. Il est vrai que certains problèmes, tel que par exemple le jeu d'échecs, vont permettre d'exprimer cette puissance des symboles. En manipulant les symboles, on va arriver à trouver des algorithmes qui sont extrêmement astucieux et efficaces. Je ne peux pas citer tous les algorithmes qui ont été trouvés, mais il y a vraiment un âge d'or de l'IA entre ces années 60 jusqu'à la fin des années 70 où on va trouver énormément de choses.

De l'autre côté, on a ce courant numérique qui a été mené notamment par Franck Rosenblatt, où l'idée est de modéliser le cerveau. On va rejeter cette hypothèse du symbole au profit d'une approche plus numérique. C'est ce qui a donné naissance, entre autres, au courant des réseaux de neurones artificiels. Chacun de ces deux courants vont trouver de nouveaux résultats. Pour Rosenblatt, c'est le cas avec le perceptron.

Ce qui s'est passé, c'est que, bien qu'ils aient amassé énormément de résultats, les promesses originelles quant à l'intelligence artificielle n'ont pas réellement été tenues. On a fait des avancées, mais on n'a pas résolu le problème général de l'intelligence. Notamment à la fin des années 70, le jeu d'échecs ne marche pas très bien. On n'est toujours pas capable de battre le champion du monde d'échecs évidemment. Au niveau de tout un tas d'autres résultats, ceux qui donnent l'argent ont dit "ça suffit, tant que vous n'aurez pas cette intelligence générale, on arrête, on ne vous donne plus les fonds". Ce qui s'est passé, c'est qu'on a eu l'hiver de l'IA, c'est-à-dire que du jour au lendemain pratiquement, pas mal de recherches se sont arrêtées suite à cette rareté des fonds pour soutenir la recherche.

Il aura fallu attendre encore quelques années, au milieu des années 90, où là on a eu, de nouveau, des résultats assez importants. C'est en 97 que Garry Kasparov a été battu par le programme Deep Blue. Le champion du monde d'échecs a été battu par une machine. Ça a été un petit coup de tonnerre parce qu'on ne pensait pas que c'était possible, mais ça l'a été. Ça a pu faire avancer tout un tas d'algorithmes, mais évidemment on n'avait toujours pas résolu le problème général de l'intelligence. Aujourd'hui, il y a énormément, de nouveau, des recherches en IA, notamment de la même façon qu'on avait battu le joueur d'échecs, on a battu le champion du monde de Go il y a quelques mois. Là aussi, ça a été un coup de tonnerre parce que c'est un résultat qu'on attendait pour dans quelques années parce que le jeu de Go est d'une complexité avec un ordre de grandeur supérieur aux échecs. On pensait que c'était vraiment un problème ardu.

3. Qu'est-ce que l'intelligence ?

Est-ce que ça veut dire qu'on a résolu le problème de l'intelligence générale ? Non, toujours pas parce que le problème est toujours le même. Il n'a pas changé. On ne sait pas définir vraiment ce qu'est l'intelligence. On va pouvoir développer des intelligences artificielles qui vont être excessivement bonnes dans un certain sous-domaine, par exemple ça peut être le jeu de Go, le jeu d'échecs, ça peut être des problèmes encore plus spécifiques où là on va trouver effectivement ces algorithmes qui vont permettre de résoudre ces problèmes. Mais par exemple aujourd'hui, on ne sait pas faire une intelligence qui pourrait répondre à tous les problèmes, même de façon très basique. On ne sait aujourd'hui pas faire ça.

L'autre problème attenant, c'est qu'il faut à un moment définir ce qu'on va entendre par "intelligence". C'est un peu là où les chercheurs ont péché à l'origine. C'est qu'on ne va pas avoir une intelligence, mais des intelligences. C'est pour ça qu'on va préférer parler d'intelligences artificielles au pluriel, on va même enlever le terme d'intelligence artificielle au profit d'autres domaines qui peuvent être, par exemple, l'apprentissage machine, qui peuvent être les réseaux de neurones artificiels, qui peuvent être les systèmes experts, qui peuvent être encore tout un tas d'autres domaines. À la même époque, en 56, toujours par rapport à ce problème de l'intelligence générale, il y a Alan Turing qui a proposé un test, qui aujourd'hui s'appelle le test de Turing dont le but était de détecter si une machine était intelligente ou pouvait être qualifiée d'intelligente. Ce test est intéressant parce que c'est ce qu'on a appelé le jeu de l'imitation, où le jeu pour la machine, est de se faire passer pour un humain en donnant des réponses assez convaincantes.

Ce test est extrêmement critiqué et est toujours critiqué depuis, mais beaucoup cité parce que ça repose entièrement sur le langage qui est quelque chose de très compliqué, et qui n'est valable que pour l'homme puisqu'il faut pouvoir parler. Par exemple, les animaux ne pourraient pas passer le test ou les bébés ne pourraient pas passer le test. Aujourd'hui, avec les recherches actuelles qu'on a à la fois sur l'animal, sur le développement de l'enfant, on sait que l'intelligence ne passe pas entièrement par le langage, mais prend bien d'autres formes. Un des gros problèmes aujourd'hui pour l'intelligence artificielle, c'est de faire un joueur de foot. Ça pourrait paraître étonnant puisque finalement on a réussi à faire le joueur d'échecs, alors qu'aujourd'hui la problématique c'est le joueur de foot parce que si vous prenez un robot humanoïde, il va falloir le faire bouger, le faire jouer collectivement avec ses partenaires, c'est-à-dire qu'il va falloir décoder les émotions, les intentions de l'autre. Tout ça, ce sont des problèmes excessivement difficiles qui ne sont pas résolus, mais qui font effectivement l'objet de beaucoup de recherches.

4. Dernière en date, la cognition incarnée

Ça rejoint un problème un peu plus général sur cette hypothèse symbolique, qui était que lorsque les gens se sont mis à rejeter cette hypothèse symboliste, ils se sont pris à considérer cette fois le corps. Il y a eu tout un mouvement qu'on appelait la cognition incarnée, dont un texte emblématique qui est un article de Rodney Brooks, un roboticien assez célèbre, et qui a écrit cet article qui s'appelle, "Les éléphants ne jouent pas aux échecs". C'est un titre un peu surprenant, mais ce qu'il voulait signifier, c'était de dire que l'éléphant mène sa vie d'éléphant dans la savane ou dans la jungle. Il n'a jamais entendu parler de jeu d'échecs. On peut supposer qu'il n'a pas besoin de symboles, mais il a toute son intelligence d'éléphant. C'était un peu pour rejeter cette hypothèse simplificatrice.

Aujourd'hui, dans les recherches par rapport à la cognition incarnée, l'idée est de dire que l'intelligence doit se faire avec un corps qui se développe et en interaction avec l'environnement. Si je veux par exemple tester la souplesse d'un objet, je vais avoir besoin d'un corps pour faire l'expérience de cette souplesse de cet objet. C'est là une des grandes orientations d'une certaine part des recherches en intelligence artificielle, mais aussi en robotique, en robotique développementale.

 

Nicolas Rougier est chercheur à l'Inria au sein de l'équipe Mnemosyne et de l'Institut des maladies neurodégénératives à Bordeaux. Il travaille en neurosciences computationnelles et cherche à comprendre le fonctionnement du cerveau au travers de modèles informatiques.

Les publications de Nicolas Rougier sont sur archives-ouvertes : https://cv.archives-ouvertes.fr/nicolas-p-rougier

 


 © GIP FUN-MOOC Licence Creative Commons Attribution 2.0


 

Submit to FacebookSubmit to Google PlusSubmit to TwitterSubmit to LinkedIn