Écrit par : Patrick Juignet
Catégorie : Information, informatique, robotique

Réflexion philosophique sur les théories de l'information

 

Nous allons essayer de préciser la notion d’information telle qu'elle est utilisée depuis Shannon dans les théories dites « de l'information ». Ces théories ne traitent pas de l'information au sens ordinaire, puisqu'elles excluent la signification. Pourtant une confusion a été entretenue. Après une brève histoire du concept d'information, nous montrerons l’intérêt de son usage, mais aussi les errements que provoque son extension abusive.

 

We will try to clarify the notion of information as it has been used since Shannon in so-called « information theories ». These theories do not deal with information in the ordinary sense, because they exclude meaning. Yet confusion has been maintained. After a brief history of the concept, we will show the interest of its use, but also the uncertainties caused by its abusive extension.

 

 Pour citer cet article :

Juignet, Patrick. Réflexion philosophique sur les théories de l'information. Philosophie, science et société. 2015. https://philosciences.com/theorie-information.

 

 

information

 Plan de l'article :

  1. L’ information en informatique et mathématique
  2. L’information en physique
  3. L’information en biologie
  4. L’information dans les sciences humaines
  5. Puissance d’un concept et confusion des langues
  6. Un abus d’extension pour un concept intéressant

 

Texte intégral :

1. L’information en informatique et mathématique

L'information selon Claude Elwood Shannon

En 1949, le livre intitulé The Mathematical Theory of Communication, écrit par l’ingénieur et mathématicien Claude Elwood Shannon, popularisa la notion d’information. Sa recherche concernait la transmission des signaux. Dans leur cheminement, les signaux rencontrent des perturbations qui brouillent le message. La transmission est donc aléatoire et présente une incertitude. Dans ce cas, fournir une « information » consiste à lever l’incertitude sur l’arrivée des signaux.

Cette théorie n'a rien à voir avec l'information au sens ordinaire, puisqu'elle exclut toute signification. Elle concerne la communication de signaux discrets (individualisables et dénombrables). L'article princeps de 1948 s'intitule d'ailleurs A Mathematical Theorie of Communication.

Il s'agit d'un modèle probabiliste pour lequel ce qui est nommé « fournir une information à un utilisateur » consiste à choisir un événement parmi plusieurs possibles. Par conséquent, « fournir une information » consiste à lever une incertitude sur l’issue d’une expérience aléatoire. Dans ce cas, le  nombre des occurrences parmi toutes celles possibles diminue. La notion d’information est une notion probabiliste qui rend compte de l'incertitude et de sa diminution.

Si nous considérons deux événements x et y, la probabilité conditionnelle P (x | y) peut être interprétée comme la modification apportée à P (x) lorsque l’événement y est réalisé (c'est la probabilité P(x) sachant que Y est réalisé. Si de l’information « y est réalisée » dit Shannon, cela modifie la probabilité de x, c’est-à-dire diminue l’incertitude sur la réalisation de x.

Plus précisément,
– si P (x | y) ≤ P (x), l’incertitude sur x augmente,
– si P (x | y) ≥ P (x), l’incertitude sur x diminue.

Se pose alors un problème mathématique : comment mesurer la variation de l’incertitude ?  Une solution intéressante est de choisir une fonction décroissante de la probabilité comme l'opposé du logarithme. 

Si on note I(x) l’incertitude sur x, en utilisant une fonction logarithme népérien, on peut définir I par  : I(x) = − log P (x).

Cette quantité est l'information propre à x.

Lorsque y est réalisé, cela diminue l’incertitude sur x de la quantité I(x) − I(x | y). Si on remplace cette expression par l'expression logarithmique, on obtient : l(m) = log ( P (x | y) / P (x) )

Cette quantité est l’information mutuelle de x et y. En étendant son propos, Shannon montre que la fonction obéissant aux conditions requises est du type : H = - k Σ p ln p . En prenant le cas particulier dans lequel k = 1 et le logarithme (ln) est en base 2, le résultat sera exprimé en bits. 

H  =  - \sum_{i=1}^N p_i \log_2(p_i)

Shannon nomma cette fonction Entropie. En quoi cette fonction serait-elle reliée à l'entropie définie par Clausius ? Nous laisserons cette question en suspens.

Claude Shannon a introduit une fonction mesurant la quantité « d'information » contenue dans une distribution de probabilité. Il s'agit de la diminution d'incertitude concernant la probabilité d'un événement discret. Les événements concernés sont des signaux et leur transmission. Il n'est pas question ici d'information au sens général d’obtenir ou de posséder un savoir humain sur l'environnement (quel qu'il soit).

L'informatique et l'information

L’informatique s’est préparée avec Boole qui a lié la logique au calcul algébrique. Dans son approche, les raisonnements sont exprimés dans un langage symbolique permettant le calcul, ce qui ouvre la voie à leur mécanisation. Le projet se concrétisa grâce à Shannon. En 1937, ce dernier démontra que la réalisation électrique de l’algèbre de Boole était possible, à condition de s’en tenir à une forme binaire de sa logique. En 1936, Turing partant d’une question mathématique, celle de la calculabilité d’un nombre, traita ce problème par l’intermédiaire d’une « machine » formelle (une procédure algorithmique). Les principes nécessaires étaient alors acquis et après la résolution des problèmes techniques, l’informatique pris son essor. On la définira alors comme « le traitement automatique de l’information ».

La théorie informatique, ramenée à sa base la plus simple, concerne deux états physiques (signal, absence de signal) et une notation symbolique sous forme de chiffres 0 et 1. Cette notation se complexifie par paliers successifs dans les programmes. L’information en informatique désigne la création d’un ordre abstrait qui peut être concrétisé par un support physique. Deux choses sont nécessaires pour parler d’information : 1/ Il y a un ordonnancement abstrait concrétisable sous une forme physique. 2/ la concrétisation peut se faire sur des supports différents.

La question centrale est : qu’est-ce qui reste constant lorsque différents supports sont utilisés pour stocker l’information ? On peut légitimement penser que c’est l’ordonnancement, la mise en ordre d’éléments discrets. Le mot a donc ici un sens très différent de celui d’évaluation statistique. Le point commun avec les télécommunications, c’est la transmission de signaux et l'existence d'un code qui les organise. Par code, nous entendons une manière d’ordonner les symboles. Par exemple, 0 puis 1 n’est pas équivalent à 1 puis 0. La réalisation concrète du code implique que les signaux soient distincts (dans le temps et dans l’espace) et distribués selon un ordre précis.

La théorisation de la complexité mathématique a été initiée par Kolmogorov dans les années 1960. ll s’agit d’évaluer la complexité du calcul d’un nombre ou d’une suite de nombres. Kolmogorov s’est intéressé aux travaux de Shannon traduits en Russe en 1953. Il y vit assez vite le moyen de décrire un objet mathématique et suggère que la formule de Shannon, appliquée à un nombre, représenterait le nombre de bits suffisants pour décrire ce nombre. Puis, il proposa une approche originale. L’information apportée par une série de nombres sur une autre peut être définie, à une constante près, par l’algorithme utilisé pour construire la seconde série.

L’interprétation informatique de ce principe est la suivante. Les machines informatiques pouvant exécuter des programmes, la complexité est la longueur du plus petit programme écrit pour la machine qui génère la suite de nombres. Une suite constante a une complexité faible, car les programmes qui la génèrent peuvent être très courts et une suite aléatoire a une complexité qui est grande par rapport à sa taille.

Il faut noter que la notion d’information, même dans un cadre strictement mathématique ou informatique, est difficile à manier. Remarquons enfin que cette complexité de Kolmogorov ne prétend pas être celle « de » l’information, mais qu’elle prétend être l’information. Autrement dit, c’est le rapport lui-même et le degré de complexité qu’il définit qui est nommé information. Il s’agit d’une notion purement mathématique définissant un rapport entre des nombres. Elle donne une idée sur un objet mathématique ou informatique. On peut citer Jean-Paul Delahaye qui incite à la prudence : « Ces théories mathématiques concernant l'information, qu'elles soient disponibles ou qu'elles s'élaborent encore, ont des prétentions à l'universalité et à l'applicabilité. Mais il convient de se méfier. Elles sont parfois mal assimilées : celle de Shannon a engendré beaucoup de discours dont aujourd'hui on comprend qu'ils étaient insuffisamment prudents ; celle de Kolmogorov semble parfois aussi induire en erreur ».

2. L’information en physique

En physique, l’information s’est introduite par le biais du Démon de Maxwell. Les travaux de Szilárd (1929) entrent en jeu de manière inaugurale par l’affirmation selon laquelle le démon a besoin d’énergie ou d’entropie pour être renseigné. Le raisonnement a été poursuivi par Wiener et Brillouin.

Dans l’expérience de Maxwell, le principe d’augmentation d’entropie est bafoué. Pour exorciser ce démon, Wiener et Brillouin supposent que l’information demande une certaine néguentropie. Du coup, le principe de Boltzmann est respecté, car c’est l’ensemble (information + néguentropie) qui intervient. Mais alors, l’information est assimilable à une grandeur physique de type entropie, puisqu’elle interagit avec elle.

Parallèlement, il se trouve que la formule de Shannon et celle de Boltzman ont un libellé identique, identité renforcée par l’appellation donnée par Shannon. D’où une assimilation entre les deux. Certains chercheurs ont donné une expression du second principe de la thermodynamique sous la forme d’une équation S = k log W, qui exprime l’entropie S en fonction du nombre W de micro-états du système, avec k la constante de Boltzmann. Mais surtout, Shannon a inventé le théorème H qui se formule : H = – Somme pi log pi  dans lequel pi représente les probabilités des micro-états d’un système. Ramenée à une expression statistique, la transmission du signal et l’entropie ont la même forme.

Le raisonnement est bouclé et il s’ensuit que le démon peut acquérir de l’information au sens de Shannon qui devient une grandeur physique, puisqu’elle doit être compensée par de la néguentropie (inverse de l’entropie). Wiener et Brillouin déclarèrent en 1948 que l’information était une troisième grandeur physique à côté de la matière et de l’énergie.

Cette idée avait été préparée par la définition de l’entropie négative comme mesure d’ordre (Erwin Schroedinger, What is life ?, 1944). Von Neumann, dans les années 1950, lui a emboîté le pas en supposant que chaque opération logique effectuée dans un ordinateur doit utiliser une quantité d’énergie, ce qui augmenterait l’entropie (von Neumann, 1966). Mais, Rolf Landauer a démontré que tout calcul peut être réalisé de façon réversible sans consommer d’énergie. Rolf Landauer, en 1980, affirma que l’information pouvait être considérée comme une quantité physique et qu’elle fait partie du monde. Cela aboutit à lui donner un statut ontologique. À sa suite, Antoine Danchin (2010) considère que l’information est le cinquième constituant du monde (après la matière, l’espace, le temps et l’énergie).

Un autre aspect de l’information dans le domaine de la physique vient de la spécificité du niveau quantique pour ce qui est du traitement et de la transmission de signaux correspondant à des valeurs numériques (information au sens informatique). L’opportunité en a été offerte au début des années 1980 par la possibilité technique de manipuler et d’observer des objets quantiques individuels : photons, atomes, ions, etc., (et pas seulement d’agir sur le comportement quantique collectif d’un grand nombre de tels objets). Sur le plan théorique, il n’y a aucun changement de fond avec le passage au niveau quantique par rapport à la doctrine informatique de base. Il s’agit de reproduire physiquement des ordonnancements définis mathématiquement.

Le bit de l’informatique classique prend les valeurs 0 ou 1. Le bit quantique, ou qu-bit, pourra, non seulement prendre les valeurs 0 et 1, mais aussi toutes les valeurs intermédiaires. Cela est dû à une propriété fondamentale des états quantiques : on peut fabriquer des superpositions linéaires de ces états, en superposant linéairement un état où le qu-bit a la valeur 0 et un état où il a la valeur 1.
La seconde propriété à la base de l’informatique quantique est l’intrication : en mécanique quantique, il peut arriver que deux objets distincts et éloignés l’un de l’autre, constituent une entité unique (car une modification de l'un affecte instantanément le second).

La combinaison de ces deux propriétés, superposition linéaire et intrication, est au cœur du parallélisme quantique et donne la possibilité d’effectuer en parallèle un très grand nombre d’opérations. Cependant, le parallélisme quantique diffère fondamentalement du parallélisme classique : alors que dans un ordinateur classique, on peut toujours savoir (au moins en théorie) quel est l’état interne de l’ordinateur, une telle connaissance est, par principe, exclue dans un ordinateur quantique. 

Le parallélisme quantique demande le développement d’algorithmes entièrement nouveaux. Le nombre d’algorithmes existants est pour l’instant très limité. La seconde limite est que l’on ne sait pas s’il sera possible de construire un jour des ordinateurs quantiques de taille suffisante. On ne sait, à l’heure actuelle (2010), manipuler que quelques qu-bits (sept au maximum).

3. L’information en biologie

Par quels biais se fait l’introduction du concept d’information en biologie ? Deux idées sont lancées par Schrödinger dans son livre Qu’est-ce que la vie ? (1944) : celle d’un ordre au sein des gènes et celle d’un rapport entre ordre et entropie. L’élucidation de l’organisation moléculaire des gènes a montré qu’il y a un ordre moléculaire dans les gènes et que celui-ci se traduit par une organisation macroscopique. Comment cela se produit-il ? Par un code et sa transcription. Schrödinger a lancé la notion de code génétique, qui a fait fortune depuis.

De plus, dans son ouvrage, Schrödinger fait un lien entre ordre et entropie (qui rappelle les tentatives d’exorciser le démon de Maxwell). Concernant le rapport entre ordre, code et entropie, le raisonnement généralement repris est le suivant. S’il y a un ordre, il va contre le désordre et donc s’oppose au principe d’augmentation constante et spontanée de l’entropie. Produire de l’ordre impliquerait simultanément une lutte contre l’entropie et un gain en information. Intuitivement, on comprend bien le raisonnement qui est plausible. Toutefois, que cela soit plausible ne veut pas dire que ce soit démontré. Cela se résume par les équivalences suivantes :

entropie croissante = désordre = perte d’information = baisse énergétique = équilibre

et

entropie diminuant = ordre = gain d’information = demande énergétique = déséquilibre

L’idée d’information s’est aussi introduite en biologie par le biais de la communication au sein d’un organisme vivant. Du coup, Wiener, en 1950, compare les types de transmissions utilisées pour envoyer un télégramme à celles qui ont lieu dans un organisme vivant. L’analogie est faite entre la distribution des perforations sur une carte perforée et celle des acides nucléiques du gène qui peuvent toutes deux être considérées comme de l’information codée (von Foerster, 1952, Introduction à la 18e conférence Macy).

La grosse avancée de l’information en biologie se fait par l’intermédiaire de l’élucidation des processus génétiques. La découverte de Crick et Watson de la composition chimique des chromosomes a ouvert la voie à l’élucidation de l’information génétique qui avait été supposée par les précurseurs que nous avons cités ci-dessus. On a découvert qu’au sein des chromosomes, c’est l’ordre des bases azotées (adénine, guanine, thymine, cytosine) qui détermine les gènes. Cet ordre est constitué de triplets successifs, le départ étant marqué par un triplet « start » et la fin par un triplet « stop ». Il est possible de symboliser ces bases par leurs lettres (A,C,G,T) et donc de former un modèle simplifié du chromosome sous forme d’une liste de lettres ordonnées.

D’un point de vue pratique, après analyse chimique, le chercheur se retrouve devant des centaines de pages de symboles pourvus d’un ordonnancement mystérieux, avec à faire un travail équivalent au décryptage d’un code (ce qui été l'un des moteurs de la recherche en informatique pendant la Seconde Guerre mondiale). On a appelé cet ordre et ses effets « information », par analogie avec l’informatique. La modélisation donne une liste de lettres qui ressemble à un code. Ce code n’a aucune signification, il est seulement possible de le découper en des séquences correspondant à un gène (la partie du chromosome qui organise la synthèse d’une protéine).

L’information en informatique désigne un ordre abstrait qui peut être concrétisé par un support physique. Ici, on a exactement la même chose, mais inversée : un support qu’on peut modéliser par un ordre abstrait. Autre analogie avec l’informatique, l’ordonnancement est producteur de quelque chose : en informatique, cet ordonnancement permet de commander une action et ici, l’ordonnancement commande la production des protéines. Il y a un aspect commun au concept d’information appliqué à deux domaines différents, celui des artefacts et celui de la biologie.

En reprenant la distinction classique entre forme et matière, Antoine Danchin définit l’information comme étant ce qui met en forme la matière (voir Antoine Danchin : http://www.normalesup.org/~adanchin/). Il semble que l’information, au sens d’un ordonnancement, ne soit pas suffisante pour expliquer l’organisation. C’est une explication valide dans certains cas bien précis, mais probablement pas en général. Jacques Monod qui, ressentant sans doute que tout n'était pas clair du côté des théories physiques de l'information, parlait à propos de ce qu'on leur faisait dire « de généralisations et d'assimilations imprudentes ».

Cependant, comme le fait remarquer Arnaud Pocheville (Séminaire d'Histoire et de Philosophie des Sciences et des Techniques, 2019), l'information est une notion centrale en biologie, qui est utilisée aussi bien dans l'étude du fonctionnement cellulaire que dans celle du développement et de l'évolution. Cependant, elle « ne s'appuie sur aucune théorie solidement fondée en biologie ». Les théories de l'information mathématiques et physiques ne sont pas applicables directement en biologie. Face à ce constat, la fondation d'une théorie solide de l'information biologique est possible, mais, pour l'instant, l'usage du terme est analogique même s'il est très plausible que des phénomènes véritablement informationnels existent en biologie.

4. L’information dans les sciences humaines

La double assimilation cerveau-machine et pensée-information

L’assimilation du cerveau à une machine et l’assimilation de la pensée à un traitement de l’information a donné la thèse « computationniste ». Après la publication, en 1943, de l’article inaugural de Pitts et McCulloch, les neurones ont été assimilés à des portes électroniques fonctionnant en tout ou rien.

Trois postulats sont avancés :
1/ l’esprit fonctionne de manière logique.
2/ Le cerveau fonctionne comme une machine électronique.
3/ La relation entre les deux est la même que dans l’informatique.

La conclusion est que la logique est implémentée par un calcul exécuté par la machinerie neuronale. L’aboutissement de ces thèses se trouve dans un article de 1949 publié dans la revue Electrical Engineering, intitulé « The brain as a computing machine ». Il y est explicitement affirmé « le cerveau est une machine logique ». Nous avons là le fondement du computationnisme. Le cerveau serait une machine de traitement de l’information au sens informatique du terme.

Corrélativement, on trouve la proposition d’un nouveau modèle de la connaissance. Toute activité cognitive serait fondée sur un calcul. Comme tout calcul peut être exécuté par une machine, toute connaissance pourrait être programmée sur une machine informatique. Il s’ensuit deux conséquences importantes. La première est que les machines ne font pas que reproduire (mimer) l’activité cognitive. La seconde est que l’analogie entre le cerveau et la machine serait fondée. Toute connaissance serait un « traitement de l’information » qui peut être effectué indifféremment par une machine biologique ou électronique. C’est la thèse expressément défendue par Herbert Simon.

Pour Herbert Simon, l’intelligence artificielle s’apparente au raisonnement humain parce que, comme le cerveau, un ordinateur combine des symboles et ces symboles sont liés à des formes physiques. On est bien, avec cette conception, au cœur de la théorie de l’information et d’ailleurs Simon proposera le terme d'« information processing paradigm ». Il écrit : « au cœur du paradigme du traitement de l’information repose une hypothèse qu’Allen Newell et moi avons appelée l’hypothèse de symbole physique » (H. Simon 1981, « L’unité des arts et des sciences : la psychologie de la pensée et de la découverte », in Les Introuvables en langue française, p. 4). Ces symboles sont qualifiés de physiques parce qu’ils reposent sur des substrats physiques que ce soit dans les ordinateurs ou dans le cerveau (Simon H., (1969), La science de l’artificiel, Paris, Gallimard, 2004, p. 59).

L’intelligence artificielle peut aussi être une description et une explication de la manière dont les individus pensent : « aussi primitifs que les programmes de compréhension puissent être, ils fournissent vraiment un ensemble de mécanismes de base, une théorie, pour expliquer comment les êtres humains sont capables de comprendre les problèmes, à la fois dans les nouveaux domaines auxquels ils ne connaissent rien et dans les domaines sur lesquels ils ont une plus ou moins grande quantité de connaissances sémantiques antérieures » (Simon H., 1969, p. 179).

Le structuralisme et l’information

Une partie du structuralisme a repris à son compte le postulat d’une combinaison symbolique, mais, au lieu de calcul, on parle de syntaxe langagière. La référence explicite à la théorie de l’information n’est pas faite, mais on sent une forte influence. On en trouve l’amorce en linguistique avec Roman Jackobson et la mise en avant de la phonologie. Il décompose la langue en phonèmes et recherche des invariants relationnels entre eux, ce qui influencera Lévi-Strauss et Lacan.

Pour Claude Lévi-Srauss, la fonction symbolique peut être décrite selon des formes logiques qui sont les opérations de la logique élémentaire et de la théorie des ensembles. Plusieurs essais de formalisation ont lieu sous forme de permutations de groupe. On trouve également énoncé un système d’opérations qui, schématisé, « se rapprocherait d’une algèbre de Boole ». Il semblerait que les groupes booléens s’appliquent aux mythes.

Dans la psychanalyse, l’influence de l’informatique commence à se faire sentir vers les années 1950. Jacques Lacan 1954-55, fait une conférence et deux séminaires sur les machines (cybernétiques et informatiques). Un amalgame est fait entre structure, symbolique, machine et information (Séminaire 1954-55, Paris, Seuil, 1978). Lacan fait allusion aux travaux de Shannon, à la transmission téléphonique qui consiste à transmettre par un circuit des aspects matériels du langage. Il affirme que le sens est détaché de son support (symbole ou signifiant) et que le symbolique jouerait indépendamment de l’humain. Il aurait ses propres structures de type mathématique et elles seraient indépendantes des personnes qui s’y insèrent. L’inconscient freudien (c’est-à-dire la partie non consciente du psychisme) est déclaré structuré comme un langage, c’est-à-dire « syntaxisable » au travers des relations entre signifiants. Ce qui n'a jamais été confirmé.

Globalement, se dessine le projet de mettre à jour le traitement des formes signifiantes selon une syntaxe qui guiderait les différents aspects de la vie humaine grâce à l’analyse structurale. Jérôme Segal écrit « on peut se demander ce qui a poussé, surtout les philosophes et les divers représentants des sciences humaines, à vouloir utiliser la théorie de l’information dans les cas où la signification de l’information est primordiale ». La réponse qu’il donne est que « le problème posé concerne … le réductionnisme et même, pour certains chercheurs, un certain type de scientisme les amenant à croire que la théorie de l’information peut être la clé de toute la connaissance humaine. Toutefois, … cette attitude réductionniste n’est pas consciente et on peut estimer avoir affaire à un phénomène de mode … » (Le zéro et le un, Paris, Syllepse, 2003, p. 724).

5. Puissance d’un concept et confusion des langues

Une ambiguïté omniprésente

Dans la lignée des cybernéticiens, Gilbert Simondon définit l'information par l’incidence transformatrice et l’opération se produisant lors de sa réception. L'information ne dépend pas seulement des caractères internes d’une structure . « L’information n’est pas une chose, mais l’opération d’une chose arrivant dans un système et y produisant une transformation. […] Est virtuellement récepteur toute réalité qui ne possède pas entièrement en elle-même la détermination du cours de son devenir » (Simondon G.,  Communication et Information (cours et conférences, Paris,  PUF,  2010). Définition pour le moins vaste et abstraite qui laisse la porte ouvert à de nombreuses interprétations.

Dès le début de l’utilisation du terme, les conditions d’une confusion ont été présentes. Sous la plume de Shannon, la transmission dans un canal bruité devient « communication » et l’évaluation statistique du résultat devient « théorie de l’information ». Cet emprunt de termes du langage courant désignant des activités humaines, produit une assimilation abusive, assimilation d’autant plus facile que la téléphonie a pour but la transmission d’informations au sens ordinaire (faire savoir quelque chose à quelqu'un).

Tardivement, Shannon s’inquiéta de l’extension inconsidérée d’un outil mathématique mis au point pour les ingénieurs en télécommunications, mais il n’a rien fait pour rectifier l’ambiguïté terminologique. D’autre part, il nomma sa fonction « entropie », terme utilisé pour une fonction d’état définie autrement. Cette appellation laisse supposer que sa formule serait reliée à l’entropie définie par Boltzmann. Là encore, une ambiguïté nullement anodine.

L’information apparaît comme une mesure. On peut remarquer que toute mesure donne une idée sur ce qu’elle mesure, toute formule statistique donne une idée sur la répartition d’une distribution d’événements et mériterait donc le titre d’information. Les développements sur le démon de Maxwell se fondent sur l’idée que celui-ci devrait mesurer les particules concernées. L’information comme mesure de quelque chose rejoint le sens ordinaire, car toute mesure n’a d’intérêt que si elle apporte une information sur le fait concerné. Mais, bien sûr, la mesure demande à être lue et interprétée conceptuellement par un être humain, ce qui provoque un changement de registre, qui est gommé par l’utilisation du terme d’information.

« L’information [au sens courant] ne peut-elle être mesurée à la manière de Shannon ? On voit là s’esquisser, en filigrane, une théorie très générale de la connaissance qui devrait toucher aussi bien la pédagogie, l’apprentissage, que la fonction mémoriale … », écrit Claude Allègre en 1995 (La défaite de Platon, p. 191).

Si tout est information on arrive au degré zéro de l’information. Par jeu, appliquons la formule de Shannon à ce type de propos (comme il est légitime de le faire au vu de la généralisation proposée) et l’on tombe sur zéro, puisque la probabilité d’une information sur l’information est nulle, tant elle est étendue. Tous ces jeux de mots sur l’information lui font perdre son sens scientifique et la transforment en slogan. La théorie de l’information devient idéologie de l’information, discours vague à finalité sociale. La transformation d’un concept en slogan fait sortir du cadre scientifique pour entrer dans celui de l’idéologie.

Une définition de l’information

Comment lever l’ambiguïté de la notion ? De manière un peu arbitraire, en privilégiant un sens précis.

Historiquement, c’est à partir du XVIe siècle, mais surtout au XIXe siècle, qu’on effectue la mise en relation entre des éléments concrets (roue dentée, signal électrique) et des symboles (chiffres, lettres) en notant la possibilité d’une concordance parfaite entre les deux. Au XXe siècle, on comprend que c’est leur mise en ordre qui compte, ainsi que les manques pouvant affecter celle-ci. Les chercheurs ont tenté d’énoncer cette mise en ordre et de la chiffrer par le biais de concepts mathématiques et plus particulièrement statistiques.

Le centre de la découverte, c’est la puissance de l’ordonnancement. Le point commun aux différentes formes d’information, c’est l’existence d’un code, d’une manière d’ordonner des symboles qui puisse être réalisée concrètement. La réalisation concrète du code implique que les signaux soient distincts et distribués selon un ordre précis. S’il n’est pas respecté, il se passe autre chose, le monde change, car c’est cet ordre qui produit un effet dans le monde (et non la présence des éléments qui le concrétisent). Cet ordre a un rôle de détermination dans le monde, une effectivité.

Par exemple, si des éléments A, B, C, se présentent dans cet ordre, ou dans l’ordre inverse C, B, A, cela produira deux effets différents. Identifier cette caractéristique, et pouvoir la manipuler techniquement, constitue quelque chose de spécifique et de nouveau dans l’histoire de la pensée. Traditionnellement, lorsque des faits sont identifiés comme causes, on note leur présence ou les effets de cette présence. Ici, il n’y a pas un tel rapport causal, car ce n'est pas la présence de A, B et C qui a un effet, c’est leur ordre (A-B-C ou C-B-A ou C-A-B, etc.) qui joue un rôle. Il n'est pas causal, il commande une séquence d'évènements  Ex, etc... Par exemple B-A-C produira des faits d’un type et par contre A-B-C produira des faits différents.

Notre définition de l'information sera donc qu'elle est formée par  ordre entre éléments discrets (isolés) produisant une commande. La plupart du temps, l'information  génère une autre information et ainsi de suite de nombreuses fois jusqu'au transducteur final où elle commande une action visible. Ainsi, on comprend ce qu'il y a de commun entre une machine à calculer mécanique, une cellule vivante, un ordinateur ou un robot. Quelque soit la nature concrète des éléments A,B,C, (mécanique, électrique, moléculaire, etc.) c'est leur ordre et le déroulement de leur séquence dans le temps qui commandent la suite des évènements à leur niveau d'action (mécanique, informatique, biologique). Cet ordre est souvent appelé « code » et peut être symbolisé dans un langage formel logico-mathématique. 

L’homme a obtenu une puissance technique sans précédent par le codage et le traitement du signal, ce qui permet de construire des machines d’une polyvalence extrême. On peut leur commander d’effectuer les tâches les plus diverses, y compris commander d’autres machines, et même d’avoir une autonomie. En biologie, la manipulation de l’ordre au sein du génome permet des transformations du vivant.

6. Un abus d'extension pour un concept intéressant

L’énorme progrès théorique apporté par le concept d’information s’est accompagné d’un abus d’extension.

Du côté de la physique, c’est probablement l’exemple de l’énergie qui a poussé à étendre l’idée d’information, faisant espérer qu’elle soit une clé universelle du même type que l’énergie tant pour la compréhension du monde que pour l’unification de la science. Cette extension a été favorisée par le concept d’entropie, donnée à la fois à la mesure de transmission des signaux et à l’évolution des états dans les systèmes physico-chimiques. Du côté biologique et du côté de l’humain, la reprise du même terme a provoqué une confusion. Derrière cette extension de l’information se tient une visée réductionniste plus ou moins consciente : remplacer la pensée par le traitement de l’information. Dans cette optique, l’homme devient une machine émettant des signaux et la communication humaine un échange entre émetteur et récepteur.

Le cerveau serait parcouru par des signaux électriques codés, permettant d’émettre des signaux communicationnels reçus par les organes des sens qui opèrent une transduction vers le cerveau et ainsi de suite. Cette hypothèse, qui a une validité au niveau du fonctionnement neurobiologique, ne doit pas servir à éliminer le niveau de complexité supérieur (voir l'article : Juignet, Patrick. L'émergence du niveau cognitif chez l'homme).

Il est intéressant de rassembler divers aspects de l'Univers sous une même appellation en montrant ce qu’ils ont en commun. La démarche n’est nullement critiquable en soi, mais dans le cas de l’information, elle pèche par excès. Son extension aboutit à prétendre à une théorie unifiée de l’information qui est sans fondement. Si l’on s’en tient au concept d’un ordre efficace pour définir l’information, elle possède déjà une extension très considérable et il paraît inutile d’aller au-delà en ramenant tout à de l’information.

 

Bibliographie :

Allègre C., La défaite de Platon, Paris Fayard. 1995.

Argouac’h Jean, Archéologie du signe, Paris, L’Harmattan, 2020.

Delahaye, Jean-Paul. Théorie et théorie de l'information. Interstices. 2008.

Pocheville A., « L'information en biologie: la perspective d'un agnostique » , Institut d'Histoire et de Philosophie des Sciences et des Techniques, Paris, 2019.

Segal J., Le zéro et le un, Paris, Syllepse, 2003.

Sendrier N., « Théorie de l’information ». sciences.ch. 2003.

Simon H., La science de l’artificiel, Paris, Gallimard, 2004.

Simondon G.,  Communication et Information (cours et conférences, Paris,  PUF,  2010.

Rechenmann F., « L’information biologique et son analyse par des méthodes informatiques ». Champolion. Grenoble.

 

L'auteur :

Patrick Juignet