Quelques aspects de la théorie scientifique de l'information
 

 

PARISIEN François-Hugues

 

Un article précédent a envisagé de manière générale les théories de l'information. Celui-ci se limite à préciser quelques aspects particuliers (la formule de Shannon et l'information quantique) afin de préciser certaines notions.

 

Pour citer cet article :

PARISIEN François-Hugues. Quelques aspects de la théorie scientifique de l'information. Philosophie, science et société. [en ligne] 2015. https://www.philosciences.com/Pss/philosophie-et-science/information-informatique-robotique/47-aspects-de-la-theorie-scientifique-de-l-information

 

Plan de l'article :


  1. Shannon et la "théorie de l'information"
  2. La théorie de l'information quantique
  3. Conclusion brève

 

Texte intégral :

1. Shannon et la "théorie de l'information"

Nous allons essayer de préciser le concept d’information tel qu'il a été utilisé par Shannon dans la théorie dite "de l'information". Cette théorie n'a rien à voir avec l'information au sens ordinaire, puisqu'elle exclut toute signification. Elle concerne la communication de signaux discrets (individualisables et dénombrables). Son article princeps de 1948 s'intitule d'ailleurs A Mathematical Theorie of communication.

Une façon de décrire un système de communication est d’en donner un modèle probabiliste. Ce que l'on appelle dans ce cas "fournir une information à un utilisateur" consiste à choisir un événement parmi plusieurs possibles. Par conséquent, "fournir une information" consiste à lever une incertitude sur l’issue d’une expérience aléatoire. Le nombre des occurrences parmi toutes celles possibles diminue. La notion d’information est une notion probabiliste qui rend compte de l'incertitude et de sa diminution.

Si nous considérons deux événements x et y, la probabilité conditionnelle P (x | y) peut être interprétée comme la modification apportée à la probabilité P (x) lorsque l’on reçoit l’information que l’événement y est réalisé.
L’information “y est réalisé” modifie la probabilité de x, c’est-à-dire l’incertitude sur la réalisation de x. 

Plus précisément,
– si P (x | y) ≤ P (x), l’incertitude sur x augmente,
– si P (x | y) ≥ P (x), l’incertitude sur x diminue.

Se pose alors un problème mathématique : comment mesurer la variation de l’incertitude ?  Une solution intéressante est de choisir une fonction décroissante de la probabilité comme le logarithme. 

Si on note I(x) l’incertitude sur x, en utilisant une fonction logarithme népérien, on peut définir I par  :

I(x) = − log P (x).

Cette quantité est l'information propre à x. 

Lorsque y est réalisé, cela diminue l’incertitude sur x de la quantité I(x) − I(x | y). Si on remplace cette expression par l'expression logarithmique, on obtient : 

l(m) = log P (x | y) / P (x)

Cette quantité est l’information mutuelle de x et y.

Plus généralement, il montra que la fonction la plus générale obéissant aux conditions requises était de la forme :

H = - k Σ p ln p

Si k = 1 et que le logarithme (ln) est en base 2, le résultat sera exprimé en bits. 

H  =  - \sum_{i=1}^N p_i \log_2(p_i)

Shannon nomma cette fonction Entropie. En quoi cette fonction serait-elle reliée à l'entropie définie par Clausius ? Nous laisserons cela de côté.

Shannon a introduit une fonction mesurant la quantité "d''information" contenue dans une distribution de probabilité. Il s'agit de la diminution d'incertitude concernant la probabilité d'un événement discret. Les événements concernés sont des signaux et leur transmission. Ce dont il est question ici ce n'est pas d'information au sens général du terme qui signifie obtenir des connaissances.

 

2. La théorie de l'information quantique

Il s'agit de la théorisation qui permet l’utilisation des spécificités de la physique quantique pour le traitement et la transmission de signaux correspondant à des valeurs numériques (information au sens informatique). La possibilité en a été ouverte au début des années 1980, par la possibilité technique de manipuler et d’observer des objets quantiques individuels : photons, atomes, ions etc., (et pas seulement d’agir sur le comportement quantique collectif d’un grand nombre de tels objets). 

Le bit de l’informatique classique prend les valeurs 0 ou 1. Le bit quantique, ou qu-bit, pourra non seulement prendre les valeurs 0 et 1, mais aussi toutes les valeurs intermédiaires. Cela est dû à une propriété fondamentale des états quantiques : on peut fabriquer des superpositions linéaires de ces états, en superposant linéairement un état où le qu-bit a la valeur 0 et un état où il a la valeur 1.
La seconde propriété à la base de l’informatique quantique est l’intrication : en mécanique quantique, il peut arriver que deux objets distincts et éloignés l’un de l’autre, constituent une entité unique (car une modification de l'un affecte instantanément le second). 
La combinaison de ces deux propriétés, superposition linéaire et intrication, est au cœur du parallélisme quantique, la possibilité d’effectuer en parallèle un grand nombre d’opérations. Cependant, le parallélisme quantique diffère fondamentalement du parallélisme classique : alors que dans un ordinateur classique on peut toujours savoir (au moins en théorie) quel est l’état interne de l’ordinateur, une telle connaissance est, par principe, exclue dans un ordinateur quantique. 

Le parallélisme quantique demande le développement d’algorithmes entièrement nouveaux. Le nombre d’algorithmes existant est pour l’instant très limité. La seconde limite est que l’on ne sait pas s’il sera possible de construire un jour des ordinateurs quantiques de taille suffisante. On ne sait, à l’heure actuelle (2010), manipuler que quelques qu-bits (sept au maximum).

L’ennemi du bon fonctionnemnet de l’ordinateur quantique est la décohérence, l’interaction du support des qu-bits (photons, ions) avec l’environnement, ce qui brouille les délicates superpositions linéaires. Cette décohérence introduit des erreurs et, idéalement, il faudrait que l’ordinateur quantique soit parfaitement isolé de son environnement.

 

3. Conclusion brève

Le problème de l'information devenant crucial pour notre société, il est intéressant de savoir de quoi l'on parle. On voit ici qu'il s'agit de propriétés physiques pouvant être formatées selon un calcul. C'est pour cela que nous avons tenu à noter les formules mathématiques. Il est donc quelque peu abusif de parler d'information. Il serait préférable de parler de signal et de communication de signaux selon une forme mathématisable.

 


© 2015 PHILOSOPHIE, SCIENCE ET SOCIETE
Cette œuvre est mise à disposition selon les termes de la licence  Creative Commons - Attribution - Pas d'utilisation commerciale - Pas de modification.
Submit to FacebookSubmit to Google PlusSubmit to TwitterSubmit to LinkedIn