Réflexion philosophique sur les théories de l'information

 

JUIGNET Patrick

 

information

Nous allons essayer de préciser la notion d’information telle qu'elle est utilisée depuis Shannon dans les théories dites "de l'information". Ces théories ne traitent pas de l'information au sens ordinaire, puisqu'elles excluent la signification. Pourtant une confusion a été entretenue. Après une brève histoire du concept, nous montrerons l’intérêt de son usage, mais aussi les abus et incertitudes qui l’entourent. Ce sera l’occasion d’indiquer ce que peut être la fonction d’élucidation critique de la philosophie.

 

 

 Pour citer cet article :

JUIGNET Patrick. Réflexion philosophique sur les théories de l'information. Philosophie, science et société [en ligne]. 2015. https://philosciences.com/Pss/philosophie-et-science/information-informatique-robotique/20-theorie-information

 

Plan de l'article :


  1. L’ information en informatique et mathématique
  2. L’information en physique 
  3. L’information en biologie
  4. L’information dans les sciences humaines
  5. Puissance d’un concept et confusion des langues

 

Texte intégral :

1. L’information en informatique et mathématique

L’informatique s’est préparée avec Boole qui a lié la logique au calcul algébrique. Dans son approche, les raisonnements sont exprimés dans un langage symbolique permettant le calcul, ce qui ouvre la voie à leur mécanisation. Le projet se concrétisa grâce à Shannon. En 1937, ce dernier démontra que la réalisation électrique de l’algèbre de Boole était possible, à condition de s’en tenir à une forme binaire de sa logique. En 1936, Turing partant d’une question mathématique, celle de la calculabilité d’un nombre, traita ce problème par l’intermédiaire d’une « machine » formelle (une procédure algorithmique). Les principes nécessaires étaient alors acquis et après la résolution des problèmes techniques, l’informatique pris son essor. On la définira alors comme « le traitement automatique de l’information ».

En 1949, le livre intitulé The Mathematical Theory of Communication, écrit par l’ingénieur et mathématicien Claude Elwood Shannon, popularisa la notion d’information. Sa recherche concernait la transmission des signaux. Dans leur cheminement, les signaux rencontrent des perturbations qui brouillent le message. La transmission est donc aléatoire et présente une incertitude. Dans ce cas, fournir une « information » consiste à lever l’incertitude sur l’arrivée des signaux.

La théorie informatique, ramenée à sa base la plus simple, concerne deux états physiques (signal, absence de signal) et une notation symbolique sous forme de chiffres 0 et 1. Cette notation se complexifie par paliers successifs dans les programmes. L’information en informatique désigne la création d’un ordre abstrait qui peut être concrétisé par un support physique. Deux choses sont nécessaires pour parler d’information : 1/ Il y a un ordonnancement abstrait concrétisable sous une forme physique.  2/ la concrétisation peut se faire sur des supports différents.

La question centrale est : qu’est-ce qui reste constant, lorsque différents supports sont utilisés pour stocker l’information ? On peut légitimement penser que c’est l’ordonnancement, la mise en ordre d’éléments discrets. Le mot a donc ici un sens très différent de celui d’évaluation statistique. Le point commun avec les télécommunications, c’est la transmission de signaux et un code qui les organise. Par code, nous entendons une manière d’ordonner les symboles. Par exemple, 0 puis 1 n’est pas équivalent à 1 puis 0. La réalisation concrète du code implique que les signaux soient distincts (dans le temps et dans l’espace) et distribués selon un ordre précis.

La théorisation de la complexité mathématique a été initiée par Kolmogorov dans les années 1960. ll s’agit d’évaluer la complexité du calcul d’un nombre ou d’une suite de nombres. Kolmogorov s’est intéressé aux travaux de Shannon traduits en Russe en 1953. Il y vit assez vite le moyen de décrire un objet mathématique et suggère que la formule de Shannon, appliquée à un nombre, représenterait le nombre de bits qui suffit pour décrire ce nombre. Puis, il proposa une approche originale. L’information apportée par une série de nombres sur un autre peut être définie, à une constante près, par l’algorithme utilisé pour construire la seconde série.

L’interprétation informatique de ce principe est la suivante. Les machines informatiques pouvant exécuter des programmes, la complexité est la longueur du plus petit programme écrit pour la machine qui génère la suite de nombres. Une suite constante a une complexité faible, car les programmes qui la génèrent peuvent être très courts et une suite aléatoire a une complexité qui est grande par rapport à sa taille.

Il faut noter que la notion d’information, même dans un cadre strictement mathématique ou informatique, est difficile à manier. Remarquons enfin que cette complexité de Kolmogorov ne prétend pas être celle « de » l’information, mais qu’elle prétend être l’information. Autrement dit, c’est le rapport lui-même et le degré de complexité qu’il définit qui est nommé information. Il s’agit d’une notion purement mathématique définissant un rapport entre des nombres. Elle donne une idée sur un objet mathématique ou informatique. On peut citer Jean Paul Delahaye qui incite à la prudence : "Ces théories mathématiques concernant l'information, qu'elles soient disponibles ou qu'elles s'élaborent encore, ont des prétentions à l'universalité et à l'applicabilité. Mais il convient de se méfier. Elles sont parfois mal assimilées : celle de Shannon a engendré beaucoup de discours dont aujourd'hui on comprend qu'ils étaient insuffisamment prudents ; celle de Kolmogorov semble parfois aussi induire en erreur".

2. L’information en physique

En physique, l’information s’est introduite par le biais du Démon de Maxwell. Les travaux de Szilard (1929) entrent en jeu de manière inaugurale par l’affirmation selon laquelle le démon a besoin d’énergie ou d’entropie pour être renseigné. Le raisonnement a été poursuivi par  Wiener et Brillouin.

Dans l’expérience de Maxwell, le principe d’augmentation d’entropie est bafoué. Pour exorciser ce démon, Wiener et Brillouin supposent que l’information demande une certaine néguentropie. Du coup, le principe de Boltzmann est respecté, car c’est l’ensemble (information + néguentropie) qui intervient. Mais alors, l’information est assimilable à une grandeur physique de type entropie, puisqu’elle interagit avec elle.

Parallèlement, il se trouve que la formule de Shannon et celle de Boltzman ont un libellé identique, identité renforcée par l’appellation donnée par Shannon. D’où une assimilation entre les deux. Certains chercheurs ont  donné une expression du second principe de la thermodynamique sous la forme d’une équation S = k log W, qui exprime l’entropie S en fonction du nombre W de micro-états du système, avec k la constante de Boltzmann. Mais surtout il a inventé le théorème H  qui se formule  :   H = – Somme pi log pi  dans lequel pi représente les probabilités des micro-états d’un système. Ramené à une expression statistique la transmission du signal et l’entropie ont la même forme.

Le raisonnement est bouclé et il s’ensuit que le démon peut acquérir de l’information au sens de Shannon qui devient une grandeur physique, puisqu’elle doit être compensée par de la néguentropie (inverse de l’entropie). Wiener et Brillouin déclarèrent en 1948 que l’information était une troisième grandeur physique à côté de la matière et de l’énergie.

Cette idée avait été préparée par la définition de l’entropie négative comme mesure d’ordre (Erwin Schroedinger, What is life ?, 1944). Von Neumann, dans les années 1950,  lui a emboîté le pas, en supposant que chaque opération logique effectuée dans un ordinateur doit utiliser une quantité d’énergie, ce qui augmenterait l’entropie  (von Neumann, 1966). Mais, Rolf Landauer a démontré que tout calcul peut être réalisé de façon réversible sans consommer d’énergie. Rolf Landauer, en 1980, affirma que l’information pouvait être considérée comme une quantité physique et qu’elle fait partie du monde. Cela aboutit à lui donner un statut ontologique. À sa suite, Antoine Danchin (2010) considère que l’information est le cinquième constituant du monde (après la matière, l’espace, le temps et l’énergie).

On peut utiliser les spécificités du niveau quantique pour le traitement et la transmission de signaux correspondant à des valeurs numériques (information au sens informatique). La possibilité en a été ouverte début des années 1980 par la possibilité technique de manipuler et d’observer des objets quantiques individuels : photons, atomes, ions, etc., (et pas seulement d’agir sur le comportement quantique collectif d’un grand nombre de tels objets). Sur le plan théorique, il n’y a aucun changement de fond avec le passage au niveau quantique par rapport à la doctrine informatique de base. Il s’agit de reproduire physiquement des ordonnancements définis mathématiquement.

3. L’information en biologie

Par quels biais se fait l’introduction du concept d’information en biologie ? Deux idées sont lancées par  Schrödinger dans son livre Qu’est-ce que la vie (1944) : celle d’un ordre au sein des gènes et celle d’un rapport entre ordre et entropie. L’élucidation de l’organisation moléculaire des gènes a montré qu’il y a un ordre moléculaire dans les gènes et que celui-ci se traduit par une organisation macroscopique. Comment cela se produit-il ?  Par un code et sa transcription. Schrödinger a lancé la notion de code génétique, qui a fait fortune depuis.

De plus, dans son ouvrage, Schrödinger fait un lien entre ordre et entropie. (qui rappelle les tentatives d’exorciser le démon de Maxwell). Concernant le rapport entre ordre, code et entropie, le raisonnement généralement repris est le suivant. S’il y a un ordre, il va contre le désordre et donc s’oppose au principe d’augmentation constante et spontanée de l’entropie.  Produire de l’ordre impliquerait simultanément une lutte contre l’entropie et un gain en information. Intuitivement, on comprend bien le raisonnement qui est plausible. Toutefois, que cela soit plausible ne veut pas dire que ce soit démontré. Cela se résume par les équivalences suivantes :

entropie croissante = désordre = perte d’information = baisse énergétique = équilibre entropie diminuant = ordre = gain d’information = demande énergétique = déséquilibre

L’idée d’information s’est aussi introduite en biologie par le biais de la transmission au sein d’un organisme vivant. Du coup, Wiener, en 1950, compare les types de transmissions utilisées pour envoyer un télégramme à celles qui ont lieu dans un organisme vivant. L’analogie est faite entre la distribution des perforations sur une carte perforée et celle des acides nucléiques du gène qui peuvent toutes deux être considérées comme de l’information codée (von Foerster, 1952, Introduction à la 18e conférence Macy).

La grosse avancée de l’information en biologie se fait par l’intermédiaire de l’élucidation des processus génétiques. La découverte de Crick et Watson de la composition chimique des chromosomes a ouvert la voie à l’élucidation de l’information génétique qui avait été supposée par les précurseurs que nous avons cités ci-dessus. On a découvert qu’au sein des chromosomes, c’est l’ordre des bases azotées (adénine guanine, thymine, cytosine) qui détermine les gènes. Cet ordre est constitué de triplets successifs, le départ étant marqué par un triplet « start » et la fin par un triplet « stop ». Il est possible de symboliser ces bases par leurs lettres (A,C,G,T) et donc de former un modèle simplifié du chromosome sous forme d’une liste de lettres ordonnées.

D’un point de vue pratique, après analyse chimique, le chercheur se retrouve devant des centaines de pages de symboles pourvus d’un ordonnancement mystérieux, avec à faire un travail équivalent au décryptage d’un code (ce qui été un des moteurs de la recherche en informatique pendant la seconde guerre mondiale). On a appelé cet ordre et ses effets « information », par analogie avec l’informatique. La modélisation donne une liste de lettres qui ressemble à un code. Ce code n’a aucune signification, il est seulement possible de le découper en des séquences correspondant à un gène (la partie du chromosome qui organise la synthèse d’une protéine).

L’information en informatique désigne un ordre abstrait qui peut être concrétisé par un support physique. Ici, on a exactement la même chose, mais inversée : un support qu’on peut modéliser par un ordre abstrait. Autre analogie avec l’informatique,  l’ordonnancement est producteur de quelque chose : en informatique, cet ordonnancement permet de commander une action et ici, l’ordonnancement commande la production des protéines. Il y a quelque chose de commun dans le concept d’information appliqué à deux domaines différents, celui des artefacts et celui de la biologie.

En reprenant la distinction classique entre forme et matière, Antoine Danchin définit l’information comme étant ce qui met en forme la matière. (voir Antoine Danchin : http://www.normalesup.org/~adanchin/). Il semble que l’information, au sens d’un ordonnancement, ne soit pas suffisante pour expliquer l’organisation. C’est une explication valide dans certains cas bien précis, mais probablement pas en général. Jacques Monod qui, ressentant sans doute que tout n'était pas clair du côté des théories physiques de l'information, parlait à propos de ce qu'on leur faisait dire « de généralisations et d'assimilations imprudentes ».

4. L’information dans les sciences humaines

La double assimilation cerveau-machine et pensée-information

L’assimilation du cerveau à une machine et l’assimilation de la pensée à un traitement de l’information a donné la thèse « computationniste ». Après la publication, en 1943, de l’article inaugural de Pitts et McCulloch, les neurones ont été assimilés à des portes électroniques fonctionnant en tout ou rien.

Trois postulats sont avancés :
1/ l’esprit fonctionne de manière logique.
2/ Le cerveau fonctionne comme une machine électronique.
3/ La relation entre les deux est la même que dans l’informatique.

La conclusion est que la logique est implémentée par un calcul exécuté par la machinerie neuronale. L’aboutissement de ces thèses se trouve dans un article de 1949 publié dans la revue  Electrical Engineering, intitulé « The brain as a computing machine ». Il y est explicitement affirmé « le cerveau est une machine logique ». Nous avons là le fondement du computationnisme. Le cerveau serait une machine de traitement de l’information au sens informatique du terme.

Corrélativement, on trouve la proposition d’un nouveau modèle de la connaissance. Toute activité cognitive serait fondée sur un calcul. Comme tout calcul peut être exécuté par une machine, toute connaissance pourrait être programmée sur une machine informatique. Il s’ensuit deux conséquences importantes. La première est que les machines ne font pas que reproduire (mimer) l’activité cognitive. La seconde est que l’analogie entre le cerveau et la machine serait fondée. Toute connaissance serait un « traitement de l’information » qui peut être effectuée indifféremment par une machine biologique ou électronique. C’est la thèse expressément défendue par Herbert Simon.

Pour Herbert Simon, l’intelligence artificielle s’apparente au raisonnement humain parce que, comme le cerveau, un ordinateur combine des symboles et ces symboles sont liés à des formes physiques. On est bien, avec cette conception, au cœur de la théorie de l’information et d’ailleurs Simon proposera le terme d'« information processing paradigm ». Il écrit : « au cœur du paradigme du traitement de l’information repose une hypothèse qu’Allen Newell et moi avons appelée l’hypothèse de symbole physique » (H. Simon 1981, « L’unité des arts et des sciences : la psychologie de la pensée et de la découverte », in Les Introuvables en langue française, p. 4). Ces symboles sont qualifiés de physiques parce qu’ils reposent sur des substrats physiques que ce soit dans les ordinateurs ou dans le cerveau (H. Simon (1969), La science de l’artificiel, Paris, Gallimard, 2004, p. 59).

L’intelligence artificielle peut aussi être une description et une explication de la manière dont les individus pensent :  « aussi primitifs que les programmes de compréhension puissent être, ils fournissent vraiment un ensemble de mécanismes de base, une théorie, pour expliquer comment les êtres humains sont  capables de comprendre les problèmes, à la fois dans les nouveaux domaines auxquels ils ne connaissent rien et dans les domaines sur lesquels ils ont une plus ou moins grande quantité de connaissances sémantiques antérieures » (Simon 1969, p. 179).

Le structuralisme et l’information

Une partie du structuralisme a repris à son compte le postulat d’une combinaison symbolique, mais, au lieu de calcul, on parle de syntaxe langagière. La référence explicite à la théorie de l’information n’est pas faite, mais on sent une forte influence. On en trouve l’amorce en linguistique avec Roman Jackobson et la mise en avant de la phonologie. Il décompose la langue en phonèmes et recherche des invariants relationnels entre eux, ce qui influencera Lévi-Strauss et Lacan.

Pour Claude Lévi-Srauss, la fonction symbolique peut être décrite selon des formes logiques qui  sont les opérations de la logique élémentaire et de la théorie des ensembles. Plusieurs essais de formalisation ont lieu sous forme de permutations de groupe. On trouve également énoncé un système d’opérations qui, schématisé, « se rapprocherait d’une algèbre de Boole ». Il semblerait que les groupes booléens s’appliquent aux mythes.

Dans la psychanalyse, avec Lacan, cela atteindra un point caricatural. L’influence commence à se faire sentir vers les années 1950. En 1954-55, il fait une conférence et deux séminaires sur les machines (cybernétiques et informatiques). Un amalgame est fait entre structure, symbolique, machine et information (Séminaire 1954-55, Paris, Seuil, 1978). Il est fait allusion aux travaux de Shannon, à la transmission téléphonique qui consiste à transmettre par un circuit des aspects matériels du langage. Le sens est détaché de son support (symbole ou signifiant). Le symbolique jouerait indépendamment de l’humain. Il a ses propres structures de type mathématique et elles sont autonomes par rapport aux personnes qui s’y insèrent.  L’inconscient freudien (c’est-à-dire la partie non consciente du psychisme) est déclaré structuré comme un langage, c’est-à-dire « syntaxisable » au travers des relations entre signifiants.

Globalement se dessine le projet de mettre à jour le traitement des formes signifiantes selon une syntaxe qui guiderait les différents aspects de la vie humaine grâce à l’analyse structurale. Jérôme Segal écrit « on peut se demander ce qui a poussé, surtout les philosophes et les divers représentants des sciences humaines, à vouloir utiliser la théorie de l’information dans les cas où la signification de l’information est primordiale ». La réponse qu’il donne est que « le problème posé concerne … le réductionnisme et même, pour certains chercheurs, un certain type de scientisme les amenant à croire que la théorie de l’information peut être la clé de toute la connaissance humaine. Toutefois, … cette attitude réductionniste n’est pas consciente et on peut estimer avoir affaire à un phénomène de mode … » (Le zéro et le un, Paris, Syllepse, 2003, p. 724).

5. Puissance d’un concept et confusion des langues

Dès le début de l’utilisation du terme,  les conditions d’une confusion sont présentes. Sous la plume de Shannon, la transmission dans un canal bruité devient « communication » et l’évaluation statistique du résultat devient « théorie de l’information ». Cet emprunt de termes du langage courant produit une assimilation abusive, assimilation d’autant plus facile que la téléphonie a pour but la transmission d’informations au sens ordinaire.

Tardivement, Shannon s’inquiéta de l’extension inconsidérée d’un outil mathématique pour les ingénieurs en télécommunications, mais il n’a rien fait pour rectifier l’ambiguïté terminologique. D’autre part, il nomma sa fonction « entropie », terme utilisé pour une fonction d’état définie autrement. Cette appellation laisse supposer que sa formule serait reliée à l’entropie définie par Boltzmann. Là encore, une ambiguïté nullement anodine.

L’information apparaît comme une mesure. On peut remarquer que toute mesure donne une idée sur ce qu’elle mesure, toute formule statistique donne une idée sur la répartition d’une distribution d’événements et  mériterait donc le titre d’information. Les développements sur le démon de Maxwell se fondent sur l’idée que celui-ci devrait mesurer les particules concernées. L’information comme mesure de quelque chose rejoint le sens ordinaire, car toute mesure n’a d’intérêt que si elle apporte une information sur le fait concerné. Mais, bien sûr, la mesure demande à être lue et interprétée conceptuellement par un être humain ce qui provoque un changement de registre qui est gommé par l’utilisation du terme d’information.

« L’information [au sens courant] ne peut-elle être mesurée à la manière de Shannon ? On voit là s’esquisser, en filigrane, une théorie très générale de la connaissance qui devrait toucher aussi bien la pédagogie, l’apprentissage, que la fonction mémoriale … », écrit Claude Allègre en 1995. Dans un compte rendu à l’Académie des sciences de novembre 2010, le rapporteur nous dit que l’information rend compte autant d’une conversation, que du code génétique, ou du codage informatique. Il donne l’exemple d’un objet manufacturé (une barque) explicable grâce à l’information ou encore celui de la gestion du personnel dans une entreprise selon la théorie de l’information et de l’image de marque de ladite entreprise.

On arrive avec de tels propos au degré zéro de l’information. Appliquons la formule de Shannon à ce propos (comme il est légitime de le faire au vu de la généralisation proposée) et l’on tombe sur zéro, puisque la probabilité d’une information sur l’information est nulle tant elle est vague et étendue. Tous ces jeux de mots sur l’information lui font perdre son sens scientifique et la transforment en slogan. La théorie de l’information devient idéologie de l’information, discours à finalité sociale. La transformation d’un concept en slogan fait sortir du cadre scientifique pour entrer dans celui de l’idéologie.

L’essence de l’information

Il ressort quelque chose d’important dans la notion d’information. Historiquement, c’est à partir du XVIe siècle, mais surtout au XIXe siècle, qu’on effectue la mise en relation entre des éléments concrets (roue dentée, signal électrique) et des symboles (chiffres, lettres) en notant la possibilité d’une concordance parfaite entre les deux. Au XXe siècle, on comprend que c’est leur mise en ordre qui compte, ainsi que les manques pouvant affecter celle-ci. On a tenté d’énoncer cette mise en ordre et de la chiffrer par des notions mathématiques et plus particulièrement statistiques.

Le centre de la découverte, c’est la puissance de l’ordonnancement. Le point commun aux différentes formes d’information, c’est l’existence d’un code, d’une manière d’ordonner des symboles qui puisse être réalisée concrètement. La réalisation concrète du code implique que les signaux soient distincts et distribués selon un ordre précis. S’il n’est pas respecté, il se passe autre chose, le monde change, car c’est cet ordre qui produit un effet dans le monde (et non la présence des éléments qui le concrétisent). Cet ordre a un rôle de détermination dans le monde, une effectivité.

Par exemple, si des éléments A, B, C, se présentent dans cet ordre, ou dans l’ordre inverse C, B, A, cela produira deux effets différents. Identifier cette caractéristique et pouvoir la manipuler techniquement constitue quelque chose de spécifique et de nouveau dans l’histoire de la pensée. Traditionnellement, lorsque des faits sont identifiés comme causes, on note leur présence ou leur absence. Ici, il n’y a pas un tel rapport causal, car c’est l’ordre (ABC ou CBA) qui joue un rôle.

L’homme a obtenu une puissance technique sans précédent par le codage et le traitement du signal, ce qui permet de construire des machines d’une polyvalence extrême. On peut leur commander d’effectuer les tâches les plus diverses, y compris commander d’autres machines, et même d’avoir une autonomie. En biologie, la manipulation de l’ordre au sein du génome permet des transformations du vivant dont l’extension est immense et les conséquences majeures.

Un abus d’extension

L’énorme progrès théorique apporté par le concept d’information s’est accompagné d’un abus d’extension.

Du côté de la physique, c’est probablement l’exemple de l’énergie qui a poussé à faire de même avec l’information, faisant espérer qu’elle soit une clé du même type, tant pour la compréhension du monde, que pour l’unification de la science. Cette extension a été favorisée par l’appellation d’entropie, donnée à la fois à la mesure de transmission des signaux et de l’évolution des états dans les systèmes physico-chimiques. Du côté biologique et du côté de l’humain, la reprise du même terme a provoqué une confusion. Derrière cette extension de l’information se tient une visée réductionniste plus ou moins consciente : remplacer la pensée par le traitement de l’information. Dans cette optique, l’homme devient une machine émettant des signaux et la communication humaine un échange entre émetteur et récepteur.

Le cerveau serait parcouru par des signaux électriques codés, permettant d’émettre des signaux communicationnels reçus par les organes des sens qui opèrent une transduction vers le cerveau et ainsi de suite. Cette hypothèse qui a une certaine validité à un niveau inférieur (à condition d’être complexifiée), ne doit pas servir à éliminer le niveau de complexité supérieure. Il peut être intéressant de rassembler divers aspects du monde sous une même appellation en montrant ce qu’ils ont en commun. La démarche n’est nullement critiquable en soi, mais elle est parfois infondée. L’information, si l’on s’en tient à son caractère d’ordre, possède déjà une extension considérable et il paraît inutile d’aller au-delà, en mettant de l’information partout.

 

Bibliographie : 

Delahaye Jean-Paul. Théorie et théorie de l'information. Interstices [en ligne]. 2008. https://interstices.info/jcms/c_37274/theories-et-theorie-de-l-information
Segal J., Le zéro et le un, Paris, Syllepse, 2003.
Sendrier N., « Théorie de l’information » : http://sciences.ows.ch/informatique/TheorieInfo.pdf
Simon H., La science de l’artificiel, Paris, Gallimard, 2004.
Rechenmann F., « L’information biologique et son analyse par des méthodes informatiques » :  http://www.ac-grenoble.fr/champo/spip.php?article501

 


© 2015 PHILOSOPHIE, SCIENCE ET SOCIETE
Cette œuvre est mise à disposition selon les termes de la licence  Creative Commons - Attribution - Pas d'utilisation commerciale - Pas de modification.
Submit to FacebookSubmit to Google PlusSubmit to TwitterSubmit to LinkedIn