Actualités philosophiques, scientifiques et sociétales
Une philosophie d’enseignement et d’érudition
- Détails
- Écrit par : Patrick Juignet
Une partie de la philosophie contemporaine consiste à exposer les travaux des auteurs du passé considérés comme importants. C’est la forme majeure de l’enseignement de la philosophie en France. Cette façon de philosopher donne une pensée érudite qui prend la forme d'articles savants, très référencés, montrant les influences des auteurs entre eux, ou bien d'exposés didactiques à usage de étudiants.
Dans ce cadre, la philosophie est l’une des formes de la culture savante qui a pour intérêt de former la pensée, perpétrer le savoir, apporter des outils conceptuels. Ce savoir est indispensable, car personne ne peut prétendre réinventer plusieurs millénaires de réflexion. Cette étude produit un enrichissement intellectuel.
Cette manière de philosopher suscite toutefois une critique : les contradictions se côtoient sans que la validité du savoir soit interrogée et sans qu’un progrès ou une synthèse s’accomplisse. On en reste à la juxtaposition du divers. Chaque auteur est exposé comme s’il détenait la vérité, comme s’il était seul au monde, sans contextualisation épistémique et sans une argumentation critique qui relativise son travail.
Cette philosophie d’enseignement de d’érudition s’édifie selon une reprise discursive organisant un passage continu d'auteur en auteur, ce qui pose un problème important. Ces auteurs appartiennent au passé et sont connus par des textes traduits et retranscrits. Cette philosophie est donc toujours une histoire de la philosophie et devrait en tenir compte, ce qui n’est pas toujours le cas.
Assez souvent, elle néglige les différences de contexte, de langage, les ruptures culturelles et propose un vaste dialogue transhistorique. L’absence de périodisation, qui situerait l’auteur dans son épistémè et dans son époque, avec ce qu'elles ont de spécifiques, mène à des fictions savantes ré-interprétatives vis-à-vis desquelles on peut avoir une réticence.
Une pensée, pour être vraiment ressaisie, doit être restituée au sein des débats qui l’ont fait naître. Une idée prend sens au sein d’un contexte conceptuel et langagier qu’il faut restituer, sauf à l’interpréter faussement et aléatoirement. De plus, les idées ne doivent pas être données telles qu’elles, supposément vraies ou éternelles, sans être évaluées. Toute argumentation peut être considérée par elle-même et critiquée.
Les deux méthodes sont complémentaires. La relativisation au contexte, indispensable pour bien comprendre les idées des auteurs, n'empêche pas de réfléchir à la rationalité et au bien-fondé d'une doctrine. Toutes deux s’opposent à l’exposé intemporel des idées considérées comme des étoiles brillant au firmament des idéalités éternelles.
Évolution de la physique
- Détails
- Écrit par : Patrick Juignet
Une théorie physique, même satisfaisante, n’est pas définitive, car elle n'explique pas tout. Par exemple, la loi de Newton, qui reste valide de nos jours, n'explique pas à elle seule la trajectoire de Mercure (observée expérimentalement). Le problème a été résolu avec l’ajout d’une nouvelle théorie, plus générale, celle de la relativité proposée par Albert Einstein.
La physique des particules cherche à comprendre l'organisation (structures et relations) des composants élémentaires de l'Univers. Développée dans la seconde moitié du XXe siècle, le « modèle standard » est considéré comme valide. Il décrit l’électromagnétisme et les interactions nucléaires faible et forte qui relient toutes les particules subatomiques connues. Le modèle standard divise les particules élémentaires en familles : bosons de jauge, boson de Higgs, quarks et leptons ; et donne les relations entre leurs masses et la force des interactions entre elles (dites « couplages »). Le modèle standard repose sur une vingtaine de paramètres libres, en particulier les masses des constituants (dont celle du boson W), ainsi que les « couplages » entre ces constituants, c’est-à-dire leurs propensions à interagir entre eux. Ce modèle est une construction théorique qui ne donne pas les valeurs de ces paramètres (c’est le travail des expérimentateurs de les mesurer), mais il impose des relations entre elles. De multiples tests ont validé les prédictions.
Depuis la découverte annoncée en 2012 du boson de Higgs au grand collisionneur du CERN, on jugeait le modèle standard arrivé au statut de théorie fiable. Mais un nouveau résultat expérimental concernant la masse du boson W vient d’être annoncé par le laboratoire Fermilab situé près de Chicago. La nouvelle valeur diffère significativement des mesures précédentes ainsi que des prévisions du modèle standard des particules. La particule élémentaire concernée ici, le boson W, fait partie de la famille des « bosons de jauge », les particules qui « transmettent » trois des quatre interactions fondamentales de l'Univers (forces électromagnétiques, forces d'interaction forte et faible). La nouvelle mesure de la masse du boson W, si elle se confirme, devrait faire évoluer la théorie standard.
Cette incessante évolution donne à penser que la science est une connaissance qui cherche à être la plus adéquate possible au réel mais qui, du fait de la complexité de ce dernier, y réussit difficilement et doit sans cesse évoluer.
Un cerveau sans vie en neurobiologie ?
- Détails
- Écrit par : Patrick Juignet
Pour Romain Brette, chercheur à l'Inserm, les neurosciences sont dominées par deux paradigmes centraux.
Selon le premier, le cerveau est une sorte d’ordinateur : les neurones implémentent des algorithmes dont les variables sont représentées par leur activité électrique. Ce point de vue est partagé par le computationnalisme classique comme par le connexionnisme. Le deuxième paradigme est une démarche réductionniste qui envisage le cerveau comme une collection de composants élémentaires dont il s’agit de mesurer précisément les propriétés et l’assemblage, par le biais de mesures systématiques (génome, protéome, connectome, etc.). Ces deux paradigmes ont en commun de faire abstraction du fait que le système nerveux soit un tissu vivant, or c'est le cas sans discussion possible.
La biologie théorique qui s'applique au cerveau en tant qu'organe vivant montre que ces deux paradigmes sont fondés sur des prémisses erronées. Premièrement, il ne peut y avoir dans un organisme vivant de distinction entre matériel (invariant) et logiciel (modifiable), ce qui rend le modèle de l’ordinateur intenable. Deuxièmement, le vivant est une propriété de l’organisation des processus, qui ne peut se prêter à une analyse réductionniste de ses composants. Tant le cerveau-ordinateur que le cerveau-Lego sont incompatibles avec le cerveau considéré comme vivant.
On voit que les paradigmes utilisés neurosciences ne sont pas encore solidement établis.