Pour une éthique des IA faibles à l’ère des décisions sans sujet


L’essor des intelligences artificielles contemporaines confronte la philosophie à des entités techniques dont l’opacité, l’autonomie d’ajustement et l’ancrage social défient ses catégories classiques : liberté, responsabilité, sujet, vérité. Ces systèmes ne sont plus véritablement « programmés » au sens déterministe du terme, mais configurés dans des cadres humains — architectures, données, fonctions d’évaluation — qui orientent leur apprentissage. Produits dans ces cadres, ils deviennent à leur tour producteurs de normes, en influençant comportements, décisions et représentations. Cet article explore cinq points de rupture conceptuelle que cette dynamique impose à la pensée éthique contemporaine.

La non-certifiabilité des intelligences artificielles comme défi éthique

Les systèmes d’intelligence artificielle fondés sur l’apprentissage profond ne sont pas certifiables au sens classique du terme. Contrairement aux logiciels déterministes, dont on peut prouver formellement les comportements attendus à partir d’un cahier des charges, les IA modernes apprennent à partir de données massives et ajustent leurs paramètres internes selon des critères statistiques. Ce processus de formation, non linéaire et opaque, rend leur fonctionnement effectivement imprévisible et non reproductible. Une même requête peut donner lieu à des décisions divergentes selon l’état du modèle, la distribution des données, ou même l’ordre dans lequel les exemples ont été présentés. Cela a des conséquences majeures en termes éthiques. La responsabilité suppose la traçabilité de l’action, la possibilité d’en identifier les motifs, les intentions, les causes. Or, dans un système non certifiable, aucune chaîne de cause claire ne peut être rétablie : ni l’utilisateur, ni le développeur, ni l’entreprise déployant le système ne peuvent expliquer — et encore moins garantir — pourquoi une décision a été prise. La normativité technique entre alors en contradiction avec les exigences fondamentales du droit et de l’éthique moderne.

Plus encore, la non-certifiabilité fragilise l’idée même de confiance. Comme l’a montré Paul Ricœur, la confiance ne repose pas sur une foi aveugle, mais sur une intelligibilité partagée des actions et de leurs raisons (Paul Ricœur, Soi-même comme un autre, Seuil, 1990). Or, les systèmes d’IA n’offrent ni explicabilité pleine, ni cohérence causale, ce qui les rend inassimilables au modèle classique de la décision rationnelle. La difficulté n’est donc pas simplement technique : elle est épistémologique et morale. La non certifiabilité algorithmique ruine les conditions mêmes de la responsabilité et de la confiance, telles que pensées dans la tradition phénoménologique et morale. Elle impose une reconfiguration des critères mêmes selon lesquels une action peut être dite responsable, fiable ou acceptable — sans quoi toute éthique de l’IA risquerait de demeurer un affichage sans objet. C’est là un des enjeux que devraient poursuivre les recherches en matière de AI safety, encore trop peu soutenues aujourd’hui. Le développement, dans l’avenir, d’IA d’une nature différente — potentiellement certifiables — constitue un objectif majeur pour notre civilisation. La AI safety n’est pas seulement un domaine technique, mais un objectif stratégique pour préserver l’autonomie humaine dans un monde algorithmisé .

Peut-on parler de liberté dans les comportements d’une IA ?

Il est devenu courant, dans les discours médiatiques, politiques et parfois même techniques, d’attribuer aux intelligences artificielles un certain degré de « liberté », voire d’autonomie. On parle de systèmes « décisionnels », d’IA « qui choisissent » ou qui « prennent des initiatives ». Ces métaphores, aussi séduisantes qu’elles soient, entretiennent une confusion profonde entre le comportement complexe d’un système et la liberté au sens philosophique. Car parler de liberté implique toujours une possibilité de choix conscient, une réflexivité sur l’action, et une capacité à se rapporter à des fins. Or, rien de tel ne caractérise les IA, aussi avancées soient-elles.

Les systèmes d’IA actuels, même dits « génératifs », ne font que produire des sorties à partir de configurations internes ajustées statistiquement. Mathématiquement, ils ne font que calculer à partir de vecteurs et de matrices, en cherchant à maximiser une fonction d’objectif. Ils ne délibèrent pas, n’intègrent pas de hiérarchie axiologique (Axiologie : vient du grec axios (valeur) et logos (discours, étude). C’est la théorie des valeurs, un champ de la philosophie morale qui analyse ce que nous considérons comme bien, juste, beau, vrai, important, etc.) explicite, et ne s’inscrivent pas dans un horizon d’intelligibilité du monde.

La confusion vient ici de l’usage anthropomorphique du langage. Comme le notait déjà Gilbert Ryle, critiquant le « mythe du fantôme dans la machine », prêter des intentions à un artefact revient à projeter nos catégories mentales sur un mécanisme dont la logique n’est pas mentale, mais computationnelle (Gilbert Ryle, The Concept of Mind, University of Chicago Press, 1949 (chapitre I, p. 15-16 dans la plupart des éditions anglaises). La liberté présuppose un sujet, or une IA n’est ni sujet, ni même acteur au sens fort : elle est un dispositif de transformation fonctionnelle d’entrées en sorties. Cette affirmation vaut tant que l’on parle des IA actuelles, limitées à des architectures spécialisées. L’émergence éventuelle d’intelligences générales (AGI) ou surhumaines (ASI – Artificial Superintelligence) poserait, elle, des questions radicalement nouvelles, qu’il faudra interroger dans un autre cadre conceptuel.

L’enjeu éthique est pourtant majeur : en attribuant aux IA une « liberté » qu’elles n’ont pas, on tend à leur transférer des responsabilités qui devraient rester humaines. Cela produit un double effet : d’un côté, cela diminue la vigilance critique à l’égard des concepteurs, des décideurs et des usages ; de l’autre, cela nourrit une forme de fétichisation de la technique, où l’on attend des machines ce qu’on ne demande plus aux institutions. Revenir à une lecture rigoureuse de ce que signifie « agir librement » — que ce soit comme autonomie rationnelle (Kant), comme imputabilité narrative (Ricœur), ou comme capacité d’inaugurer dans un monde commun (Arendt) — permet de rétablir une distinction nécessaire : une IA peut simuler une décision, mais jamais la vivre. Elle peut varier ses réponses, non se déterminer elle-même comme origine de son acte. 

Penser d’abord l’éthique des IA faibles avant celle des l’AGI

L’essentiel des débats publics et médiatiques sur l’éthique de l’intelligence artificielle se focalise sur un horizon fictif : celui de l’intelligence artificielle générale, voire surhumaine. On y projette les dilemmes de la science-fiction — conscience artificielle, autonomie décisionnelle, domination des humains — au détriment des réalités plus urgentes. Or, une éthique pertinente doit s’ancrer dans ce qui agit effectivement sur le monde. Ce ne sont pas les IA hypothétiques qui modifient déjà nos vies, mais bien les IA faibles : systèmes d’aide à la décision, recommandations, tri algorithmique, automatisation des évaluations.

Ces systèmes n’ont pas besoin d’être conscients pour être puissants, ni intentionnels pour produire des effets massifs sur les trajectoires humaines. Une éthique centrée sur les IA faibles change de registre. Elle ne cherche pas à savoir comment éviter qu’une machine devienne un tyran, mais comment encadrer des processus déjà en place, aux effets souvent invisibles, diffus, systémiques. Elle déplace la focale de l’intelligence vers la distribution des responsabilités : qui déploie ces systèmes ? qui les conçoit ? qui les contrôle ?

Ce déplacement est capital. Il rompt avec l’idée, longtemps dominante en éthique, selon laquelle chaque action devrait être imputable à un sujet moral unique, conscient et autonome — une figure héritée du personnalisme occidental. Face aux IA faibles, l’éthique doit au contraire s’orienter vers une analyse de l’action distribuée, où la responsabilité ne peut plus être centrée sur un seul agent, mais doit être pensée comme le produit des structures techniques, des décisions collectives et des mécanismes de gouvernance.

Dans cette perspective, les modèles techniques eux-mêmes devraient être redéfinis à partir de leur certifiabilité, de leur explicabilité, et de leur capacité à se laisser auditer. Il ne s’agit plus d’imaginer une IA idéale, mais de concevoir des systèmes faibles, mais responsabilisables. Cette approche s’inscrit dans une tradition de l’éthique appliquée qui ne cherche pas à dire ce qu’il faudrait faire dans l’absolu, mais à baliser le champ du faisable dans des conditions réelles. C’est dans cette modestie méthodologique que se trouve, paradoxalement, la tâche la plus exigeante de la pensée éthique face aux machines. 

L’IA et la dissolution du sujet moderne

La pensée moderne a construit le sujet comme fondement : sujet de connaissance chez Descartes, sujet de droit chez Locke, sujet moral autonome chez Kant, sujet historique chez Hegel. Ce sujet est à la fois source de sens, centre de décision et principe d’unité. Or, le développement des intelligences artificielles, particulièrement dans leurs usages massifs et invisibles, agit comme un dissolvant de cette figure : il fragmente, externalise, automatise des fonctions jadis considérées comme constitutives du sujet.

D’un point de vue cognitif, nombre d’opérations que l’on associait à l’intelligence humaine — lire, résumer, raisonner, anticiper — sont désormais partiellement prises en charge par des systèmes statistiques. Mais ces systèmes n’ont ni intériorité, ni identité, ni mémoire subjective. Ils produisent des effets cognitifs sans intention ni compréhension. Cela donne naissance à un paradoxe contemporain : des actions intelligentes sans sujet, des décisions sans délibération, des énoncés sans énonciateur. L’agent devient une fonction opératoire, déterritorialisée et parfois non-identifiable. Avec l’intelligence artificielle, ce n’est plus seulement la mémoire qui est déléguée, mais l’initiative elle-même qui est captée, anticipée, automatisée. Cela oblige à repenser le sujet non plus comme origine absolue, mais comme nœud traversé par des flux techniques digitaux, entre subjectivité humaine, environnement algorithmique et structures sociales.

Il en résulte une difficulté inédite pour l’éthique et le droit : si les actions sont co-produites par des systèmes distribués, sans intention claire, sans agent repérable, à qui imputer l’acte ? Comment penser la délibération, la volonté, la dignité dans un monde où les décisions sont précalculées par des dispositifs sans sujet ? Ce ne sont pas les machines qui deviennent humaines : c’est la notion d’humain, comme sujet autonome, qui vacille. 

L'absence de subjectivité : un défaut ou un atout ?

Si l'absence d'intériorité, d'identité et de mémoire subjective chez les systèmes d'IA semble priver ces derniers de toute forme de véritable autonomie morale, il serait réducteur d'y voir uniquement une faiblesse.  L'expérience humaine, marquée par ses affects, ses biais cognitifs, ses intérêts personnels, est aussi à l'origine de nombreuses erreurs, injustices et décisions irrationnelles. De ce point de vue, le fait qu'une IA n'ait pas de pulsions, de ressentiments ou d'ambitions peut être vu comme une garantie de neutralité statistique. Plusieurs études récentes ont montré que, dans certains diagnostics médicaux, juridiques ou administratifs, les modèles d'IA surpassaient les humains en précision et en équité, précisément parce qu'ils n'étaient pas affectés par les biais émotionnels ou contextuels qui influencent le jugement humain.

Bien sûr, ces avantages restent conditionnés à la qualité des données d'entraînement et à l'architecture des systèmes. Mais dans des environnements bien contrôlés, la froideur computationnelle de l'IA peut permettre une forme d'objectivité inédite, difficile à atteindre pour l'esprit humain. L'éthique des systèmes d'IA ne devrait donc pas se limiter à pointer ce qu'ils n'ont pas (intentionnalité, conscience, réflexivité), mais aussi réfléchir aux conditions dans lesquelles leur « faiblesse ontologique » pourrait devenir une force fonctionnelle — au service d'une société plus équitable, plus rationnelle, et moins tributaire des passions individuelles. 

Biais et pouvoir : l’algorithme comme miroir social 

Les biais des intelligences artificielles sont souvent présentés comme des anomalies à corriger : dérive raciale dans la reconnaissance faciale, inégalités de traitement dans les algorithmes de recrutement ou de justice prédictive, stéréotypes genrés dans les assistants vocaux. Ce traitement suppose que le biais est un défaut technique localisable, pouvant être éliminé par un meilleur codage, des données plus équilibrées ou des procédures d’audit plus rigoureuses.

Or cette approche est réductrice : elle occulte la dimension profondément sociotechnique des biais, c’est-à-dire leur enracinement dans des rapports de pouvoir, des contextes historiques et des structures sociales. Les IA apprennent à partir de données issues du monde tel qu’il est — ou tel qu’il a été. Elles sont donc, par construction, le miroir statistique d’un réel déjà biaisé. Corriger leurs biais implique donc bien plus que des ajustements techniques : cela revient à interroger les normes, les exclusions, les préférences collectives que les données cristallisent. Comme l’ont montré des chercheuses comme Kate Crawford ou Ruha Benjamin, les biais algorithmiques sont souvent des formes automatisées d’injustices préexistantes. Loin d’être des bugs, ils sont la formalisation silencieuse des inégalités structurantes (Kate Crawford, Atlas of AI, Yale University Press, 2021 ; et Ruha Benjamin, Race After Technology, Polity Press, 2019). Toutes deux analysent les biais algorithmiques non comme anomalies techniques, mais comme effets normalisés d’injustices sociales préexistantes, que les systèmes algorithmiques stabilisent sous couvert de neutralité.

Cela oblige à un retournement du regard : le biais n’est pas seulement dans l’algorithme, il est dans les sociétés qui le nourrissent et qu’il reconduit. En ce sens, les biais doivent être pensés 
comme symptômes : symptômes des hiérarchies sociales, des économies d’attention, des écologies de l’information. L’éthique ne peut alors se contenter de normes de neutralité 
formelles ; elle doit intégrer une critique active des conditions de production des données, des modèles de développement, et des intérêts servis par les architectures techniques. Cela signifie que l’éthique de l’IA n’est pas seulement un chantier de philosophie morale ou de régulation : c’est un travail critique sur les infrastructures invisibles du pouvoir contemporain. L’algorithme n’est pas un acteur autonome, mais un opérateur au service de certains régimes de visibilité et d’invisibilité. En ce sens, la lutte contre les biais algorithmiques rejoint les combats pour une justice sociale élargie : rendre visible l’invisible, interroger les évidences, et restituer la part politique du code.

Au-delà de la reproduction de biais existants, les IA participent déjà à la création de nouvelles formes d’inégalités. Les algorithmes de scoring, de recrutement, ou d’orientation scolaire introduisent des critères opaques et dynamiques qui affectent directement les trajectoires professionnelles et éducatives. L’accès à l’emploi, au crédit, ou même à des aides publiques peut être modulé par des évaluations automatisées fondées sur des corrélations statistiques non discutées publiquement. Ces biais ne sont pas hérités du passé : ils émergent de logiques d’optimisation technique qui imposent des normes nouvelles sans délibération collective. En cela, l’IA n’est pas seulement un miroir du monde social : elle devient un acteur discret de sa reconfiguration, en redéfinissant ce qui est « méritant », « solvable » ou « admissible ».

Cette dynamique s’inscrit dans un mécanisme plus large d’accroissement des inégalités, où l’automatisation algorithmique profite d’abord aux groupes disposant de capital technique, économique ou informationnel. Les systèmes d’IA tendent à concentrer les ressources — attention, accès, opportunités — autour des profils déjà favorisés, tout en rendant moins visibles ceux qui s’en éloignent. En automatisant les hiérarchies sociales sous couvert d’efficacité, l’IA risque ainsi de durcir la stratification sociale, en réduisant les marges de mobilité pour les plus vulnérables. Les systèmes d’intelligence artificielle que nous déployons aujourd’hui — malgré leur statut dit « faible » — modifient déjà en profondeur nos catégories éthiques : ils déplacent la responsabilité, dissolvent le sujet, déforment la décision, automatisent les biais. Une éthique pertinente ne peut les penser comme des entités autonomes, mais comme les manifestations techniques de rapports sociaux, politiques et économiques. Cependant, cette réflexion devra être entièrement reconfigurée si des intelligences artificielles générales — voire surhumaines — venaient à émerger.

De telles entités ne se contenteraient pas de transformer nos institutions ou nos interactions, elles redéfiniraient potentiellement notre rapport au savoir, au pouvoir, et à l’humain lui-même. Les conséquences seraient non seulement  systémiques, mais anthropologiques — voire civilisationnelles. C’est pourquoi il est impératif d’engager dès aujourd’hui un effort massif, transversal, et durable en matière de recherche sur la safety, le contrôle et la gouvernance des intelligences artificielles. Ce n’est pas un luxe spéculatif, mais une condition de possibilité pour préserver les principes éthiques et politiques fondamentaux dans les décennies à venir. 

Sinon il sera trop tard.

♦♦♦