Voici une analyse critique de l’IA dans une perspective strictement foucaldienne. Elle adopte les outils conceptuels de Michel Foucault (régimes de vérité, pouvoir/savoir, gouvernementalité, biopouvoir, dispositifs, panoptisme) pour analyser la question de la vérité, du pouvoir, de la politique et des risques de l’intelligence artificielle.
La vérité, le pouvoir et la politique à l’ère de l’IA
Une lecture foucaldienne des risques algorithmiques
Dans Surveiller et punir (1975), Michel Foucault montrait que la vérité n’est jamais « libre par nature » : elle est toujours produite à l’intérieur d’un régime de vérité lié à des rapports de pouvoir.
Aujourd’hui, l’intelligence artificielle (IA) constitue le nouveau grand dispositif de production de vérité. Elle ne se contente pas d’« optimiser » le réel : elle le reconfigure en profondeur. Qu’est-ce qu’une « vérité algorithmique » ? Qui détient le pouvoir de dire le vrai dans un monde où les décisions sont prises par des modèles entraînés sur des milliards de données ? Et quels risques politiques cela fait-il peser sur nos sociétés ?
Une lecture foucaldienne permet de répondre sans verser ni dans le techno-enthousiasme ni dans la panique millénariste.
1. Le régime de vérité numérique : de la veridiction discursive à la veridiction algorithmique
Foucault définissait un régime de vérité comme « l’ensemble des règles selon lesquelles on sépare le vrai du faux ». Dans les sociétés modernes, ce régime était encore largement discursif et institutionnel (science, droit, expertise). Avec l’IA, nous entrons dans un régime de vérité algorithmique : la vérité n’est plus ce qui est démontré ou argumenté, mais ce qui est corrélé et prédit à partir de données massives.
Les algorithmes ne « raisonnent » pas ; ils profilent. Ils produisent une vérité a-signifiante (infra-personnelle, statistique, probabiliste) qui n’a plus besoin du sujet parlant.
Comme l’a montré Antoinette Rouvroy, nous assistons moins à l’émergence d’un nouveau régime stable qu’à une crise des régimes de vérité : le droit, la science et la politique traditionnels sont court-circuités par une veridiction qui opère en temps réel, sans débat et sans responsabilité assignable.
La vérité devient une performance prédictive : ce qui est « vrai » est ce qui maximise l’engagement, la conversion ou la conformité comportementale.
2. Le pouvoir : vers une gouvernementalité algorithmique
Foucault a décrit trois grandes formes de pouvoir : la souveraineté (faire mourir ou laisser vivre), la discipline (dressage des corps) et la biopolitique (gestion des populations).
L’IA ne remplace pas ces formes ; elle les intensifie et les hybridise dans ce que Rouvroy et Berns ont nommé la gouvernementalité algorithmique.
Ici, le pouvoir ne passe plus principalement par la loi ni par la norme disciplinaire, mais par l’anticipation et la configuration des possibles. Les algorithmes ne punissent pas : ils orientent les conduites en modifiant l’environnement (réseaux sociaux, publicités ciblées, scores de crédit social, recommandations). Le sujet n’est plus un citoyen ou un corps docile, mais un profil – une série de données corrélées dont on optimise les trajectoires.
C’est un pouvoir désincarné et pourtant hyper-efficace : l’État (ou les plateformes) n’a plus besoin d’être visible. Il suffit que l’algorithme sache mieux que nous ce que nous allons faire.
Le panoptique de Bentham/Foucault devient post-panoptique : on n’est plus regardé par un gardien central, mais par un système qui prédit notre comportement avant même que nous l’ayons.
3. La politique de l’IA : biopouvoir 2.0 et capitalisme de surveillance
L’IA marque le passage du biopouvoir classique (gestion de la vie biologique) à un infopouvoir ou un biopouvoir numérique. Les corps et les populations ne sont plus seulement « mis au travail » ; ils sont transformés en données productrices de valeur. Shoshana Zuboff a parlé de « capitalisme de surveillance » ; Foucault nous permet d’aller plus loin : il s’agit d’une nouvelle articulation du savoir et du pouvoir. Les GAFAM et les États (Chine avec le crédit social, États-Unis avec la surveillance prédictive) utilisent l’IA pour produire une vérité qui gouverne sans gouverner directement.
La politique devient algorithmique : les décisions publiques (allocation de ressources, police prédictive, éducation personnalisée) sont prises sur la base de corrélations dont la logique échappe aux élus comme aux citoyens. Le risque politique majeur est la dépolitisation : là où Foucault voyait dans la critique une pratique de liberté, l’IA propose une gestion technique des problèmes. Le conflit, le débat, l’incertitude – tout ce qui fait la politique – sont remplacés par l’optimisation.
4. Les risques foucaldiens de l’IA
Quatre risques majeurs se dessinent :
- Normalisation totale : l’IA généralise la norme sans passer par l’institution. Elle crée une société où chacun se conforme spontanément à son propre profil (« tu as aimé ça, donc tu aimeras ça »). C’est la fin du sujet comme lieu possible de résistance.
- Crise de la subjectivation : Foucault insistait sur les « techniques de soi ». L’IA propose une subjectivation hétéronome : nous devenons les sujets de nos données. Le « connais-toi toi-même » devient « laisse l’algorithme te connaître ».
- Pouvoir sans visage : comme l’écrit L.A. Bahin (2025), l’IA incarne un « pouvoir désincarné de l’État ». Difficile de s’opposer à ce qui n’a ni corps ni nom.
- Exclusion de l’incertitude : la gouvernementalité algorithmique déteste l’imprévisible. Elle marginalise tout ce qui échappe à la corrélation (créativité radicale, dissidence, singularité). C’est une nouvelle forme de « société de contrôle » (Deleuze) poussée à l’extrême.
Conclusion : quelle résistance foucaldienne ?
Foucault n’était pas pessimiste. Il rappelait que là où il y a du pouvoir, il y a de la résistance.
Face à la gouvernementalité algorithmique, la critique ne peut plus être seulement philosophique : elle doit être pratique et technique. Il s’agit de réintroduire de l’incertitude, de la singularité et du débat là où l’algorithme veut tout lisser. Des pratiques de « désobéissance algorithmique », de chiffrement, de refus du profilage ou de « désertion du monde technique » (comme l’évoquent certains penseurs contemporains) pourraient constituer une forme moderne de parrêsia (le courage de dire vrai face au pouvoir). L’IA ne signe pas la fin de la politique. Elle en révèle, avec une clarté inédite, l’enjeu éternel : qui a le droit de dire ce qui est vrai, et au nom de quoi ?
Références principales (Foucault et prolongements)
- Foucault, Surveiller et punir (1975) et Naissance de la biopolitique (1978-1979).
- Rouvroy & Berns, « Gouvernementalité algorithmique » (2013 et suiv.).
- Analyses contemporaines : Bahin (2025), Rouvroy (2023), études sur le post-panoptisme et le biopouvoir numérique (2025-2026).