Quand l’IA devient le symptôme, et non la cause
Un article récent relatant les dysfonctionnements internes d’un cabinet ministériel s’achève sur une phrase apparemment secondaire : certaines informations relayées au plus haut niveau provenaient de réponses « glanées sur ChatGPT ».
Tout est là.
Il serait tentant — et politiquement confortable — de s’arrêter à ce point précis pour y voir la cause du problème. L’IA serait alors l’élément fautif : outil imprécis, dangereux, trop rapide, trop peu fiable. Un responsable idéal, parce qu’il n’est ni humain, ni électeur, ni syndiqué.
Mais ce serait une erreur d’analyse.
Dans ce cas précis, comme dans beaucoup d’autres à venir, l’IA n’est pas la source du dysfonctionnement. Elle en est le révélateur.
L’article décrit un contexte très précis : surcharge chronique, sous-effectif, épuisement des équipes, turn-over, décisions prises dans l’urgence, absence de temps pour l’instruction des dossiers, injonctions contradictoires, perte de confiance interne. Autrement dit : l’effondrement progressif des conditions humaines de la décision.
Lorsque ces conditions disparaissent — temps, expertise disponible, confrontation des points de vue, maturation — la décision ne disparaît pas pour autant. Elle doit quand même être prise. Elle est simplement déplacée.
Dans ce déplacement, l’IA intervient non comme choix stratégique, mais comme béquille cognitive. Elle permet de produire une réponse quand il n’est plus possible d’en élaborer une. Elle comble un vide organisationnel sans jamais le signaler comme tel. Elle donne l’illusion que la chaîne décisionnelle tient encore, alors que ses maillons humains sont déjà rompus.
C’est là que réside le danger réel.
Non pas dans l’usage de l’IA, mais dans son usage non reconnu, non encadré, non assumé, intégré de facto dans la chaîne de décision sans statut clair, sans périmètre, sans responsabilité explicite. L’IA ne décide pas, mais elle alimente une décision qui, ensuite, est signée, portée, défendue — ou désavouée — par des humains qui n’en maîtrisent plus pleinement la genèse.
Dans ce contexte, accuser l’IA revient à ouvrir un parapluie.
C’est déplacer la focale au moment même où elle devrait se resserrer.
Car le phénomène dépasse largement ce cas particulier. Toute la classe politique est aujourd’hui prise à revers par l’accélération de l’IA. Les institutions, construites pour un monde plus lent, plus séquentiel, plus hiérarchisé, se retrouvent confrontées à des outils qui compressent le temps sans restaurer les conditions de la réflexion. L’exécutif, par nature exposé, en subit le choc frontal. L’opposition, elle, tire avantage de ce déséquilibre : chaque approximation devient une faute, chaque flottement une arme rhétorique.
Le risque est alors double.
Soit l’IA est désignée comme bouc émissaire, et l’on passe à côté du problème structurel : la dégradation des conditions humaines de la décision publique.
Soit elle est intégrée de plus en plus profondément, sans cadre, sans lenteur, sans traçabilité, jusqu’à ce que plus personne ne sache exactement où s’arrête l’assistance et où commence la responsabilité.
La leçon à tirer n’est donc pas technologique.
Elle est politique et organisationnelle.
L’IA n’entre pas dans la décision publique par stratégie.
Elle y entre lorsque les conditions humaines de la décision se sont effondrées.
Tant que cette réalité ne sera pas reconnue, on continuera à traiter les symptômes, à multiplier les discours de prudence ou d’interdiction, sans jamais restaurer ce qui seul permet une décision digne de ce nom : du temps, de la confiance, de la confrontation, et la capacité assumée de répondre de ce que l’on signe.
