Action-space, autonomie, réversibilité et régimes de décision : pour une architecture de gouvernance exogène des systèmes d'IA agentique
Le problème central de l’IA agentique n’est pas que les agents deviennent plus capables. C’est qu’ils deviennent actionnables avant d’être gouvernables. Un système agentique au sens fort ne se contente pas de produire du texte ou une classification : il sélectionne des outils, enchaîne des opérations, révise son plan et agit parfois sur des environnements extérieurs. Le problème ne réside donc pas dans la qualité de la sortie, mais dans le régime de décision introduit par l’architecture.
Le déplacement est décisif. Le système n’exécute plus un chemin prédéfini ; il explore un espace de décision. Ce n’est pas une nuance terminologique — c’est un changement de régime. Et les progrès récents de capacité ne se confondent pas avec des gains équivalents de fiabilité : les travaux de Rabanser et al. documentent un écart empirique entre capacité et fiabilité sur les dimensions les plus pertinentes en contexte opérationnel.
La thèse d’une gouvernance exogène forte prend au sérieux sa meilleure objection : les modèles progressent, l’alignement s’améliore, les sorties se structurent mieux. Trois raisons conduisent néanmoins à répondre négativement. La distinction entre capacité et consistance montre que le scaling ne produit pas mécaniquement la gouvernabilité. Les risques systémiques (cascades d’erreurs, interactions imprévues, contournement d’oversight) ne résident pas dans le modèle isolé. Et les cadres institutionnels émergents ne parient sur aucune autosuffisance comportementale future des modèles.
Les progrès endogènes réduisent le coût de la gouvernance ; ils ne la remplacent pas. La relation correcte est une hiérarchie : la gouvernabilité doit être garantie par l’architecture, même si elle peut être facilitée par les progrès internes des composants.
L’apport conceptuel principal est de déplacer l’évaluation du risque vers la combinaison de trois propriétés opérationnelles. L’action-space désigne le périmètre concret de ce que l’agent peut atteindre. L’autonomie est le degré de latitude laissé au système pour agir sans validation préalable — une propriété configurée, non une essence. La réversibilité qualifie le caractère annulable de l’action.
Ces trois variables fondent trois régimes de décision. L’assistance, où l’agent produit un artefact interprétable sans exécuter — le risque majeur est la passivité cognitive de l’utilisateur. La recommandation structurée, où l’agent pré-remplit un artefact décisionnel relié à des sources — le risque majeur est le biais d’automatisation. L’exécution bornée, où l’agent agit dans un périmètre fermé sous invariants vérifiables — le risque majeur est la dérive silencieuse.
Ces régimes ne sont pas des niveaux de maturité mais des modes architecturaux distincts. Deux modulateurs les complètent : la criticité du domaine et l’asymétrie d’erreur.
L’analogie la plus féconde vient de l’ingénierie logicielle distribuée : un environnement technique ne présume pas la vertu de ses composants — il institue des mécanismes de contrôle d’admission. Le contrat de décision, dérivé du design-by-contract de Bertrand Meyer, transpose préconditions, postconditions et invariants vers la gouvernance décisionnelle.
L’intérêt est triple. Il dissocie fiabilité et gouvernabilité : un agent imparfait reste gouverné si le système filtre ce qui est admissible à devenir action. Il rend les politiques explicites, versionnées et auditables. Il transforme la trace en chaîne d’admissibilité reconstituable.
Ce pattern relève encore d’une proposition architecturale, pas d’un standard industriel stabilisé. Mais des expérimentations de petite échelle montrent qu’il est implémentable. Le surcoût n’est pas un accident — il est le prix de la gouvernabilité.
Quatre cadres émergent avec des logiques distinctes. Singapour (IMDA) propose une soft law structurante autour de variables opérationnelles adaptées à l’agentique. Le NIST travaille sur l’infrastructure normative d’interopérabilité et de confiance technique. L’Union européenne introduit un régime juridique contraignant fondé sur les catégories de risque — l’agenticité n’est pas un critère juridique autonome de qualification, ce qui renforce la thèse. Le Royaume-Uni (CMA) rappelle que l’agent ne crée pas de zone de non-droit.
Aucun acteur institutionnel sérieux ne traite la gouvernance agentique comme une simple question de qualité interne des modèles. Tous la traitent comme un problème de système.
Six limites authentiques sont explicitées : l’absence de données longitudinales scaling/fiabilité, l’insuffisance de cas industriels documentés, le coût réel de la gouvernance architecturale, le domaine de validité borné aux systèmes enterprise contemporains, l’asymétrie géographique des sources, et la fragilité récursive de la gouvernance elle-même — « qui gouverne la gouvernance ? ».
Quatre questions de recherche en découlent : la réduction empirique de l’écart capacité/fiabilité inter-générationnel, la transposabilité des patterns d’admission au domaine stochastique, le seuil de rationalité économique de la gouvernance exogène, et la gouvernance d’ensembles multi-agents à comportement émergent.
La confiance n’est pas une propriété héroïque du modèle. Elle est une propriété construite du système. Dans les systèmes à haut risque, certaines classes de décision demeurent structurellement indisponibles à l’autonomie pleine. Le goulot humain n’est pas un défaut transitoire — il constitue une garantie institutionnelle.
Un agent n’est pas gouverné parce qu’il est meilleur. Il est gouverné parce qu’un système lui interdit d’agir hors d’un régime décisionnel explicitement autorisé.