De la composition algorithmique à l'agent industriel : pourquoi l'IA agentique des environnements régulés ne commence pas par un LLM
Le discours dominant sur l’IA agentique repose sur une assimilation implicite : un agent serait un grand modèle de langage enrichi par des outils, de la mémoire conversationnelle et des mécanismes d’orchestration. Cette représentation est opératoire pour de nombreux cas d’usage conversationnels ou orientés productivité. Elle devient insuffisante dès lors que l’on considère des environnements régulés caractérisés par des données tabulaires structurées, des dynamiques temporelles, des exigences de calibration probabiliste, des contraintes de traçabilité et des obligations de reproductibilité.
Cet article, qui fait suite à « L’architecture événementielle comme complément essentiel de l’IA agentique » (Twingital Institute, 2026), défend une thèse circonscrite mais ferme : dans les contextes industriels ou cliniques à forte intensité décisionnelle, l’agentique viable ne peut généralement pas être fondée sur un LLM comme noyau computationnel unique.
L’article distingue quatre niveaux analytiques : le composant algorithmique spécialisé (CT-GAN, Fine & Gray, XGBoost, GNN, LLM), l’agent spécialisé (composant encapsulé dans une capacité d’action située), le système agentique composite (ensemble coordonné d’agents hétérogènes couplés à une mémoire partagée), et le jumeau numérique (classe particulière de système composite maintenant une représentation opérationnelle d’un référent réel). Cette taxonomie dépsychologise la notion d’agent : ce qui importe n’est pas une apparence de conversation, mais une fonction située dans un système de transitions, d’états et de dépendances.
L’assimilation entre agent et LLM n’est pas le résultat d’une démonstration théorique. Elle tient à trois facteurs convergents : un choc cognitif légitime devant la généralité fonctionnelle apparente des LLM, une facilité de prototypage qui a privilégié le time-to-demo au détriment de la maturité architecturale, et une réinterprétation de l’agent à travers le paradigme du chatbot qui a survalorisé la cohérence discursive comme critère d’intelligence opératoire. La confusion entre la capacité à parler d’un domaine et la capacité à calculer dans un domaine constitue l’un des ressorts principaux de ce biais.
Quatre limites sont identifiées : la génération tabulaire fidèle aux distributions réelles exige des mécanismes spécialisés (CT-GAN, TVAE, copules gaussiennes) distincts des modèles de langage ; la prédiction supervisée sur données cliniques repose sur des familles de modèles dont la supériorité sur les tâches tabulaires typiques est documentée ; la calibration et l’utilisabilité réglementaire exigent des sorties mesurables (calibration, discrimination, robustesse, reproductibilité) et non la fluidité discursive ; la traçabilité et la gouvernance des transformations déplacent le centre de gravité vers la composition algorithmique, la mémoire de domaine et l’orchestration.
L’architecture proposée repose sur trois éléments indissociables. Un essaim d’agents spécialisés hétérogènes — agents générateurs (CT-GAN, TVAE), agents prédictifs (gradient boosting, modèles de survie), agents de deep learning spécialisé (GNN en toxicologie moléculaire), et un agent d’interprétation fondé sur un LLM. Une mémoire de domaine persistante, stratifiée et versionnée, irréductible au contexte conversationnel d’un LLM. Une orchestration événementielle (EDA) assurant la logique de circulation des états, des déclencheurs et des décisions.
Le concept d’asymétrie de persistance fonctionnelle désigne la différence de durée de vie opérationnelle entre couches d’un lakehouse Medallion dans les jumeaux numériques en ingestion continue. Le Bronze (signaux bruts) fonctionne comme mémoire de travail, le Silver (états consolidés) comme mémoire épisodique opérationnelle, le Gold (cohortes validées, modèles versionnés) comme mémoire sémantique de domaine au sens de Tulving. Cette lecture est une homologie fonctionnelle, pas une identité ontologique — les humains aiment confondre analogie et preuve, puis s’étonnent de fabriquer des métaphores qui mordent.
TweenMe illustre la composition algorithmique comme plateforme de génération de jumeaux numériques. Le programme PREDICARE/Sentinelle IA matérialise l’architecture composite à l’échelle d’un territoire de santé. Ces terrains sont mobilisés comme instances de mise en œuvre et non comme preuves générales autosuffisantes.
La thèse ne vaut pas pour tous les agents. L’opposition LLM/modèles spécialisés ne doit pas être absolutisée. L’asymétrie de persistance fonctionnelle mérite approfondissement théorique et empirique. La lecture inspirée de Tulving ne vaut pas comme importation naïve de la psychologie cognitive. Les cadres normatifs ne prescrivent pas mécaniquement une architecture. Enfin, le champ évolue rapidement — mais même si le centre de gravité computationnel de certains sous-systèmes devait évoluer, la nécessité d’une mémoire de domaine persistante et d’une orchestration événementielle demeurerait.
Dans les environnements régulés à forte composante tabulaire, temporelle et décisionnelle, l’agentique utile ne se réduit pas à l’orchestration d’un modèle de langage. Elle tend à prendre la forme d’une architecture composite articulant calcul spécialisé, mémoire de domaine persistante et coordination événementielle. L’agent n’est pas un interlocuteur rendu autonome. C’est un système de calcul, de mémoire et d’action. Un tel système ne se télécharge pas. Il se compose.