Architecture, méthodologie et conditions systémiques d'une IA qui simplifie réellement le soin
Avant toute discussion sur la pertinence médicale d’un modèle, la question qui domine l’adoption réelle reste pragmatique : l’outil fait-il gagner du temps ? Le clinicien raisonne en solde net — temps d’apprentissage, d’intégration, d’évaluation de la fiabilité, de coordination collective supplémentaire, moins le temps effectivement gagné. Si ce solde est négatif, l’outil ne sera pas intégré, indépendamment de sa performance statistique. Dans une RCP, si l’IA nécessite plusieurs minutes d’explication supplémentaire, son adoption devient fragile. Le critère d’adoption n’est pas l’AUC : c’est le ratio valeur clinique perçue / friction temporelle induite.
Le DPI devait simplifier : il a déplacé du temps clinique vers la documentation. La prescription informatisée devait réduire les erreurs : sous condition d’interopérabilité. La télémédecine devait fluidifier les parcours : elle a ajouté un circuit parallèle imparfaitement coordonné. À chaque vague technologique, la simplification promise s’est traduite par un transfert de complexité. La persistance de la fiche bristol dans les services hospitaliers n’est ni nostalgique ni technophobe — elle est structurelle. Elle signale que le numérique n’a pas encore atteint un niveau de robustesse, de simplicité et de résilience suffisant pour s’y substituer totalement.
Ce cycle repose sur trois postulats implicites : la complexité hospitalière serait essentiellement informationnelle, l’optimisation algorithmique suffirait à réduire la charge humaine, l’échec d’un outil signifierait que la version suivante sera plus performante. Or le soin hospitalier est un système socio-technique instable. Le défaut méthodologique structurel tient à l’absence d’analyse rigoureuse de l’activité réelle : spécifications élaborées à partir de processus formels, d’organigrammes théoriques, d’entretiens déclaratifs. Le travail réel ne correspond jamais au travail décrit. Les disciplines capables de modéliser cette complexité existent — anthropologie médicale, ergonomie cognitive, shadowing in situ, NASA-TLX, Cognitive Work Analysis — mais restent périphériques en santé. Plus le système devient intelligent, plus l’absence de compréhension fine du travail réel devient coûteuse.
La décision hospitalière n’est pas un acte solitaire posé par un médecin face à un écran. Elle est le produit d’une cognition distribuée : RCP, staffs médicaux, mais aussi échanges de couloir et arbitrages rapides. Dans une RCP oncologique, la décision thérapeutique résulte d’un croisement entre interprétations divergentes d’imagerie, évaluation du rapport bénéfice/risque, contraintes organisationnelles, préférences du patient et expérience implicite des praticiens. Une IA pensée pour assister un acteur isolé produit une recommandation individuelle dans un processus collégial. L’IA ajoute alors une couche de méta-cognition : il ne s’agit plus seulement de décider du traitement, mais de décider du degré de confiance à accorder à la suggestion algorithmique. La question devient : le modèle s’intègre-t-il sans friction dans un espace de décision distribué ?
Déployer de l’IA en production clinique suppose un socle technique mature — DevOps industrialisés, gouvernance des données versionnée, monitoring continu, cybersécurité robuste. Les data centers hospitaliers ne sont généralement pas dimensionnés pour l’IA. La question du lieu d’exécution (hyperscalers vs. infrastructure souveraine) engage la souveraineté des données de santé. L’IA élargit également la surface d’attaque : prompt injection, périmètre de confiance étendu des architectures agentiques, risque de fuite de données induite par la logique même du système. Le paysage éditeur est historiquement fragmenté, avec un lock-in triple (technique, contractuel, organisationnel). Chaque couche IA supplémentaire génère de nouvelles intégrations, de nouveaux flux, de nouveaux points de défaillance. Au regard de l’EU AI Act, les établissements restent responsables de la gouvernance des systèmes à haut risque qu’ils déploient — y compris lorsque l’IA est embarquée dans une solution éditeur.
L’approche adoptée avec TweenMe consiste à encapsuler le modèle de jumeau numérique dans un composant applicatif inséré à un point précis de la chaîne de valeur hospitalière. Cette encapsulation remplit plusieurs fonctions : délimitation claire du périmètre fonctionnel sur une incertitude spécifique, intégration dans la séquence existante (préparation de dossier, staff, RCP, validation thérapeutique) sans créer d’espace parallèle, séparation architecturale stricte du moteur prédictif vis-à-vis des systèmes transactionnels. En tant que système à haut risque au sens de l’EU AI Act, la conformité est intégrée à l’architecture : traçabilité des usages, surveillance post-market, détection d’anomalies, monitoring des dérives. L’IA n’est pas une couche horizontale diffuse. C’est un composant vertical, inséré dans une chaîne de valeur définie.
Même une IA encapsulée et correctement gouvernée reste partielle si l’architecture globale demeure structurée autour de l’épisode aigu. La médecine prédictive suppose une transformation architecturale à l’échelle territoriale : continuité longitudinale des données au-delà des silos, gouvernance populationnelle, intégration ville-hôpital, alignement des mécanismes de financement avec la prévention. Le jumeau numérique devient territorial — il modélise des trajectoires agrégées, des risques populationnels, un ajustement entre demande et offre de soins. L’IA n’est plus un module périphérique inséré dans un DPI : elle devient un composant d’infrastructure. Dans un système inchangé, l’IA tend à amplifier les fragilités existantes. Dans un système réarchitecturé, elle peut devenir un levier d’anticipation et de stabilisation. L’enjeu n’est pas d’ajouter de l’intelligence — l’enjeu est de redessiner le système dans lequel cette intelligence opère.