Terrain de pensée et d'action
Neuf domaines organisés en trois axes — les questions structurelles auxquelles se heurte tout déploiement industriel de l'IA dans un environnement critique et régulé.
Ces neuf domaines ne constituent pas un catalogue de compétences. Ce sont les territoires de questions auxquels se heurte, de façon récurrente et structurelle, tout acteur qui tente de faire passer un système d'IA performant au stade du déploiement industriel durable.
Chaque domaine est traité dans ses connexions aux autres — avec le Framework RAISE comme fil directeur, et les projets actifs (PREDICARE, TweenMe) comme terrain d'application concret.
Axe I
Architecture des systèmes d'IA à l'échelle
D1
Axe I
Ingénierie des données comme infrastructure
D2
Axe I
Cycle de vie et dégradation des systèmes
D3
Axe II
Conformité réglementaire by design
D4
Axe II
Gouvernance algorithmique
D5
Axe II
Souveraineté numérique et géopolitique
D6
Axe III
Évaluation et mesure de la performance
D7
Axe III
Économie de l'IA industrielle
D8
Axe III
Transformation humaine et organisationnelle
D9
Axe I · D1 – D3
Les questions d'architecture sont les premières à devoir être résolues — et les plus coûteuses à corriger après coup. Cet axe couvre la structure interne des systèmes d'IA industriels : comment ils sont construits, comment leurs données sont traitées, comment ils vieillissent.
Conception & Architecture
Architecture des systèmes d'IA à l'échelle
Un système d'IA performant dans un environnement de test n'est pas nécessairement un système déployable. L'architecture à l'échelle soulève des questions distinctes de la performance algorithmique : intégration organisationnelle (comment le système s'insère dans des flux de travail et des processus décisionnels existants), observabilité (peut-on voir ce que fait le système en production ?), résilience (comment le système se comporte en cas de défaillance partielle ?) et réversibilité (peut-on revenir en arrière si le système dérive ou génère des décisions inacceptables ?).
Ces questions ne sont pas réductibles à des problèmes techniques — elles engagent des choix d'architecture organisationnelle autant que logicielle. Un système d'IA sans mécanisme de réversibilité n'est pas seulement un risque technique : c'est un risque de gouvernance qui engage la responsabilité des décideurs.
Questions structurelles
Piliers RAISE
Projets associés
Conception & Architecture
Ingénierie des données comme infrastructure
Dans la plupart des organisations, les données sont traitées comme une ressource — quelque chose qu'on extrait, qu'on transforme et qu'on consomme. L'ingénierie des données comme infrastructure part d'une position différente : les données sont une infrastructure, au même titre que les réseaux ou les systèmes de stockage. Elles doivent être conçues pour durer, évoluer et être auditées.
Cela implique des exigences de qualité (les données sont-elles fiables à la source ?), de traçabilité (peut-on reconstruire l'origine et les transformations de chaque donnée ?), d'interopérabilité (les données peuvent-elles circuler entre systèmes sans perte de sens ?) et de stabilité dans le temps (les schémas de données évoluent-ils de façon maîtrisée ?).
Dans le contexte de TweenMe, cette question prend une forme concrète et exigeante : comment construire un jumeau numérique fiable à partir de données hétérogènes, à qualité variable, issues de systèmes qui n'ont pas été conçus pour interopérer ? Le module Smart Data Fertilizer répond spécifiquement au cas HDLSS — haute dimensionnalité, faible échantillon.
Questions structurelles
Piliers RAISE
Projets associés
Conception & Architecture
Cycle de vie et dégradation des systèmes
Un système d'IA déployé n'est pas statique. Il dérive. Les données d'entrée évoluent, la distribution réelle s'écarte de la distribution d'entraînement, les comportements des utilisateurs changent, les cadres réglementaires se mettent à jour. La dégradation des modèles est un phénomène inévitable — la question n'est pas de l'empêcher mais de la détecter, mesurer et gérer.
Ce domaine couvre la surveillance opérationnelle continue (model monitoring), les protocoles de revalidation périodique, les déclencheurs de réentraînement et la gouvernance du cycle de vie complet — de la mise en production jusqu'au retrait du système. Dans les environnements réglementés, chaque mise à jour significative d'un modèle peut constituer un changement nécessitant une réévaluation de conformité.
Questions structurelles
Piliers RAISE
Projets associés
Axe II · D4 – D6
La conformité n'est pas une contrainte externe qu'on ajoute après coup — c'est une propriété architecturale. Cet axe traite des conditions sous lesquelles un système d'IA peut être légitimement déployé, maintenu et contrôlé dans un environnement réglementé.
Régulation & Gouvernance
Conformité réglementaire by design
La conformité réglementaire traitée comme une phase finale — un audit qu'on passe après avoir construit — génère structurellement des systèmes non conformes ou des coûts de remédiation prohibitifs. La conformité by design part d'un principe inverse : les exigences réglementaires applicables sont lues, comprises et traduites en contraintes de conception dès la phase d'architecture.
L'environnement réglementaire de l'IA est multiple et stratifié : EU AI Act pour les systèmes à haut risque, MDR/IVDR pour les dispositifs médicaux logiciels, RGPD pour les données personnelles, HDS pour l'hébergement des données de santé, NIS2 pour la cybersécurité des infrastructures critiques. Ces textes ne s'excluent pas — ils se superposent et créent des obligations cumulatives que seule une lecture architecturale permet de traiter sans redondance.
Questions structurelles
Piliers RAISE
Projets associés
Régulation & Gouvernance
Gouvernance algorithmique
La gouvernance algorithmique désigne l'ensemble des mécanismes par lesquels une organisation exerce un contrôle effectif sur les systèmes d'IA qu'elle déploie. Ce n'est pas une question de politique — c'est une question d'architecture organisationnelle.
Elle couvre trois dimensions interdépendantes : la responsabilité (qui répond des décisions du système ?), l'auditabilité (peut-on reconstruire la chaîne de décision pour chaque sortie du système ?) et le contrôle du risque (existe-t-il des mécanismes effectifs pour interrompre, corriger ou contester les décisions du système ?). La supervision humaine, pour être réelle, doit être structurelle — pas cosmétique.
Questions structurelles
Piliers RAISE
Projets associés
Régulation & Gouvernance
Souveraineté numérique et géopolitique
La souveraineté numérique n'est pas une question abstraite de politique industrielle — c'est une contrainte concrète de déploiement. Pour les organisations déployant de l'IA dans des environnements critiques, elle se traduit en décisions d'architecture : où les données sont-elles hébergées ? Sous quelle juridiction ? Qui y a accès, dans quelles conditions et avec quelles garanties contractuelles ?
La dimension géopolitique s'est renforcée avec la multiplication des régimes réglementaires nationaux et régionaux : exigences de localisation française pour les données de santé (HDS), cloud de confiance qualifié SecNumCloud pour les administrations, contraintes ITAR pour certains secteurs de défense. Ces exigences ne sont pas optionnelles — elles conditionnent la légalité même du déploiement. L'IA souveraine n'est pas un luxe patriotique : c'est une condition de déployabilité.
Questions structurelles
Piliers RAISE
Publications associées
Axe III · D7 – D9
Un système d'IA viable n'est pas seulement un système qui fonctionne — c'est un système qui peut être évalué, financé et soutenu dans la durée par des organisations et des individus. Cet axe traite des conditions économiques, organisationnelles et humaines du déploiement industriel.
Passage à l'échelle & Viabilité
Évaluation et mesure de la performance
Mesurer la performance d'un système d'IA en production est structurellement plus difficile que de mesurer sa performance en test. En test, les métriques sont choisies, les conditions sont contrôlées, les données sont nettoyées. En production, le système opère dans un environnement bruité, avec des données imparfaites, sur des cas que le jeu d'entraînement n'avait pas anticipés.
Ce domaine couvre les métriques d'évaluation adaptées aux environnements critiques — précision clinique, taux de faux positifs à fort enjeu, robustesse sur les sous-populations, équité algorithmique — et les protocoles de validation en conditions réelles. Dans les environnements réglementés, l'évaluation de la performance est aussi une obligation de conformité : les résultats doivent être documentés, reproductibles et publiables.
Questions structurelles
Piliers RAISE
Projets associés
Passage à l'échelle & Viabilité
Économie de l'IA industrielle
L'IA industrielle a un coût — en énergie, en infrastructure, en temps humain et en capital organisationnel. Ces coûts sont souvent sous-estimés en phase de conception et surestimés en phase de vente, ce qui génère des décisions d'investissement mal calibrées dans les deux sens.
Ce domaine couvre l'économie réelle du déploiement : coût total de possession (TCO), retour sur investissement mesuré sur des indicateurs métier réels (pas des métriques algorithmiques), contraintes énergétiques (les infrastructures de datacenter et les réseaux électriques ne peuvent pas absorber indéfiniment la croissance de la demande computationnelle), et modèles de financement adaptés aux environnements publics et régulés.
Questions structurelles
Piliers RAISE
Publications associées
Passage à l'échelle & Viabilité
Transformation humaine et organisationnelle
Les systèmes d'IA qui échouent en production échouent rarement pour des raisons purement techniques. Ils échouent parce que les organisations qui les déploient n'ont pas été préparées à les absorber — ni structurellement, ni culturellement.
Ce domaine traite de la charge cognitive imposée aux opérateurs (un médecin qui reçoit 50 alertes prédictives par jour n'en traitera effectivement aucune), de la résistance organisationnelle (les systèmes d'IA perturbent les équilibres de pouvoir et les workflows existants), de la formation (les utilisateurs doivent comprendre les limites du système, pas seulement son interface) et de l'acceptabilité sociale des décisions algorithmiques dans des contextes à fort enjeu humain.
Questions structurelles
Piliers RAISE
Projets associés
Est-il soutenable économiquement ?
Est-il gouvernable dans la durée ?
Si l'une de ces questions reste ouverte,
c'est là que commence le travail.