Terrain de pensée et d'action

Domaines de travail

Neuf domaines organisés en trois axes — les questions structurelles auxquelles se heurte tout déploiement industriel de l'IA dans un environnement critique et régulé.

Ces neuf domaines ne constituent pas un catalogue de compétences. Ce sont les territoires de questions auxquels se heurte, de façon récurrente et structurelle, tout acteur qui tente de faire passer un système d'IA performant au stade du déploiement industriel durable.

Chaque domaine est traité dans ses connexions aux autres — avec le Framework RAISE comme fil directeur, et les projets actifs (PREDICARE, TweenMe) comme terrain d'application concret.

Axe I

Architecture des systèmes d'IA à l'échelle

D1

Axe I

Ingénierie des données comme infrastructure

D2

Axe I

Cycle de vie et dégradation des systèmes

D3

Axe II

Conformité réglementaire by design

D4

Axe II

Gouvernance algorithmique

D5

Axe II

Souveraineté numérique et géopolitique

D6

Axe III

Évaluation et mesure de la performance

D7

Axe III

Économie de l'IA industrielle

D8

Axe III

Transformation humaine et organisationnelle

D9

Axe I · D1 – D3

Conception & Architecture

Les questions d'architecture sont les premières à devoir être résolues — et les plus coûteuses à corriger après coup. Cet axe couvre la structure interne des systèmes d'IA industriels : comment ils sont construits, comment leurs données sont traitées, comment ils vieillissent.

D1

Conception & Architecture

Architecture des systèmes d'IA à l'échelle

+

Un système d'IA performant dans un environnement de test n'est pas nécessairement un système déployable. L'architecture à l'échelle soulève des questions distinctes de la performance algorithmique : intégration organisationnelle (comment le système s'insère dans des flux de travail et des processus décisionnels existants), observabilité (peut-on voir ce que fait le système en production ?), résilience (comment le système se comporte en cas de défaillance partielle ?) et réversibilité (peut-on revenir en arrière si le système dérive ou génère des décisions inacceptables ?).

Ces questions ne sont pas réductibles à des problèmes techniques — elles engagent des choix d'architecture organisationnelle autant que logicielle. Un système d'IA sans mécanisme de réversibilité n'est pas seulement un risque technique : c'est un risque de gouvernance qui engage la responsabilité des décideurs.

Questions structurelles

  • Le système est-il conçu pour fonctionner dans les conditions réelles de déploiement, pas seulement en test ?
  • Peut-on observer en temps réel ce que le système produit et comment ?
  • Quels sont les mécanismes de dégradation gracieuse et de désactivation ?
  • La supervision humaine est-elle structurelle ou cosmétique ?

Piliers RAISE

S — Safety A — Accountability E — Explainability

Projets associés

D2

Conception & Architecture

Ingénierie des données comme infrastructure

+

Dans la plupart des organisations, les données sont traitées comme une ressource — quelque chose qu'on extrait, qu'on transforme et qu'on consomme. L'ingénierie des données comme infrastructure part d'une position différente : les données sont une infrastructure, au même titre que les réseaux ou les systèmes de stockage. Elles doivent être conçues pour durer, évoluer et être auditées.

Cela implique des exigences de qualité (les données sont-elles fiables à la source ?), de traçabilité (peut-on reconstruire l'origine et les transformations de chaque donnée ?), d'interopérabilité (les données peuvent-elles circuler entre systèmes sans perte de sens ?) et de stabilité dans le temps (les schémas de données évoluent-ils de façon maîtrisée ?).

Dans le contexte de TweenMe, cette question prend une forme concrète et exigeante : comment construire un jumeau numérique fiable à partir de données hétérogènes, à qualité variable, issues de systèmes qui n'ont pas été conçus pour interopérer ? Le module Smart Data Fertilizer répond spécifiquement au cas HDLSS — haute dimensionnalité, faible échantillon.

Questions structurelles

  • Peut-on reconstruire la généalogie d'une décision à partir des données qui l'ont produite ?
  • Les schémas de données sont-ils versionnés et documentés comme du code ?
  • Comment gérer la dégradation silencieuse de la qualité des données en production ?
  • Les données sont-elles interopérables avec les systèmes amont et aval ?

Piliers RAISE

I — Interoperability S — Safety
D3

Conception & Architecture

Cycle de vie et dégradation des systèmes

+

Un système d'IA déployé n'est pas statique. Il dérive. Les données d'entrée évoluent, la distribution réelle s'écarte de la distribution d'entraînement, les comportements des utilisateurs changent, les cadres réglementaires se mettent à jour. La dégradation des modèles est un phénomène inévitable — la question n'est pas de l'empêcher mais de la détecter, mesurer et gérer.

Ce domaine couvre la surveillance opérationnelle continue (model monitoring), les protocoles de revalidation périodique, les déclencheurs de réentraînement et la gouvernance du cycle de vie complet — de la mise en production jusqu'au retrait du système. Dans les environnements réglementés, chaque mise à jour significative d'un modèle peut constituer un changement nécessitant une réévaluation de conformité.

Questions structurelles

  • Comment détecte-t-on qu'un modèle a dérivé avant que ses sorties ne deviennent préjudiciables ?
  • Qui est responsable de la revalidation d'un modèle mis à jour ?
  • Le cycle de vie du système est-il documenté et auditable ?
  • À quel moment un système doit-il être retiré plutôt que mis à jour ?

Piliers RAISE

S — Safety A — Accountability R — Regulatory

Projets associés

Axe II · D4 – D6

Régulation & Gouvernance

La conformité n'est pas une contrainte externe qu'on ajoute après coup — c'est une propriété architecturale. Cet axe traite des conditions sous lesquelles un système d'IA peut être légitimement déployé, maintenu et contrôlé dans un environnement réglementé.

D4

Régulation & Gouvernance

Conformité réglementaire by design

+

La conformité réglementaire traitée comme une phase finale — un audit qu'on passe après avoir construit — génère structurellement des systèmes non conformes ou des coûts de remédiation prohibitifs. La conformité by design part d'un principe inverse : les exigences réglementaires applicables sont lues, comprises et traduites en contraintes de conception dès la phase d'architecture.

L'environnement réglementaire de l'IA est multiple et stratifié : EU AI Act pour les systèmes à haut risque, MDR/IVDR pour les dispositifs médicaux logiciels, RGPD pour les données personnelles, HDS pour l'hébergement des données de santé, NIS2 pour la cybersécurité des infrastructures critiques. Ces textes ne s'excluent pas — ils se superposent et créent des obligations cumulatives que seule une lecture architecturale permet de traiter sans redondance.

Questions structurelles

  • Quels textes réglementaires s'appliquent à ce système — et dans quelle ordre de priorité ?
  • Les exigences de documentation et de traçabilité sont-elles intégrées dès la conception ?
  • Le système est-il conçu pour être auditable, ou simplement pour passer un audit ?
  • Qui, dans l'organisation, est responsable de la veille réglementaire continue ?

Piliers RAISE

R — Regulatory A — Accountability

Projets associés

D5

Régulation & Gouvernance

Gouvernance algorithmique

+

La gouvernance algorithmique désigne l'ensemble des mécanismes par lesquels une organisation exerce un contrôle effectif sur les systèmes d'IA qu'elle déploie. Ce n'est pas une question de politique — c'est une question d'architecture organisationnelle.

Elle couvre trois dimensions interdépendantes : la responsabilité (qui répond des décisions du système ?), l'auditabilité (peut-on reconstruire la chaîne de décision pour chaque sortie du système ?) et le contrôle du risque (existe-t-il des mécanismes effectifs pour interrompre, corriger ou contester les décisions du système ?). La supervision humaine, pour être réelle, doit être structurelle — pas cosmétique.

Questions structurelles

  • Qui est nommément responsable des décisions produites par le système ?
  • Peut-on reconstruire la chaîne de décision pour n'importe quelle sortie du système ?
  • La supervision humaine est-elle effective ou simplement formellement documentée ?
  • Existe-t-il un mécanisme de contestation des décisions algorithmiques ?

Piliers RAISE

A — Accountability E — Explainability

Projets associés

D6

Régulation & Gouvernance

Souveraineté numérique et géopolitique

+

La souveraineté numérique n'est pas une question abstraite de politique industrielle — c'est une contrainte concrète de déploiement. Pour les organisations déployant de l'IA dans des environnements critiques, elle se traduit en décisions d'architecture : où les données sont-elles hébergées ? Sous quelle juridiction ? Qui y a accès, dans quelles conditions et avec quelles garanties contractuelles ?

La dimension géopolitique s'est renforcée avec la multiplication des régimes réglementaires nationaux et régionaux : exigences de localisation française pour les données de santé (HDS), cloud de confiance qualifié SecNumCloud pour les administrations, contraintes ITAR pour certains secteurs de défense. Ces exigences ne sont pas optionnelles — elles conditionnent la légalité même du déploiement. L'IA souveraine n'est pas un luxe patriotique : c'est une condition de déployabilité.

Questions structurelles

  • Les données traitées par le système sont-elles localisées conformément aux exigences souveraines applicables ?
  • Les fournisseurs cloud mobilisés disposent-ils des qualifications requises (HDS, SecNumCloud, ISO 27001) ?
  • Le contrat avec les fournisseurs cloud garantit-il l'absence d'accès extra-territorial ?
  • La stratégie cloud est-elle cohérente avec les évolutions réglementaires prévisibles à 3–5 ans ?

Piliers RAISE

R — Regulatory I — Interoperability

Axe III · D7 – D9

Passage à l'échelle & Viabilité

Un système d'IA viable n'est pas seulement un système qui fonctionne — c'est un système qui peut être évalué, financé et soutenu dans la durée par des organisations et des individus. Cet axe traite des conditions économiques, organisationnelles et humaines du déploiement industriel.

D7

Passage à l'échelle & Viabilité

Évaluation et mesure de la performance

+

Mesurer la performance d'un système d'IA en production est structurellement plus difficile que de mesurer sa performance en test. En test, les métriques sont choisies, les conditions sont contrôlées, les données sont nettoyées. En production, le système opère dans un environnement bruité, avec des données imparfaites, sur des cas que le jeu d'entraînement n'avait pas anticipés.

Ce domaine couvre les métriques d'évaluation adaptées aux environnements critiques — précision clinique, taux de faux positifs à fort enjeu, robustesse sur les sous-populations, équité algorithmique — et les protocoles de validation en conditions réelles. Dans les environnements réglementés, l'évaluation de la performance est aussi une obligation de conformité : les résultats doivent être documentés, reproductibles et publiables.

Questions structurelles

  • Les métriques d'évaluation sont-elles définies par rapport aux objectifs métier réels, pas seulement aux benchmarks algorithmiques ?
  • Comment évalue-t-on les sous-populations pour lesquelles le système performe moins bien ?
  • Les résultats de performance sont-ils reproductibles et documentables pour un audit réglementaire ?
  • Qui définit les seuils de performance acceptables — et sur quelle base ?

Piliers RAISE

S — Safety E — Explainability
D8

Passage à l'échelle & Viabilité

Économie de l'IA industrielle

+

L'IA industrielle a un coût — en énergie, en infrastructure, en temps humain et en capital organisationnel. Ces coûts sont souvent sous-estimés en phase de conception et surestimés en phase de vente, ce qui génère des décisions d'investissement mal calibrées dans les deux sens.

Ce domaine couvre l'économie réelle du déploiement : coût total de possession (TCO), retour sur investissement mesuré sur des indicateurs métier réels (pas des métriques algorithmiques), contraintes énergétiques (les infrastructures de datacenter et les réseaux électriques ne peuvent pas absorber indéfiniment la croissance de la demande computationnelle), et modèles de financement adaptés aux environnements publics et régulés.

Questions structurelles

  • Quel est le coût total réel du déploiement — au-delà du coût de développement initial ?
  • Les contraintes énergétiques de l'infrastructure ont-elles été évaluées à l'échelle prévue ?
  • Le modèle économique est-il viable dans le cadre réglementaire applicable (tarification des actes, financement public, etc.) ?
  • Le ROI est-il mesuré sur des indicateurs métier ou sur des proxies algorithmiques ?

Piliers RAISE

R — Regulatory A — Accountability
D9

Passage à l'échelle & Viabilité

Transformation humaine et organisationnelle

+

Les systèmes d'IA qui échouent en production échouent rarement pour des raisons purement techniques. Ils échouent parce que les organisations qui les déploient n'ont pas été préparées à les absorber — ni structurellement, ni culturellement.

Ce domaine traite de la charge cognitive imposée aux opérateurs (un médecin qui reçoit 50 alertes prédictives par jour n'en traitera effectivement aucune), de la résistance organisationnelle (les systèmes d'IA perturbent les équilibres de pouvoir et les workflows existants), de la formation (les utilisateurs doivent comprendre les limites du système, pas seulement son interface) et de l'acceptabilité sociale des décisions algorithmiques dans des contextes à fort enjeu humain.

Questions structurelles

  • Les utilisateurs finaux ont-ils été associés à la conception — pas seulement à la validation ?
  • La charge cognitive imposée par le système aux opérateurs a-t-elle été mesurée ?
  • Les formations couvrent-elles les limites du système, pas seulement ses fonctionnalités ?
  • Comment l'organisation gère-t-elle les cas où le système et l'expert humain divergent ?

Piliers RAISE

E — Explainability A — Accountability S — Safety

Votre système d'IA est performant.
Est-il déployable ?

Est-il soutenable économiquement ?
Est-il gouvernable dans la durée ?

Si l'une de ces questions reste ouverte,
c'est là que commence le travail.