Doctrine & prises de position

Positions

Des questions ouvertes auxquelles l'industrie répond trop vite, avec des certitudes non examinées. Ce que le Twingital Institute en pense — et pourquoi.

Une position n'est pas un article de blog. C'est un argument construit sur une question structurelle — une question qui engage des choix d'architecture, de politique industrielle ou de gouvernance, et sur laquelle des positions opposées ont des conséquences concrètes.

Ces positions reflètent la doctrine du Twingital Institute. Elles sont mises à jour quand les faits le justifient. Elles sont citables et débattables.

Note éditoriale — Les positions marquées « En préparation » font l'objet d'articles en cours de rédaction dans la section Publications. Elles sont énoncées ici dans leur forme thétique, avant développement complet.

Position P2 · Souveraineté

La souveraineté numérique n'est pas une option politique. C'est une condition de déployabilité.

« Pour l'IA déployée dans des environnements critiques français et européens, la localisation des données et des modèles n'est pas négociable — ni d'un point de vue réglementaire, ni d'un point de vue de continuité opérationnelle. »

Le débat sur la souveraineté numérique est souvent traité comme un débat politique (protectionnisme vs. ouverture) ou comme un débat de performance (cloud hyperscaler vs. cloud souverain moins efficace). Ces deux cadrages ratent l'essentiel.

Pour les organisations déployant de l'IA dans des environnements soumis au HDS, au RGPD, à NIS2 ou à l'EU AI Act, le choix du fournisseur cloud est un choix de conformité avant d'être un choix de performance. Un système d'IA clinique hébergé sur une infrastructure non qualifiée n'est pas sous-optimal : il est illégal.

La dimension géopolitique ajoute une couche supplémentaire : les clauses d'accès extra-territorial (CLOUD Act américain, en particulier) créent des risques de confidentialité et de continuité qui ne peuvent pas être couverts par des garanties contractuelles seules.

Position P3 · Gouvernance

La supervision humaine cosmétique est pire que l'absence de supervision.

« Un système d'IA doté d'une supervision humaine nominale mais ineffective crée une illusion de contrôle qui déresponsabilise les décideurs sans apporter les bénéfices attendus de la vigilance humaine. »

L'EU AI Act et la plupart des cadres de gouvernance IA exigent une supervision humaine pour les systèmes à haut risque. Dans la pratique, cette exigence génère fréquemment des interfaces de validation qui ne sont pas utilisées, des alertes systématiquement acquittées sans examen, ou des workflows de révision dont la charge cognitive dépasse les capacités des opérateurs.

La supervision humaine n'est pas un bouton à activer — c'est une propriété architecturale qui se conçoit, se calibre et se mesure. Elle implique des choix sur la charge cognitive imposée aux opérateurs, sur les cas qui méritent une attention humaine réelle, et sur les mécanismes de contestation des décisions algorithmiques.

Position P4 · Évaluation

Les benchmarks algorithmiques ne mesurent pas ce qui compte en production.

« L'AUC, le F1-score et l'accuracy sont des métriques de laboratoire. La performance d'un système d'IA clinique se mesure sur des indicateurs de résultats patients — et nulle part ailleurs. »

Un modèle atteignant 0,94 d'AUC sur un jeu de test peut avoir une performance cliniquement nulle, voire délétère, en production — si le jeu de test ne représente pas la distribution réelle, si les faux positifs entraînent des surcharges soignantes, ou si la population sous-représentée dans l'entraînement est précisément celle qui bénéficierait le plus de l'outil.

La définition des métriques de performance est un acte clinique et éthique, pas un acte technique. Elle engage les cliniciens, les patients, les régulateurs et les architectes — et elle doit précéder toute décision d'entraînement ou de déploiement.

Position P5 · Données

La qualité des données est la contrainte principale de l'IA médicale. Pas les algorithmes.

« Dans 80 % des projets d'IA médicale qui échouent, la cause première est la qualité ou la structure des données — pas la sophistication du modèle. »

L'industrie IA investit massivement dans les architectures de modèles (transformers, foundation models, fine-tuning) et sous-investit structurellement dans l'ingénierie des données. Cette allocation est inversée par rapport aux besoins réels des environnements de production médicale.

Les données médicales réelles sont hétérogènes, lacunaires, non standardisées et issues de systèmes qui n'ont pas été conçus pour interopérer. Résoudre le problème des données avant de choisir un modèle n'est pas une étape préliminaire — c'est le cœur du travail. C'est précisément l'objet du module Smart Data Fertilizer de TweenMe.

Position P6 · Jumeaux numériques

Un jumeau numérique médical n'est pas un modèle prédictif. C'est une infrastructure de connaissance.

« La valeur d'un jumeau numérique médical n'est pas dans la prédiction ponctuelle — c'est dans la capacité à simuler, tester et valider des interventions avant de les appliquer au patient réel. »

La majorité des outils présentés comme des "jumeaux numériques médicaux" sont en réalité des modèles de risque — ils calculent une probabilité, mais ne permettent pas de simuler l'effet d'une intervention. Un jumeau numérique au sens strict est interactif, dynamique et contrefactuel : il répond à la question « que se passerait-il si ? », pas seulement à « quel est le risque actuel ? ».

Cette distinction engage des choix d'architecture radicalement différents — en termes de modélisation, de fréquence de mise à jour, d'intégration dans les workflows cliniques et de gouvernance des décisions issues de la simulation.

Position P7 · Preuve médico-économique

Aucune IA clinique ne devrait être généralisée sans preuve médico-économique indépendante.

« Le progrès technique impressionnant ne dispense pas de la preuve économique et clinique. Et cette preuve — indépendante, rigoureuse, publiée — manque systématiquement. »

L'industrie IA en santé produit des démonstrations techniques convaincantes : performances algorithmiques sur des jeux de données contrôlés, gains de temps sur des tâches ciblées, études pilotes à périmètre restreint. Ces résultats sont réels mais insuffisants. Ils ne démontrent pas que le système améliore les outcomes cliniques à l'échelle, ni qu'il est économiquement soutenable pour le système de santé qui le finance.

La généralisation d'une IA clinique devrait être conditionnée à une étude médico-économique indépendante — c'est-à-dire réalisée par une entité sans lien financier avec le fournisseur — démontrant un bénéfice net pour le bien commun : amélioration mesurable des outcomes patients, réduction documentée des coûts systémiques, ou les deux. Sans cette preuve, on finance l'enrichissement d'un hyperscaler monopolistique avec de l'argent public, pas l'amélioration du soin.

Votre système d'IA est performant.
Est-il déployable ?

Ces positions engagent des choix d'architecture.
Le Framework RAISE les opérationnalise.