AccueilPositions

Doctrine & prises de position

Positions

Des questions ouvertes auxquelles l'industrie répond trop vite, avec des certitudes non examinées. Ce que le Twingital Institute en pense — et pourquoi.

Position P1 · Contraintes physiques

L'IA ne scale pas indéfiniment. Les contraintes physiques sont une réalité architecturale.

La croissance de la demande computationnelle de l'IA dépasse structurellement les capacités d'expansion des infrastructures énergétiques. Ce n'est pas un problème technique à résoudre — c'est une contrainte à intégrer dans toute décision d'architecture.

Le discours dominant dans l'industrie IA traite la question énergétique comme un défi d'ingénierie solvable : davantage de datacenters, davantage d'énergies renouvelables, davantage d'efficience des puces. Cette position est techniquement correcte mais stratégiquement incomplète.

Les délais de construction des infrastructures électriques (10–15 ans pour une ligne THT, 5–8 ans pour une centrale ou un parc de taille significative) sont structurellement incompatibles avec les cycles d'innovation de l'IA (18–24 mois). Cette asymétrie temporelle n'est pas conjoncturelle — elle est constitutive du problème.

Pour les acteurs en environnement régulé (santé, infrastructures critiques, défense), la conclusion opérationnelle est directe : le coût énergétique doit être un critère de conception de premier rang, au même titre que la performance algorithmique et la conformité réglementaire.

ÉnergieArchitectureInfrastructure

Lire l'article → La virtualité supposée de l'IA face au mur du réel · 17 p · févr. 2026

Lire l'article → Allouer le kilowattheure-IA : pourquoi le marché énergétique n'est pas un protocole · 12 p · mai 2026

Position P2 · Souveraineté

La souveraineté numérique n'est pas une option politique. C'est une condition de déployabilité.

Pour l'IA déployée dans des environnements critiques français et européens, la localisation des données et des modèles n'est pas négociable — ni d'un point de vue réglementaire, ni d'un point de vue de continuité opérationnelle.

Le débat sur la souveraineté numérique est souvent traité comme un débat politique (protectionnisme vs. ouverture) ou comme un débat de performance (cloud hyperscaler vs. cloud souverain moins efficace). Ces deux cadrages ratent l'essentiel.

Pour les organisations déployant de l'IA dans des environnements soumis au HDS, au RGPD, à NIS2 ou à l'EU AI Act, le choix du fournisseur cloud est un choix de conformité avant d'être un choix de performance. Un système d'IA clinique hébergé sur une infrastructure non qualifiée n'est pas sous-optimal : il est illégal.

SouverainetéCloudRéglementation

Lire l'article → La souveraineté numérique n'est pas un débat politique · 14 p · mai 2026

Lire l'article → La souveraineté est une pile, pas un label · 12 p · mai 2026

Lire l'article → Souveraineté énergétique : la couche que rien ne compense · 10 p · mai 2026

Lire l'article → Un modèle n'est pas souverain parce qu'il est ouvert · 16 p · mai 2026

Position P3 · Gouvernance

La supervision humaine cosmétique est pire que l'absence de supervision.

Un système d'IA doté d'une supervision humaine nominale mais ineffective crée une illusion de contrôle qui déresponsabilise les décideurs sans apporter les bénéfices attendus de la vigilance humaine.

L'EU AI Act et la plupart des cadres de gouvernance IA exigent une supervision humaine pour les systèmes à haut risque. Dans la pratique, cette exigence génère fréquemment des interfaces de validation qui ne sont pas utilisées, des alertes systématiquement acquittées sans examen, ou des workflows de révision dont la charge cognitive dépasse les capacités des opérateurs.

La supervision humaine n'est pas un bouton à activer — c'est une propriété architecturale qui se conçoit, se calibre et se mesure.

GouvernanceEU AI ActAccountability

Domaine D5 — Gouvernance algorithmique

Lire l'article → La gouvernance de l'IA n'est pas une politique. C'est une architecture.

Position P4 · Évaluation

Les benchmarks algorithmiques ne mesurent pas ce qui compte en production.

L'AUC, le F1-score et l'accuracy sont des métriques de laboratoire. La performance d'un système d'IA clinique se mesure sur des indicateurs de résultats patients — et nulle part ailleurs.

Un modèle atteignant 0,94 d'AUC sur un jeu de test peut avoir une performance cliniquement nulle, voire délétère, en production — si le jeu de test ne représente pas la distribution réelle, si les faux positifs entraînent des surcharges soignantes, ou si la population sous-représentée dans l'entraînement est précisément celle qui bénéficierait le plus de l'outil.

La définition des métriques de performance est un acte clinique et éthique, pas un acte technique.

ÉvaluationValidation cliniqueISPOR

Lire l'article → Performance mesurée, fiabilité opérationnelle : la distinction que l'industrie refuse de faire · 12 p · avr. 2026

Lire l'article → Les benchmarks publics ont perdu le droit de décider seuls · 11 p · avr. 2026

Lire l'article → Performance sur benchmark n'est pas déployabilité : trois ports de fiabilité, pas trois métriques · 2 p · mai 2026

Position P5 · Données

La qualité des données est la contrainte principale de l'IA médicale. Pas les algorithmes.

Dans 80 % des projets d'IA médicale qui échouent, la cause première est la qualité ou la structure des données — pas la sophistication du modèle.

L'industrie IA investit massivement dans les architectures de modèles (transformers, foundation models, fine-tuning) et sous-investit structurellement dans l'ingénierie des données. Résoudre le problème des données avant de choisir un modèle n'est pas une étape préliminaire — c'est le cœur du travail.

DonnéesTweenMeHDLSS

Domaine D2 — Ingénierie des données

Position P6 · Jumeaux numériques

Un jumeau numérique médical n'est pas un modèle prédictif. C'est une infrastructure de connaissance.

La valeur d'un jumeau numérique médical n'est pas dans la prédiction ponctuelle — c'est dans la capacité à simuler, tester et valider des interventions avant de les appliquer au patient réel.

La majorité des outils présentés comme des "jumeaux numériques médicaux" sont en réalité des modèles de risque. Un jumeau numérique au sens strict est interactif, dynamique et contrefactuel : il répond à la question « que se passerait-il si ? », pas seulement à « quel est le risque actuel ? ».

Jumeaux numériquesTweenMeSimulation

Projet TweenMe →

Position P7 · Preuve médico-économique

Aucune IA clinique ne devrait être généralisée sans preuve médico-économique indépendante.

Le progrès technique impressionnant ne dispense pas de la preuve économique et clinique. Et cette preuve — indépendante, rigoureuse, publiée — manque systématiquement.

L'industrie IA en santé produit des démonstrations techniques convaincantes : performances algorithmiques sur des jeux de données contrôlés, gains de temps sur des tâches ciblées, études pilotes à périmètre restreint. Ces résultats sont réels mais insuffisants. Ils ne démontrent pas que le système améliore les outcomes cliniques à l'échelle, ni qu'il est économiquement soutenable pour le système de santé qui le finance.

La généralisation d'une IA clinique devrait être conditionnée à une étude médico-économique indépendante. Sans cette preuve, on finance l'enrichissement d'un hyperscaler monopolistique avec de l'argent public, pas l'amélioration du soin.

Médico-économiePreuve cliniqueBien communIndépendance

Article — Read on LinkedIn →

Votre système d'IA est performant. Est-il déployable ?

Ces positions engagent des choix d'architecture.
Le Framework RAISE les opérationnalise.