Article — Position doctrinale · ○ Accès libre

Allouer le kilowattheure-IA : pourquoi le marché énergétique n'est pas un protocole

De la régulation des modèles à l'explicitation des arbitrages matériels

Jérôme Vetillard · · Twingital Institute · 12 pages · 6 min de lecture
🇬🇧 Read in English ↓ Télécharger en PDF

Trois mois après la publication du premier volet du diptyque, La virtualité supposée de l’IA face au mur du réel (février 2026), l’Agence internationale de l’énergie révise ses projections à la hausse : 1 100 TWh de consommation datacenters dès 2026, dont 5 à 15 % imputables à l’IA aujourd’hui et 35 à 50 % anticipés à l’horizon 2030. Aux États-Unis, ces datacenters absorbent à eux seuls la moitié de la croissance électrique nationale, le prix de détail s’est accru de l’ordre de 40 % sur 2021-2026, et Data Center Watch recense désormais plus de 48 projets bloqués ou retardés en 2025 pour un volume excédant 100 milliards de dollars. La matérialité n’est plus l’hypothèse à démontrer ; elle devient la prémisse de l’arbitrage. La question n’est plus combien l’IA consomme mais qui décide, selon quelles règles, de l’usage de chaque MWh marginal.

Allocation du kilowattheure-IA : pourquoi 2026 marque un seuil de gouvernance

Le diagnostic posé par l’article-mère est désormais empirique. Mais la gouvernance n’a pas suivi : aucun cadre régulateur en vigueur ne dispose d’une procédure d’arbitrage entre usages d’IA sur critère ressource. L’AI Act européen, dont les pouvoirs d’exécution s’activent le 2 août 2026, régule les modèles GPAI mais ne hiérarchise pas leurs usages. Le NIST AI RMF Profile Critical Infrastructure d’avril 2026 traite la gestion du risque, pas la stratification publique des usages. Pendant ce vide procédural, l’allocation se fait : par contrats énergétiques long terme, par signal-prix, par blocages locaux ad hoc.

Trois niveaux à séparer : allocation physique, allocation économique, arbitrage normatif

Le débat public confond fréquemment trois niveaux distincts. L’allocation physique livre des électrons au compteur, en temps réel. L’allocation économique via le marché énergétique hiérarchise des capacités à payer. L’arbitrage normatif — décision collective sur la valeur sociale relative des usages — n’est exécuté par aucun dispositif public. Le glissement par lequel on assimile les trois niveaux (« le marché alloue, donc le marché arbitre ») est le sophisme dominant. Le prix agrège des préférences solvables sous contrainte locale ; il n’agrège pas des préférences collectives non solvables, ni des externalités différées, ni des rendements sociaux différenciés.

Marché, contrats long terme, blocages locaux : cartographie d’un système non délibératif

La décision d’allouer un MWh marginal entre l’IA et ses usages concurrents est triplement distribuée. Le marché énergétique alloue par solvabilité, par construction, dans un système où la ressource est fongible au point de livraison, le capital concentré et les engagements intertemporels dominants. Les contrats long terme (Microsoft–Constellation Three Mile Island 835 MW, AWS 5 GW SMR à 2039, Google–Kairos Power 500 MW, plus de 10 GW Microsoft à 2030) soustraient durablement les volumes les plus stratégiques au mécanisme spot, sur des horizons qui excèdent la temporalité électorale d’un facteur trois ou quatre. Les blocages locaux (48+ projets et plus de 100 Md$ aux États-Unis selon Data Center Watch, plafond irlandais, moratoires Singapour et Pays-Bas) opèrent une sanction ex post imprévisible, pas un arbitrage ex ante. La formule qui résume ce système distribué tient en une phrase : le marché alloue, les contrats verrouillent, les oppositions sanctionnent ; aucun des trois ne délibère.

Le benchmark sans empreinte (RAISE) : pourquoi la métrologie IA est aveugle au coût

Le défaut procédural est solidaire d’un défaut métrologique. Un système de décision ne peut arbitrer que ce qu’il mesure. Les benchmarks qui font office de standards de fait (MMLU, SWE-bench, GAIA) sont définis pour mesurer la performance fonctionnelle indépendamment du coût ressource — ce que le corpus Twingital désigne, sous le nom RAISE, comme la critique du benchmark sans empreinte. Le 12 avril 2026, le Center for Responsible Decentralized Intelligence de Berkeley a publié une démonstration empirique que les huit principaux benchmarks d’agents (SWE-bench, WebArena, OSWorld, GAIA, Terminal-Bench, FieldWorkArena, CAR-bench et un huitième) pouvaient être systématiquement saturés par reward hacking automatisé. La fragilité observée n’est pas un accident : elle est la conséquence prévisible d’une métrique conçue pour être maximisée sans contrainte de coût. Lorsque ces benchmarks sortent de leur fonction d’évaluation pour devenir signaux d’investissement ou critères d’achat public — ce que le corpus Twingital appelle le port de promotion du benchmark — la défaillance métrologique contamine l’allocation.

Trois défaillances structurelles : non-comparabilité, verrouillage temporel, substitution métrique

Le système marché-contrats-blocages fonctionne sur sa dimension propre (technique et économique) mais ne peut trancher l’arbitrage normatif. Trois défaillances en éclairent la cause unique. Non-comparabilité des usages : un MWh affecté à la modélisation climatique, un MWh affecté à un diagnostic médical assisté et un MWh affecté à un agent conversationnel récréatif n’ont pas les mêmes rendements sociaux ; le marché compare des solvabilités, pas des valeurs. Verrouillage intertemporel : les PPA de 15 à 20 ans ne sont pas illégaux, ils sont l’emploi rationnel du marché par les acteurs solvables, mais ils excèdent la temporalité de tout dispositif politique ordinaire ; la fenêtre de révision se referme entre 2027 et 2028. Substitution métrique : la critique des « green PPA » sans additionnalité physique ni concordance temporelle n’est pas qu’un problème de comptabilité carbone — c’est un dispositif rhétorique de substitution au protocole, qui déplace la légitimité vers une attribution-comptable plutôt que sur le coût matériel réel. Nous avons inventé le 24/7 carbon-free avant d’inventer le 24/7 socially-justified.

Quatre conditions d’un protocole sectoriel : SDAGE, ARCEP, slots aéroportuaires comme repères

L’objection libérale à un protocole délibératif suppose que l’alternative est un marché concurrentiel idéal. Or l’alternative est le marché captif décrit ci-dessus : signal-prix borné par contrats long terme et corrigé par opposition NIMBY. Un protocole d’allocation IA ne classe pas les usages pour leur affecter directement la ressource — il définit des conditions d’accès différenciées. Quatre précédents partiels éclairent la praticabilité : allocation des bandes de spectre par l’UIT/ARCEP, SDAGE pour l’eau, slots aéroportuaires, et la Convention Citoyenne pour le Climat 2019-2020 mobilisée comme avertissement procédural plutôt que modèle. Quatre conditions paraissent nécessaires : couplage performance/empreinte normalisé sur les benchmarks utilisés comme gates institutionnels (sortie directe de la critique RAISE) ; stratification publique d’usages avec conditions d’accès distinctes par strate ; articulation multi-juridictionnelle (UE, national, local) pour prévenir le carbon/regulatory leakage ; réversibilité institutionnelle par cycles quinquennaux. Sans métrique couplée, le protocole est impossible. Avec métrique couplée, le marché devient arbitrable.

De la régulation des modèles à l’arbitrage du kilowattheure : la décision politique manquante

Le diptyque soutient une thèse simple : la doctrine doit explicitement séparer la régulation des modèles (que l’AI Act, l’AISI britannique et le NIST instrumentent) et l’arbitrage de l’allocation matérielle (qu’aucun dispositif public ne porte aujourd’hui). Microsoft, AWS, Google et leurs homologues décident, par leurs PPA long terme, de la trajectoire énergétique des deux prochaines décennies. Les juridictions locales corrigent à coups de moratoires ce qu’elles n’ont jamais débattu en amont. L’opinion publique américaine bascule sans avoir été consultée. Le système fonctionne et s’érode simultanément. Le coût réel de l’IA ne se mesure pas seulement à l’énergie qu’elle consomme, mais aux trajectoires que cette énergie rend impossibles avant qu’elles aient été délibérées. Une société ne choisit pas si elle paie le coût matériel de l’IA. Elle choisit si ce coût est subi par défaut ou distribué selon des critères explicites. Nous avons industrialisé la production d’intelligence artificielle. Nous n’avons pas encore industrialisé la décision de savoir quels usages méritent d’en consommer la matière.

Lire le document