Article — Position doctrinale · ○ Accès libre

Être une plateforme dominante ne suffit pas

Microsoft, Copilot et les conditions réelles d'adoption des assistants IA en entreprise

Jérôme Vetillard · · Twingital Institute · 11 min de lecture
🇬🇧 Read in English ↓ Télécharger en PDF

Une trajectoire historique : Clippy, Cortana, Copilot

Trois tentatives en près de trente ans. Clippy en 1997. Cortana en 2015. Copilot en 2024. À chaque cycle, Microsoft a objectivement amélioré la technologie. Et pourtant, à chaque cycle, la même limite réapparaît : la supériorité technique ne suffit pas, à elle seule, à imposer un assistant dans les usages quotidiens. Le cas Copilot est particulièrement instructif, non parce qu’il serait unique, mais parce qu’il se déploie dans un environnement où Microsoft contrôle déjà une part décisive de la distribution, de l’identité, de la suite bureautique et du poste de travail.

Le signal quantitatif : déploiement massif, pénétration modeste

Le premier signal est quantitatif. Lors de son earnings call FY26 Q2, Microsoft a indiqué avoir atteint 15 millions de sièges payants Microsoft 365 Copilot, sur une base de plus de 450 millions de sièges M365 commerciaux — soit environ 3,3 % de pénétration. Pris isolément, ce chiffre n’est pas aberrant pour un add-on premium encore jeune : les add-ons M365 historiques à prix comparable (E5 Security, Power BI Pro) ont rarement dépassé 8 à 12 % de pénétration dans leurs trois premières années. Rapporté à la puissance du canal de distribution de Microsoft, il reste néanmoins modeste. Le déploiement est massif. L’adoption demeure sélective.

Des données indépendantes affinent ce diagnostic. Recon Analytics, sur la base d’une enquête auprès de plus de 150 000 utilisateurs américains (janvier 2026), indique qu’en situation de choix entre plusieurs assistants, seuls 8 % des employés conservent Copilot comme outil principal. La part de marché des abonnés payants a reculé de 39 % en six mois, tandis que Gemini dépassait Copilot en novembre 2025, ChatGPT consolidant sa première place. Le NPS de précision est resté durablement négatif (−19,8 en janvier 2026), et 44,2 % des utilisateurs ayant quitté Copilot citent la méfiance envers les réponses comme raison principale. Ces résultats doivent être lus avec prudence : ils reposent sur une enquête privée, sur des populations qui ne se superposent pas nécessairement aux déploiements IT d’entreprise, et sur des critères de préférence qui ne mesurent pas exactement la même chose qu’un programme de déploiement corporate. Mais la direction du signal est claire : la présence native dans Microsoft 365 ne se convertit pas mécaniquement en préférence d’usage.

Déploiement vs adoption : deux dynamiques distinctes

C’est ici qu’il faut distinguer deux dynamiques que les discours de marché confondent souvent. Le déploiement mesure la capacité d’un éditeur à rendre une fonctionnalité disponible à grande échelle. L’adoption mesure la décision répétée des utilisateurs de l’intégrer dans leurs pratiques réelles. Microsoft a indiqué dès FY25 Q1 que près de 70 % des entreprises du Fortune 500 utilisaient Copilot. Ce chiffre dit surtout qu’un grand nombre d’entre elles l’ont essayé, licencié ou piloté. Il ne dit pas, à lui seul, qu’elles l’ont généralisé avec intensité. Les analyses disponibles décrivent plutôt une adoption large mais encore superficielle, dépendante de pilotes ciblés et de montées en charge prudentes.

L’économie du premium : le mur des 30 $/utilisateur/mois

La question du prix accentue cette réalité. À 30 $/utilisateur/mois, Copilot représente 360 $/an/personne — soit environ 36 M$/an pour une organisation de 100 000 salariés. À cette échelle, il ne s’agit plus d’un add-on optionnel mais d’une allocation de capital soumise à justification budgétaire. Le rapport du gouvernement britannique sur son expérimentation auprès d’environ 20 000 utilisateurs fait état d’un gain moyen déclaré de 26 minutes par jour. C’est un résultat encourageant. Mais la difficulté ne réside pas dans la démonstration d’un gain individuel ponctuel. Elle réside dans la conversion de ce gain en ROI organisationnel consolidé : les gains sont hétérogènes selon les profils, diffus selon les tâches, et rarement transformés automatiquement en économies budgétaires. Un outil peu coûteux peut être toléré malgré une valeur incertaine. Un outil premium doit être évidemment utile.

Ce point est d’autant plus sensible que plusieurs acteurs — Google dans Workspace, Zoom, Cisco — ont choisi d’intégrer leurs fonctions IA dans le bundle existant, déplaçant la comparaison du terrain technologique vers celui de l’économie du déploiement.

Le piège des cas d’usage substituables

Un deuxième problème, plus stratégique, tient à la manière dont le marché a abordé la première vague. Beaucoup d’organisations ont cherché des « cas d’usage » : résumer un email, reformuler un texte, générer un premier jet de présentation. Tous ces usages sont utiles. Tous sont aussi largement substituables. Ils démontrent l’utilité générale des LLM, pas la valeur spécifique de Copilot. Documenter des usages génériques ne crée pas, par elle-même, une différenciation produit.

La promesse architecturale non encore convertie

La véritable promesse de Copilot est ailleurs. Elle réside dans la combinaison entre un moteur de langage, le graphe organisationnel M365, l’indexation sémantique et une intégration applicative native. Microsoft le dit désormais explicitement : la valeur doit émerger de la combinaison entre modèles, contexte métier et agents, pas d’un seul composant. Le problème n’est pas l’absence d’architecture différenciante. Le problème est que cette différenciation architecturale ne s’est pas encore pleinement transformée en différenciation perçue. Les résumés de réunions Teams restent approximatifs, les synthèses de documents longs hallucinent, les suggestions dans Excel peinent sur les fonctions financières complexes — autant de faiblesses que Nadella lui-même a pointées en interne fin 2025.

Le chiffre de Recon Analytics éclaire cette dynamique : 70 % des utilisateurs préfèrent initialement Copilot — l’outil est déjà là, dans les applications qu’ils utilisent. Mais après avoir essayé des alternatives, seuls 8 % le conservent. Tant qu’un salarié a le sentiment qu’un autre assistant fait à peu près la même chose, souvent plus simplement ou avec une meilleure qualité perçue, l’intégration native ne suffit pas à verrouiller l’adoption.

La réorganisation du 17 mars 2026 : dissocier recherche et exécution

La réorganisation annoncée le 17 mars 2026 peut se lire dans cette perspective. Microsoft a confié le pilotage de Copilot à Jacob Andreou, tandis que Mustafa Suleyman a été recentré sur les modèles frontier et la superintelligence. Cette séquence suggère que Microsoft a estimé nécessaire de dissocier deux chantiers qui avaient été fortement couplés : la trajectoire de recherche d’un côté, l’exécution produit et l’expérience utilisateur de l’autre. Ce type de séparation intervient fréquemment lorsque la sophistication technologique progresse plus vite que sa traduction en valeur perçue — et piloter une stratégie de modèles frontier et exécuter un produit à 30 $/mois face à une base installée sceptique sont, de fait, deux exercices radicalement différents.

L’introduction d’une logique « model-diverse by design », avec l’intégration de modèles Anthropic dans Copilot, va dans le même sens : elle traduit moins un reniement qu’un ajustement de gouvernance.

La sécurité : Copilot comme stress test des permissions

Un autre facteur, plus silencieux, est la sécurité. Copilot ne crée pas le problème fondamental. Il le révèle et l’amplifie. Les environnements SharePoint, OneDrive et Teams souffrent depuis longtemps de sur-partage, de permissions complexes et d’une gouvernance documentaire inégale. Avec un assistant génératif, l’information peut être compressée, agrégée et reformulée sans que le document source soit visible. Le risque change de nature — plus contextuel, moins traçable, et parfois plus crédible aux yeux de l’utilisateur.

Le DPIA public mis à jour par SURF sur Microsoft 365 Copilot souligne précisément que ce type d’assistant s’inscrit dans une problématique plus large de gouvernance et de maîtrise des données. L’incident Echoleak (CVE-2025-32711) — un scénario de prompt injection conduisant à une exfiltration de données via Copilot — a illustré cette classe de vulnérabilité. La faille a été corrigée. Mais ce qu’elle révèle est plus durable : un assistant contextuel agit comme un stress test permanent de la gouvernance des permissions. Plus l’assistant est utile, plus il met à nu les défauts du socle informationnel sur lequel il s’appuie.

Le shadow IT génératif : un risque d’une nature nouvelle

Et cette faiblesse de l’adoption a une conséquence rarement discutée avec suffisamment de sérieux : elle alimente un shadow IT génératif structurellement différent du shadow IT classique. Le shadow IT traditionnel — un Trello non approuvé, un tableur personnel — déplace des flux de travail. Le shadow IT génératif déplace des données, et souvent les plus sensibles : drafts contractuels, éléments financiers, documents RH, voire données réglementées. Chaque prompt adressé à un outil non gouverné peut constituer une exfiltration fonctionnelle partiellement ou totalement invisible pour les dispositifs classiques de supervision, selon le niveau de contrôle effectivement déployé.

Le point clé n’est pas l’invisibilité absolue. C’est l’augmentation d’une surface de traitement hors cadre contractuel, hors gouvernance documentaire et souvent hors revue de conformité. Sous le RGPD, cela peut créer un risque de non-conformité au regard des obligations de documentation des traitements et de sécurité appropriée. Sous l’AI Act, l’usage non documenté de systèmes d’IA généralistes dans des processus affectant des personnes crée des angles morts supplémentaires. L’ampleur exacte reste difficile à mesurer — par nature, les données empiriques sur des pratiques non déclarées sont rares. Mais en gouvernance, l’absence de visibilité n’est pas une absence de risque.

Goodhart, feedback et gouvernance du produit stratégique

Le cas Copilot éclaire aussi un sujet de gouvernance plus large : la qualité du feedback interne lorsqu’un produit devient stratégiquement central. Il n’est pas nécessaire d’invoquer une volonté explicite de censure pour voir apparaître une dégradation du signal. Il suffit que les métriques de diffusion prennent plus de place que les métriques de valeur, que les fonctions d’expertise soient davantage mobilisées comme leviers d’adoption que comme capteurs critiques du terrain, et qu’un narratif stratégique très structurant réduise progressivement la diversité des retours. La loi de Goodhart s’applique directement : lorsqu’un indicateur d’usage devient un objectif, il cesse d’être un bon indicateur de création de valeur. Lorsqu’un produit devient symboliquement central, la contradiction utile coûte plus cher à exprimer, plus longtemps à remonter, et plus difficilement à convertir en arbitrages opérationnels. C’est un pattern structurel des organisations technologiques en phase de scaling stratégique, documenté bien au-delà du seul cas Microsoft.

Certains faits publics renforcent cette lecture, sans suffire à eux seuls à la prouver entièrement. La dissolution de l’équipe Ethics & Society en 2023 a été interprétée par plusieurs observateurs comme un signal d’accélération stratégique. Sans préjuger de l’ensemble des arbitrages internes, cet épisode rappelle qu’en contexte de forte pression concurrentielle, la continuité entre principes, revue critique et exécution produit devient elle-même un enjeu de gouvernance. De même, les épisodes disciplinaires liés à des protestations publiques en 2025 éclairent une tension classique entre vitesse d’exécution et capacité à absorber le dissent sans dégrader la qualité du feedback utile.

Reconnaissance : Microsoft a corrigé, relativement vite

Il faut cependant reconnaître un point à Microsoft : l’entreprise a corrigé, et relativement vite. Dans son billet du 20 mars 2026, Pavan Davuluri a explicitement indiqué que Microsoft serait « plus intentionnel » sur la manière et l’endroit où Copilot s’intègre dans Windows, en réduisant certains points d’entrée et en recentrant l’effort sur la performance, la fiabilité et l’expérience de base. Le programme interne « Windows K2 » a redéployé des ressources d’ingénierie vers la qualité, au détriment de nouvelles fonctionnalités IA. Dans les grandes organisations technologiques, la réallocation de ressources reste l’un des rares indicateurs de priorité réellement crédibles. Le pire scénario aurait été de ne rien changer — un pattern bien documenté avec Google+, maintenu artificiellement en vie pendant des années par intégration forcée.

Au-delà de Microsoft : un pattern d’industrie

Le point essentiel dépasse d’ailleurs Microsoft. Copilot n’est pas un accident isolé. C’est le cas le plus documenté d’un phénomène plus large : la tentation, pour une plateforme dominante, de convertir sa base installée en adoption IA par la distribution avant d’avoir démontré une valeur différenciante, mesurable et non substituable. Ce pattern se retrouve, sous des formes différentes, chez d’autres grands acteurs qui poussent leurs assistants au cœur de leurs interfaces. La présence native réduit le coût d’essai. Elle ne fabrique ni la préférence ni l’habitude.

Quatre conditions pour l’adoption durable

Quatre conditions semblent aujourd’hui nécessaires pour qu’un assistant intégré atteigne une adoption durable :

Différenciation non substituable — des scénarios où le contexte organisationnel crée une valeur qu’un LLM généraliste ne peut pas reproduire : recommandation de collaborateurs pertinents, automatisation de workflows multi-applications, mémoire institutionnelle contextualisée.

Qualité perçue suffisante — l’utilisateur cesse de vérifier systématiquement les résultats.

Gouvernance documentaire propre — des permissions suffisamment bien structurées pour que l’outil n’aggrave pas la dette informationnelle existante.

ROI fondé sur la valeur — des métriques de valeur, pas seulement d’usage.

Le facteur limitant n’est plus la disponibilité de la technologie. C’est l’alignement entre produit, données, sécurité, pratiques organisationnelles et économie du déploiement.

Conclusion

L’épisode Copilot ne démontre pas que les assistants IA intégrés sont condamnés. Il montre quelque chose de plus intéressant. Une plateforme dominante peut imposer un déploiement. Elle ne peut pas décréter l’adoption. Et le risque principal n’est pas de lancer un produit imparfait. C’est de construire, autour de ce produit, un système de métriques, d’incitations et de gouvernance qui ralentit la mesure lucide de sa valeur réelle et augmente le coût organisationnel de la contradiction utile. La vraie différenciation, à l’ère des assistants IA, ne repose ni sur la taille du modèle ni sur la puissance du canal de distribution. Elle repose sur la capacité à convertir une architecture prometteuse en valeur perçue, mesurable, gouvernée — et continuellement corrigée par un feedback de qualité.


Sources : Microsoft FY2026 Earnings Calls (janvier 2026) ; Recon Analytics, “AI Choice 2026: Why Licenses Don’t Equal Adoption” (février 2026) ; Perspectives+, “Microsoft AI Numbers: The Good, The Bad & The Ugly” (février 2026) ; Lighthouse Global, “What Microsoft 365 Copilot Adoption Really Looks Like” ; UK Government Copilot Pilot Report ; SURF, DPIA Microsoft 365 Copilot (mise à jour 2025) ; Windows Central, “Microsoft employees sound alarm over Copilot branding chaos” (octobre 2025) ; The Information / PYMNTS, “Microsoft CEO pushes staff on Copilot ambitions” (décembre 2025) ; CNBC, “Microsoft shakes up Copilot AI leadership team” (17 mars 2026) ; CNBC, “Microsoft fires engineers who protested during anniversary celebration” (avril 2025) ; TechCrunch, “Microsoft lays off an ethical AI team as it doubles down on OpenAI” (mars 2023) ; Platformer (mars 2023) ; GeekWire, “Microsoft revamps Copilot structure” (mars 2026) ; Microsoft Official Blog, “Introducing the First Frontier Suite” (9 mars 2026) ; Pavan Davuluri, Windows Insider Blog, 20 mars 2026 ; WindowsLatest, “Microsoft reportedly admits Windows 11 went off track” (janvier 2026) ; NoJitter, “4 obstacles impede paid Microsoft 365 Copilot adoption” (mars 2026) ; TechCrunch, Tom’s Hardware, The Register, PCWorld (mars 2026).

Lire le document