Exploration · ○ Accès libre

L'intelligence artificielle et la question de la « conscience » — Chapitre 1 : Le score de Glasgow

Peut-on appliquer le score de Glasgow à une IA ?

Jérôme Vetillard · · LinkedIn · Janvier 2024 · 3 min de lecture
🇬🇧 Read in English ↓ Télécharger en PDF

Article originellement publié sur LinkedIn en janvier 2024. Premier chapitre d’une série sur la conscience et l’IA.

Introduction : la conscience comme fondement de notre humanité

L’émergence de la conscience en intelligence artificielle suscite des débats intenses. La conscience — état subjectif de perception et d’expérience intérieure — est partagée par certains animaux (grands singes, dauphins, éléphants, pieuvres, corvidés), sans corrélation directe avec la taille du cerveau. Ce constat élargit considérablement le champ de la question : si la conscience n’est pas un monopole humain ni une fonction de la masse cérébrale, quelles sont les conditions nécessaires et suffisantes de son émergence ?

Le débat oppose les tenants d’une conscience intrinsèquement biologique (expérience du monde extérieur et altérité comme prérequis) aux partisans d’une propriété émergente pouvant se manifester dans des systèmes artificiels suffisamment complexes.

Le score de Glasgow : une définition clinique pragmatique

Le score de Glasgow (GCS) est un système d’évaluation neurologique utilisé en médecine d’urgence pour évaluer le niveau de conscience après un traumatisme. Il repose sur trois critères : l’ouverture des yeux (1-4), la réponse verbale (1-5) et la réponse motrice (1-6). Un score de 15 indique une conscience complète ; un score de 3 correspond au coma profond.

Cette approche évalue la chaîne complète de traitement du signal : détection du stimulus, transport centripète de l’information, intégration et traitement, puis réponse adaptée. La conscience y est définie opérationnellement comme la capacité à produire une réponse d’un niveau d’intégration prédéterminé à un stimulus donné — des fonctions réflexes (nociception) aux fonctions cognitives les plus élaborées (langage orienté).

Le syndrome d’enfermement : conscience sans interface

Le locked-in syndrome — lésion majeure du tronc cérébral laissant le patient totalement paralysé mais cognitivement intact — démontre que conscience et capacité sensorimotrice sont dissociables. Jean-Dominique Bauby a dicté Le Scaphandre et le Papillon lettre par lettre, par clignement de paupière.

L’expérience de pensée d’un syndrome d’enfermement ab initio (dès la naissance) permet de conclure par analogie qu’un algorithme d’IA dépourvu d’appendices sensoriels (IoT) ne pourrait jamais accéder à une forme de conscience, faute de boucle de rétroaction avec un environnement extérieur. Mais même doté de tels capteurs, ceux-ci ne participeraient pas à un développement neuro-cérébral progressif.

Transposition à l’intelligence artificielle : les limites structurelles

Le score de Glasgow est inopérant pour l’IA actuelle : les algorithmes isolés n’ont ni yeux, ni réponse motrice, ni niveaux de conscience dégradés. Les frameworks d’abstraction entre architectures neuronales et ressources matérielles (GPU, CPU, RAM) ne permettent pas de définir des degrés de conscience. Un LLM exécuté sur un supercalculateur ou sur un PC sera plus lent sur le second, mais pas « moins capable » — contrairement à un patient dont le Glasgow passe de 15 à 12.

Le concept ne pourrait s’appliquer que dans une vision cybernétique intégrée : un organisme doté de capteurs IoT, d’une intelligence centrale et d’effecteurs mécaniques. Mais même un tel système (thermostat intelligent, usine digitale, robot Boston Dynamics) n’aurait nul besoin d’être « conscient » pour fonctionner — la réactivité adaptative n’implique pas la conscience.

Implications juridiques : responsabilité et discernement

La question de la conscience artificielle conditionne les législations futures : responsabilité en cas d’accident de véhicule autonome, délégation de la décision létale aux drones militaires, abolition du discernement (article 122-1 du Code pénal français). Pourra-t-on invoquer l’abolition du discernement pour une IA ? Sous l’effet de code « psychotrope » ou par piratage à distance ? Ces questions exigent une définition rigoureuse de ce que signifie « être conscient » avant de légiférer.

Conclusion partielle

La définition clinique de la conscience repose sur l’évaluation d’une réponse intégrative à un stimulus — elle présuppose une architecture combinant unité de traitement, capteurs sensoriels et effecteurs moteurs. Un algorithme isolé ne satisfait pas cette condition minimale. Des degrés de conscience ne pourraient advenir que dans des architectures distribuées et massivement parallèles, combinant des milliers de structures de calcul spécialisées. Il est donc nécessaire de se confronter à d’autres définitions — neurobiologiques, philosophiques — pour évaluer la prétendue conscientisation des IA (chapitre 2 à suivre).

Lire le document