Peut-on appliquer le score de Glasgow à une IA ?
Article originellement publié sur LinkedIn en janvier 2024. Premier chapitre d’une série sur la conscience et l’IA.
L’émergence de la conscience en intelligence artificielle suscite des débats intenses. La conscience — état subjectif de perception et d’expérience intérieure — est partagée par certains animaux (grands singes, dauphins, éléphants, pieuvres, corvidés), sans corrélation directe avec la taille du cerveau. Ce constat élargit considérablement le champ de la question : si la conscience n’est pas un monopole humain ni une fonction de la masse cérébrale, quelles sont les conditions nécessaires et suffisantes de son émergence ?
Le débat oppose les tenants d’une conscience intrinsèquement biologique (expérience du monde extérieur et altérité comme prérequis) aux partisans d’une propriété émergente pouvant se manifester dans des systèmes artificiels suffisamment complexes.
Le score de Glasgow (GCS) est un système d’évaluation neurologique utilisé en médecine d’urgence pour évaluer le niveau de conscience après un traumatisme. Il repose sur trois critères : l’ouverture des yeux (1-4), la réponse verbale (1-5) et la réponse motrice (1-6). Un score de 15 indique une conscience complète ; un score de 3 correspond au coma profond.
Cette approche évalue la chaîne complète de traitement du signal : détection du stimulus, transport centripète de l’information, intégration et traitement, puis réponse adaptée. La conscience y est définie opérationnellement comme la capacité à produire une réponse d’un niveau d’intégration prédéterminé à un stimulus donné — des fonctions réflexes (nociception) aux fonctions cognitives les plus élaborées (langage orienté).
Le locked-in syndrome — lésion majeure du tronc cérébral laissant le patient totalement paralysé mais cognitivement intact — démontre que conscience et capacité sensorimotrice sont dissociables. Jean-Dominique Bauby a dicté Le Scaphandre et le Papillon lettre par lettre, par clignement de paupière.
L’expérience de pensée d’un syndrome d’enfermement ab initio (dès la naissance) permet de conclure par analogie qu’un algorithme d’IA dépourvu d’appendices sensoriels (IoT) ne pourrait jamais accéder à une forme de conscience, faute de boucle de rétroaction avec un environnement extérieur. Mais même doté de tels capteurs, ceux-ci ne participeraient pas à un développement neuro-cérébral progressif.
Le score de Glasgow est inopérant pour l’IA actuelle : les algorithmes isolés n’ont ni yeux, ni réponse motrice, ni niveaux de conscience dégradés. Les frameworks d’abstraction entre architectures neuronales et ressources matérielles (GPU, CPU, RAM) ne permettent pas de définir des degrés de conscience. Un LLM exécuté sur un supercalculateur ou sur un PC sera plus lent sur le second, mais pas « moins capable » — contrairement à un patient dont le Glasgow passe de 15 à 12.
Le concept ne pourrait s’appliquer que dans une vision cybernétique intégrée : un organisme doté de capteurs IoT, d’une intelligence centrale et d’effecteurs mécaniques. Mais même un tel système (thermostat intelligent, usine digitale, robot Boston Dynamics) n’aurait nul besoin d’être « conscient » pour fonctionner — la réactivité adaptative n’implique pas la conscience.
La question de la conscience artificielle conditionne les législations futures : responsabilité en cas d’accident de véhicule autonome, délégation de la décision létale aux drones militaires, abolition du discernement (article 122-1 du Code pénal français). Pourra-t-on invoquer l’abolition du discernement pour une IA ? Sous l’effet de code « psychotrope » ou par piratage à distance ? Ces questions exigent une définition rigoureuse de ce que signifie « être conscient » avant de légiférer.
La définition clinique de la conscience repose sur l’évaluation d’une réponse intégrative à un stimulus — elle présuppose une architecture combinant unité de traitement, capteurs sensoriels et effecteurs moteurs. Un algorithme isolé ne satisfait pas cette condition minimale. Des degrés de conscience ne pourraient advenir que dans des architectures distribuées et massivement parallèles, combinant des milliers de structures de calcul spécialisées. Il est donc nécessaire de se confronter à d’autres définitions — neurobiologiques, philosophiques — pour évaluer la prétendue conscientisation des IA (chapitre 2 à suivre).