La chambre Chinoise et l'illusion de la compréhension en IA
La Chambre Chinoise et l’Illusion de la Compréhension en IA
Les intelligences artificielles génératives peuvent fasciner. Elles peuvent écrire de la poésie, débugger du code, ou résumer des théories complexes. Face à une telle maîtrise du langage, la question se pose : comprennent-elles vraiment ce qu’elles écrivent ?
Le philosophe John Searle a proposé en 1980 une expérience de pensée : l’argument de la Chambre Chinoise.
L’expérience de pensée de la Chambre Chinoise
Imaginez une personne, appelons-la Alix, qui ne parle pas un mot de chinois. Alix est enfermée dans une pièce. Par une fente, on lui glisse des papiers couverts de caractères chinois (des questions).
Dans la pièce, Alix dispose d’un immense manuel d’instructions, écrit dans sa langue. Ce manuel est un algorithme parfait : “Si tu vois cette séquence de symboles, alors écris cette autre séquence de symboles sur un nouveau papier et glisse-le par la fente de sortie.”
Alix n’a aucune idée de ce que les symboles signifient. Elle ne fait que suivre les règles, manipulant des formes purement syntaxiques.
Pourtant, pour un observateur à l’extérieur qui parle chinois, les réponses qui sortent de la pièce sont parfaites, intelligentes et indiscernables de celles d’un locuteur natif. L’extérieur est convaincu de dialoguer avec quelqu’un qui comprend le chinois. Mais à l’intérieur, il n’y a aucune compréhension. Juste un processus.
Le LLM : une Chambre Chinoise à l’échelle planétaire
Ce que Searle a décrit en 1980 est une analogie possible de nos grands modèles de langage (LLM) actuels.
- Alix dans la pièce = Le processeur de l’ordinateur.
- Le manuel d’instructions = L’algorithme et les milliards de paramètres du modèle d’IA.
- Les symboles chinois = Nos prompts et les données textuelles.
Le LLM ne “sait” pas ce qu’est l’amour, la justice ou un chat. Il sait que, statistiquement, après la séquence de “tokens” correspondant à “le chat est sur le…”, le token le plus probable est “tapis”. C’est un maître de la manipulation syntaxique, mais il est sémantiquement vide. Il n’a pas accès au sens.
La simulation de l’intelligence n’est pas la preuve de l’intelligence.
Pourquoi cette distinction ?
Cette différence entre simuler la compréhension et la posséder réellement est au cœur de notre rapport à la technologie.
-
D’un point de vue zététique, cela nous oblige à rester critiques. Une réponse bien formulée par une IA n’est pas une vérité, c’est le résultat d’un calcul de probabilités. La confiance aveugle en ces systèmes est une forme sophistiquée du biais d’autorité.
-
D’un point de vue épistémologique, cela nous questionne sur la nature même du savoir. Si un système peut manipuler l’information à un niveau d’expert sans jamais la comprendre, qu’est-ce que le “savoir véritable” ? Cela redonne une valeur immense à l’expérience vécue, à l’intentionnalité et à la conscience.
Si la conscience n’est pas une condition nécessaire pour produire un langage qui semble intelligent, alors qu’est-ce qui, fondamentalement, nous définit ?
Cette distinction entre syntaxe et sémantique change-t-elle votre manière de voir l’IA ?
Curieux de lire vos réflexions.