Chambre chinoise

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher
Si vous pouviez mener une conversation avec un interlocuteur étranger, cela impliquerait-il que vous compreniez ce que vous affirmez ?

Le terme de chambre chinoise désigne une expérience de pensée imaginée par John Searle vers 1980. Searle se demandait si un programme informatique, si complexe soit-il, serait suffisant pour donner un esprit à un système.

Principe[modifier | modifier le code]

Une tendance répandue consistait alors à considérer que puisque le cerveau constituait d'une part le siège de l'esprit (ce que pourraient indiquer les affectations de l'esprit par des lésions cérébrales) et d'autre part le lieu de transferts importants d'information (1012 neurones, chacun susceptible de fonctionner toutes les 10 ms, soit un potentiel théorique d'environ 1014 opérations par seconde), ces transferts d'information « étaient » l'esprit.

Searle essaya d'imaginer ces transferts d'information simulés à la perfection, mais très lentement, sur une immense maquette utilisant du papier, des crayons, des opérateurs et des règles simples semblables à celles des machines de Turing. Ce transfert de support ne change en effet rien au modèle, le support de l'information ne jouant pas de rôle dans l'affaire, et la notion d'échelle de temps non plus. Il lui sembla fort difficile d'admettre que ce dispositif soit en quoi que ce soit comparable réellement au fonctionnement d'un cerveau et possède, selon l'expression d'Arthur Koestler, un « fantôme dans la machine » (« ghost in the machine »). Non que Searle mette en cause le principe de fonctionnement d'un neurone, mais une question selon lui était celle de l'échelle de temps du processus.

Searle considère à ce stade que la métaphore du programme informatique est à elle seule insuffisante pour expliquer le phénomène de la conscience, et doit être complétée de considérations liées à l'échelle de temps (si l'on considère l'échelle de temps humaine comme privilégiée).

Sa vision va par la suite se radicaliser plus encore.

Insuffisance du modèle cognitif courant, selon Searle[modifier | modifier le code]

Il le résume de la façon suivante :

« Je ne connaissais rien [en 1971] à l'intelligence artificielle. J'ai acheté un manuel au hasard, dont la démarche argumentative m'a sidéré par sa faiblesse. Je ne savais pas alors que ce livre allait marquer un tournant dans ma vie. Il expliquait comment un ordinateur pouvait comprendre le langage. L'argument était qu'on pouvait raconter une histoire à un ordinateur et qu'il était capable ensuite de répondre à des questions relatives à cette histoire bien que les réponses ne soient pas expressément données dans le récit. L'histoire était la suivante : un homme va au restaurant, commande un hamburger, on lui sert un hamburger carbonisé, l'homme s'en va sans payer. On demande à l'ordinateur : “A-t-il mangé le hamburger ?”. Il répond par la négative. Les auteurs étaient très contents de ce résultat, qui était censé prouver que l'ordinateur possédait les mêmes capacités de compréhension que nous. C'est à ce moment-là que j'ai conçu l'argument de la chambre chinoise[1]. »

Le modèle de la chambre chinoise[modifier | modifier le code]

Supposons que l'on soit dans une pièce fermée avec la possibilité de recevoir et d'envoyer des symboles (via un clavier et un écran, par exemple). On dispose de caractères chinois et de règles de travail (instructions) permettant de produire certaines suites de caractères en fonction des caractères introduits dans la pièce, sur le modèle des organismes de vente par correspondance qui traitent leur courrier client en plaçant des réponses préparées à l'avance, et déjà imprimées, dans des enveloppes.

Si l'on fournit une histoire suivie d'une question, toutes deux écrites en chinois, l'application des règles ne peut que conduire à donner la bonne réponse, mais sans que l'opérateur ait compris quoi que ce soit, puisqu'il ne connaît pas le chinois. Il aura juste manipulé des symboles qui n'ont pour lui aucune signification.

Selon Searle, un ordinateur, ou plus exactement un programme d'ordinateur (par exemple ELIZA), se trouverait dans la même situation que l'opérateur dans la chambre chinoise : il ne disposerait que de symboles et de règles régissant leur manipulation.

Searle explique : « Je n'attendais pas que cet argument, qui me paraissait trivial, suscite de l'intérêt au-delà d'une semaine. L'effet fut au contraire cataclysmique. Tous les participants du séminaire étaient convaincus que j'avais tort, mais sans pouvoir en donner la raison. Vingt ans après, la discussion continue à faire rage, il doit y avoir plusieurs centaines d'articles sur le sujet. ».

Analyse et dépassement[modifier | modifier le code]

Pour Searle, l'argument de la chambre chinoise montrerait que la sémantique du contenu mental n'est pas intrinsèque à la seule syntaxe du programme informatique, lequel est défini de façon formelle par une suite de 0 et de 1 accompagnée de règles de traitement. De nombreuses critiques lui furent toutefois adressées, en particulier le fait qu'il pose comme hypothèse a priori que la sémantique ne se réduit pas à la syntaxe, alors que précisément, de nombreux chercheurs[Qui ?] en science cognitive pensent que la sémantique émerge de la syntaxe (voir le principe d'émergence).

Searle propose alors (dans La redécouverte de l'esprit) un nouvel argument : « La distinction la plus profonde qu'on puisse effectuer n'est pas entre l'esprit et la matière, mais entre deux aspects du monde : ceux qui existent indépendamment d'un observateur, et que j'appelle intrinsèques, et ceux qui sont relatifs à l'interprétation d'un observateur. » Le calcul informatique, pour être qualifié de tel, n'existe que relativement à une interprétation qui assigne une certaine distribution de zéros et de uns à un certain état physique.

Ce nouvel argument, plus radical, découple la question de la syntaxe de celle de la nature physique. Une chose donnée ne peut être considérée comme un programme (c'est-à-dire une structure syntaxique) que relativement à une interprétation. On savait en effet, bien avant les travaux de Searle, qu'un message n'a jamais de sens en lui-même, mais seulement dans un contexte d'interprétation donné : une séquence d'ARN n'a pas de sens hors du ribosome qui va la traduire en protéine ; une information compressée n'a pas de sens hors de l'existence du décompresseur ; l'information décompressée elle-même n'a pas de sens hors des règles d'interprétation qu'on va lui appliquer, etc. Par analogie, un programme d'informatique ne serait qu'un ensemble de règles syntaxiques dépourvu de sens. Pour accéder au sens, il faudrait une conscience.

La « conscience » du sens d'un message désigne ici la capacité à interpréter le signal pour le traduire en actions, comme dans le cas du ribosome ; il s'agit d'une « conscience du monde » (awareness) et non d'une "conscience de soi" (consciousness).

Searle a tenté de démontrer par cette voie que le concept d'intelligence artificielle dite forte devait être abandonné. Toutefois, le raisonnement de Searle part de l'hypothèse que la sémantique ne se réduit pas à la syntaxe, ce que contestent les partisans de l'IA forte, pour qui le sens peut être une propriété émergente du traitement répétitif de l'information (dans les programmes informatiques ou les systèmes vivants).

« Il est possible d'assigner une transcription informatique au fonctionnement du cerveau comme à n'importe quoi d'autre », dit Searle. « Supposons que cette porte soit égale 0 quand elle est ouverte, et 1 quand elle est fermée. On a là un ordinateur rudimentaire. Cet argument est plus puissant que le premier mais plus difficile à comprendre. »[réf. nécessaire]

Considérations finales[modifier | modifier le code]

L'argument de Searle rappelle utilement que l'opérateur humain de son système ne comprend à aucun moment le chinois, de même qu'aucun de nos neurones ne comprend à lui seul une équation différentielle (même s'il est mis ponctuellement à contribution pour son calcul), ou que Deep Blue, aussi bon joueur soit-il pour nous, ne sait même pas qu'il joue aux échecs.

C'est la redécouverte d'une notion déjà formalisée dans différentes disciplines. En psychophysique, la théorie Gestalt suggère que "le tout possède parfois des propriétés qui n'existent dans aucune de ses parties". En sciences cognitives, on parle du principe d'émergence. Et Richard Buckminster Fuller propose le concept de synergie : par l'organisation même de ses composants, un système acquiert des propriétés qui ne sont présentes dans aucun des composants en question pris en tant que tel. Le système contient par son organisation ce qu'Henri Laborit ou Bertrand de Jouvenel nomment de l'information ajoutée. L'homme ne comprend pas le chinois, la chambre non plus, mais le système "homme + chambre" le comprend bel et bien, puisque se montrant capable de le traduire.

Notes et références[modifier | modifier le code]

  1. Entretien dans la revue Le Débat, mars 2000, No 109

Voir aussi[modifier | modifier le code]

Articles connexes[modifier | modifier le code]

Liens externes[modifier | modifier le code]