Chambre chinoise

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher
ChineseRoom2009 CRset.jpg

Le terme de chambre chinoise désigne une expérience de pensée imaginée par John Searle vers 1980[1]. Searle se demandait si un programme informatique, si complexe soit-il, serait suffisant pour donner un esprit à un système.

Principe[modifier | modifier le code]

Dans cette expérience de pensée, Searle imagine une personne qui n’a aucune connaissance du chinois (en l’occurrence, lui-même) enfermée dans une chambre. On met à disposition de cette personne un catalogue de règles permettant de transformer des phrases en chinois en d’autres phrases dans la même langue. Ces règles sont formulées en anglais. Leur application se base uniquement sur la syntaxe des phrases. Une phrase d’une certaine forme syntaxique est corrélée avec une phrase d’une autre forme syntaxique. La personne enfermée dans la chambre reçoit donc des phrases écrites en chinois et, en appliquant les règles qu’elle a à sa disposition, elle produit d’autres phrases en chinois qui constituent en fait des réponses à des questions posées par une personne située à l’extérieur de la chambre. Du point de vue du locuteur chinois qui pose les questions, la personne enfermée dans la chambre se comporte comme un individu qui parle sa langue. Mais, en l’occurrence, elle n’a aucune compréhension de la signification des phrases en chinois qu’elle transforme.

En poursuivant ironiquement la procédure du test de Turing, test censé démontrer qu'un programme informatique sophistiqué peut être qualifié d'intelligent, Searle imagine que le programme déterminant les réponses qui sont données à l'interlocuteur chinois devient si sophistiqué, et la personne anglophone qui répond aux questions devient si habile dans la manipulation des symboles, qu'à la fin de l'expérience, les réponses qu'elle donne aux questions ne peuvent être distinguées de celles que donnerait un locuteur chinois de langue maternelle, bien que Searle, la personne qu'on imagine enfermée dans la chambre, ne comprenne toujours pas un mot de chinois !

Cette expérience de pensée montre qu'il ne suffit pas d'être capable de reproduire exactement les comportements linguistiques d'un locuteur chinois pour parler chinois, car parler le chinois, ou n'importe quelle autre langue, ce n'est pas juste dire les bonnes choses au bon moment, c'est aussi signifier ou vouloir dire ce qu'on dit : un usage maîtrisé du langage se double ainsi d'une conscience du sens de ce qu'on dit (conscience intentionnelle) et la reproduction artificielle, même parfaite, d'un comportement linguistique ne suffit pas à produire une telle conscience.

La découverte du problème[modifier | modifier le code]

Searle résume les motivations qui l'ont conduit à concevoir son expérience de pensée de la façon suivante :

« Je ne connaissais rien [en 1971] à l'intelligence artificielle. J'ai acheté un manuel au hasard, dont la démarche argumentative m'a sidéré par sa faiblesse. Je ne savais pas alors que ce livre allait marquer un tournant dans ma vie. Il expliquait comment un ordinateur pouvait comprendre le langage. L'argument était qu'on pouvait raconter une histoire à un ordinateur et qu'il était capable ensuite de répondre à des questions relatives à cette histoire bien que les réponses ne soient pas expressément données dans le récit. L'histoire était la suivante : un homme va au restaurant, commande un hamburger, on lui sert un hamburger carbonisé, l'homme s'en va sans payer. On demande à l'ordinateur : “A-t-il mangé le hamburger ?”. Il répond par la négative. Les auteurs étaient très contents de ce résultat, qui était censé prouver que l'ordinateur possédait les mêmes capacités de compréhension que nous. C'est à ce moment-là que j'ai conçu l'argument de la chambre chinoise[2]. »

Un argument contre les conceptions fonctionnalistes de l'esprit[modifier | modifier le code]

Searle oppose son expérience de pensée d'abord aux défenseurs de la thèse de l'intelligence artificielle "forte", thèse défendue la première fois dans les années cinquante par Alan Turing (cf. test de Turing) et consistant à reconnaitre l'existence d'un esprit chez un interlocuteur (personne ou machine) sur la seule base de son comportement linguistique. Plus largement, Searle s'oppose aux conceptions fonctionnalistes de l'esprit qui le définissent en termes de fonctions biologiques ou physiques sans tenir compte des aspects subjectifs de l'expérience. Ces fonctions sont conçues habituellement par les fonctionnalistes (notamment chez H. Putnam et J. Fodor) de façon abstraite, indépendamment du support physique sur lequel elles se réalisent. Dès lors, de même qu'il est possible de reproduire artificiellement les fonctions d'un cœur, il serait possible de reproduire artificiellement les fonctions intellectuelles et sensorielles du cerveau à l'aide de n'importe quel support adapté. Dans la version computationnaliste du fonctionnalisme, une production de pensée est même parfaitement envisageable avec un programme informatique approprié. Or, l'expérience de la chambre chinoise montre qu'on peut imaginer un système automatique par définition sans esprit et pourtant indiscernable, d’un point de vue fonctionnel, d’un être humain possédant une intentionnalité. La reproduction artificielle d'un comportement qu'on pourrait décrire comme intentionnel ne suffit donc pas à produire un esprit, c'est-à-dire, une conscience intentionnelle.

Notes et références[modifier | modifier le code]

  1. J.R Searle, “Minds, Brains and programs”, The Behavioral and Brain Sciences, vol. 3, Cambridge University Press, 1980, tr. fr. “Esprits, cerveaux et programmes”, in D. Hofstadter, D. Dennett, Vues de l’Esprit, Paris, Interéditions, 1987, p. 354-373
  2. Entretien dans la revue Le Débat, mars 2000, No 109

Voir aussi[modifier | modifier le code]

Articles connexes[modifier | modifier le code]

Liens externes[modifier | modifier le code]