Discussion:Chambre chinoise

Le contenu de la page n’est pas pris en charge dans d’autres langues.
Une page de Wikipédia, l'encyclopédie libre.
Autres discussions [liste]
  • Admissibilité
  • Neutralité
  • Droit d'auteur
  • Article de qualité
  • Bon article
  • Lumière sur
  • À faire
  • Archives
  • Commons

Sommaire ?[modifier le code]

Quelqu'un sait-il comment on fait réapparaître le sommaire en début d'article ? Il y en avait un qui apparaissait automatiquement tout à l'heure, et à la suite de mes retouches successives du texte, je vois qu'il a disparu. D'avance maarci ! François-Dominique 21 aoû 2004 à 06:09 (CEST)


«to explain means to explain away» n'est pas traduit. Une âme charitable et anglophone pourrait-elle traduire élégamment (à la suite de la citation originale, par exemple entre parenthèses) ? Gloumouth1 5 jul 2005 à 22:57 (CEST)

Ca n'est pas vraiment évident, mais j'ai essayé. Il est (comme souvent) impossible de traduire totalement l'expression (aussi bien la formulation, élégante, et l'idée). "explain away" est une expression relativement courante en anglais (ou américain) mais un peu de floue. away permet d'ajouter la notion d'éloignement ou d'absence, ce qui est assez différent. Je la traduis par "expliquer hors contexte". Cette expression française demeure aussi floue que l'originale. Par exemple, utiliser une équation mathématique en guise d'explication, on pourrait voir ça comme une explication en dehors de tout contexte (absence). Néanmoins, on pourra dire du professeur qui utilise une métaphore pour expliquer son équation devant l'air ahuri de ses étudiants qu'il "explain away". En l'occurence, il a changé de contexte (éloignement). Quelqu'un dont l'américain ou l'anglais est la langue maternelle serait à même de vérifier ce point de vue.--Tedjmol 28 mars 2006 à 11:42 (CEST)[répondre]

Oui, c'est une bonne expication. "To explain away" implique que la raison de une explication ignorer quelque chose important ou que l'explication n'est pas veritement sufficient pour explique un effet. J'espère que cette vous aide. 29 juin 2008 à 07:14 (CEST)

Ce n'est pas vraiment cela. To explain is to explain away est une expression de Daniel Dennett dans Consciousness Explained (La Conscience expliquée). Il y explique fort bien que si on "explique" la conscience en termes faisant intervenir... la conscience, alors on n'a rien expliqué du tout. Expliquer signifie ramener un mot dont on veut préciser le sens à d'autres mots dont le sens fait moins de doute, soit qu'on puisse les définir opérationnellement (nous sommes apparemment d'accord sur ce qu'est la douleur quand nous l'éprouvons), soit qu'on puisse articuler un raisonnement sans ambiguïté sur des termes déjà définis.
Il est clair par exemple que quand Gertrude Stein écrit Rose is a rose is a rose..., c'est peut-être de la belle musicalité poétique, mais ça ne prétend pas définir quoi que ce soit :-) 212.198.146.203 (d) 21 août 2008 à 23:11 (CEST)[répondre]

On parle de John Searle, de son expérience de pensée, et de son interprétation par lui-même. Il manque l'interprétation des défenseurs de la "théorie computationnelle de l'esprit". Car il me semble bien en effet que l'argument de Searle de clot pas le débat, loin de là !

Une piste : l'être humain qui applique les règles pour répondre à des requêtes en Chinois, sans comprendre le chinois, ne comprend certes pas plus le Java que l'ordinateur qui fait tourner une machine virtuelle Java (JVM) ne comprend ce langage. Pourtant, on pourrait affirmer que la machine virtuelle, elle-même, "comprend" (en un certain sens) le Java (mieux, en tout cas, que l'ordinateur qui la fait tourner). De manière analogue, l'homme qui a des instructions pour répondre en Chinois exécuterait une machine virtuelle, animerait un "esprit virtuel" qui lui "comprendrait" le Chinois. De là se dégagerait une espèce de "conscience", qui serait a priori distincte de LA conscience de l'homme en question (bien que dépendante, puisque "émulée").

Je n'ai pas de réferences bibliographique, mais il m'étonerait fortement qu'aucun penseur n'ait développé de thèse allant dans ce sens. J'en appelle aux contributions de ceux qui auraient ce morceau de culture qui me fait défaut !!! --Aldoo / 29 novembre 2005 à 16:50 (CET)[répondre]

Oups, c'était plus ou moins le point de vue expliqué en conclusion ;) (la synergie homme+chambre comprend le Chinois). Au temps pour moi !! --Aldoo / 29 novembre 2005 à 16:52 (CET)[répondre]


Sauf erreur de ma part, ce § est un essai personnel de Aldoo. Sans émettre aucun jugement de valeur sur la pertinence des arguments avancés, je pense qu'ils n'ont pas leur place sur Wikipédia. Un article peut relater un débat actif dans la communauté des chercheurs (références à l'appui), mais il ne doit en aucun cas devenir un lieu de débat entre contributeurs.
Merci de votre compréhension.
--Gloumouth1 3 juillet 2006 à 10:20 (CEST)[répondre]

Cela doit effectivement être une erreur de votre part ! Je ne me souviens pas avoir participé à cet article, mais seulement à sa discussion ! Sinon, donnez moi la date (je ne vois pas mon nom dans la première page de l'historique) ! Sans rancune.
--Aldoo / 5 juillet 2006 à 14:54 (CEST)[répondre]
Ah mais je comprends l'origine de votre confusion ! Quelqu'un avait répondu dans mon commentaire sans faire de nouveau paragraphe, et avant ma signature !!! Je vais remettre de l'ordre dans tout ça !
--Aldoo / 5 juillet 2006 à 14:59 (CEST)[répondre]
Voilà qui est fait !
--Aldoo / 5 juillet 2006 à 15:01 (CEST)[répondre]
Euh... en effet, je suis allé un peu vite. Il s'agissait de l'IP 90.4.25.122 qui avait effectué la contribution en question. Excusez pour le dérangement. Je vais essayer de joindre le contributeur.
Bonne soirée.
--Gloumouth1 5 juillet 2006 à 16:05 (CEST)[répondre]
Bonne continuation ! --Aldoo / 6 juillet 2006 à 11:41 (CEST)[répondre]
Je suis arrivé à contacter la personne, qui m'a dit avoir retiré d'elle-même le paragraphe.
--Gloumouth1 6 juillet 2006 à 12:30 (CEST)[répondre]

L'argument de Searle est dépassé. Voir les travaux du chercheur français Alain Cardon sur l'expression de signification par un système auto-adaptatif complexe en interaction avec son environnement. — Le message qui précède, non signé, a été déposé par l'IP 78.113.6.159 (discuter), le 07/09/2007

C'est un opinion et ne marche pas bien dans wikipedia. Citez votre sources et appendez ça. 29 juin 2008 à 07:18 (CEST) — Le message qui précède, non signé, a été déposé par l'IP 69.112.221.101 (discuter)

Il faudrait peut-être en dire davantage pour appuyer ce point de vue. Après tout, nous voyons arriver tous les ans dans les médias quelques originaux qui affirment qu'avant eux n'ont jamais été écrites que des conneries et qu'il était grand temps qu'ils arrivent. Le dernier en date était Claude Allègre mettant en doute le réchauffement climatique, domaine dont il n'est d'ailleurs nullement spécialiste; nous avons aussi quelques Langaney et quelques Jacquard - ce qui est plus heureux. Reste qu'une hirondelle ne fait pas le printemps et qu'une voix discordante ne saurait pas plus suffire à annuler un débat qu'un coup de dés à abolir le hasard. 212.198.146.203 (d) 21 août 2008 à 23:18 (CEST)[répondre]

cet article est incompréhensible (surtout à 23h), la version anglaise est bien mieux, plus explicite, plus détaillée et riche d'exemples. En clair j'ai cru que l'article français parlait d'autre chose.... Pour un minimum d'effort linguistique supplémentaire, je sais ce qu'est une chambre chinoise, ce qui n'aurait pas été le cas si je n'avais lu que l'article fr.--93.121.192.69 (d) 16 janvier 2009 à 00:50 (CET)[répondre]

Images de la chambre[modifier le code]

Sorry only English. Oder auch Deutsch. One of these two images might pep up the section "Le modèle de la chambre chinoise"

If you want to contact me, please use my English page. Regards, Paradoctor (d) 27 mai 2009 à 14:00 (CEST)[répondre]

"Il lui sembla fort difficile d'admettre que ce dispositif soit en quoi que ce soit comparable réellement au fonctionnement d'un cerveau et possède, selon l'expression d'Arthur Koestler, un fantôme dans la machine (ghost in the machine)"

C'est au philosophe Gilbert Ryle que l'on doit l'expression de fantôme dans la machine et non (du moins je n'en ai jamais entendu parler) à arthur Koestler. --Valrog 4 octobre 2010 à 16:12 (CEST)

Objection linguistique[modifier le code]

Il y a quelque-chose qui ne va pas dans ce paragraphe. L'expérience de pensée de Searle est présentée par celui-ci comme une démonstration par l'absurde, autrement dit Searle défend que l'expérience de pensée est absurde. Donc, les "objections" visent à montrer que l'expérience de pensée n'est en fait PAS absurde. Or, ce paragraphe défend l'idée que l'expérience de pensée est absurde, et donc va dans le sens de Searle et n'est donc pas une objection, et pourtant située dans le paragraphe "objection". Que dit exactement la source ? Quelle est-elle ? --Jean-Christophe BENOIST (discuter) 7 février 2016 à 11:57 (CET)[répondre]

Bonjour. Vous parlez du dernier paragraphe de la section je suppose. Je le trouve peu clair en effet et la référence à Umberto Eco inappropriée. Par contre, l'idée qu'on ne puisse pas produire des réponses adaptées à l'aide de simples règles syntaxiques (comme il est dit) constitue bien je crois une objection à l'argument de la Chambre Chinoise, puisque l'expérience de pensée de Searle suppose justement qu'il est possible de produire de telles réponses sans rien comprendre à ce que l'on dit. Il s'agit pour Searle de démonter la théorie computationnelle de l'esprit qui réduit selon lui la pensée à l'application de règles syntaxiques. Pour moi ça se tient. Mais il faudrait la source bien sûr, peut être dans Vues de l'esprit où apparait l'argument de Searle et qui est discuté je crois par Hofstadter. --Nadjiwill (discuter) 7 février 2016 à 12:30 (CET)[répondre]
"l'expérience de pensée de Searle suppose justement qu'il est possible de produire de telles réponses sans rien comprendre à ce que l'on dit", oui exactement comme une démonstration par l'absurde où on suppose que qqchose est vrai pour aboutir à une contradiction et donc, c'est que la supposition de départ est en fait fausse, et c'est ce que veut montrer au final Searle. En tout cas cette "objection" linguistique vise à dire que la chambre chinoise ne peut pas produire de conscience (en accord avec ce que dit Searle, donc est-ce une objection ?), et les autres "objections" de ce paragraphe visent à montrer que la chambre chinoise peut générer de la conscience. Donc il y a qqchose qui cloche de toutes manières, ce n'est pas cohérent. --Jean-Christophe BENOIST (discuter) 7 février 2016 à 12:47 (CET)[répondre]
Bon, prenons les choses dans l'ordre. 1) Ces remarques ont été faites par Hofstadter dans le texte où il critique Searle, probablement dans le volume suivant GEB, à savoir Vue de l'Esprit. Je m'en souviens avec précision, mais n'ait plus aucun des ouvrages disponibles chez moi. 2) Cela dit, la critique faite à Searle part dans deux directions en effet contradictoires : son argument est que la chambre chinoise prouve que le test de Turing ne démontre pas la conscience, puisque la chambre réagit comme si elle comprenait le chinois, alors que son opérateur l'ignore complètement. Les deux types de critiques sont alors a) qu'en effet, la chambre (considérée comme un système complet, opérateur + manuels) comprend le chinois ou b) que l'expérience est impossible, autrement dit que l'argument de Searle est vide : pour pouvoir ainsi parler le chinois, il faut bien plus que des règles de syntaxe. Après, je peux me tromper, mais il me semble que, de toute façon, les critiques de Searle sont bien plus nombreuses que ce qu'en dit notre article, voir par exemple WPen --Dfeldmann (discuter) 7 février 2016 à 14:09 (CET)[répondre]
b) est possible en effet, mais il faudrait alors expliciter en quoi c'est une objection, car - à première vue - cette "objection" va dans le sens de Searle, et dans le sens inverse des objections qui précèdent ! En effet, il y a d'avantages d'objections que ce qui apparait dans l'article, mais d'avantage aussi de supports ! --Jean-Christophe BENOIST (discuter) 7 février 2016 à 14:44 (CET)[répondre]
Complètement d'accord ici avec Dfeldmann. Les critiques de l'argument sont en effet très nombreuses (mais très peu sont traduites). Et il y a en effet deux types de critiques à bien distinguer : celles qui considèrent que l'application de règles syntaxiques (ou d'algorithmes) peut produire ce qu'on identifie comme la conscience (test de Turing); et celles qui considèrent qu'un tel système est impossible, ce qui ne va ni dans le sens de Searle, ni dans le sens de la théorie computationnelle de l'esprit qu'il critique. Tout ça est à développer c'est clair.--Nadjiwill (discuter) 7 février 2016 à 19:57 (CET)[répondre]
Je crois que nous sommes d'accord, et je vais reformuler encore autrement ce que tu viens de dire pour voir si nous comprenons la même chose. Searle - en tant que tenant de l'IA faible - prétendait 2 choses en même temps 1) Un ordinateur peut passer le test de Turing 2) Mais cet ordinateur ne "penserait" pas vraiment. Les critiques de Searle peuvent donc prendre deux directions : A) Critiquer le fait que on puisse dire 1) et 2) en même temps (tenants de l'IA forte qui pensent que l'ordinateur "penserait vraiment") B) Critiquer le fait qu'une chambre chinoise ne puisse jamais faire illusion (opposants à l'IA, qui pensent qu'un ordinateur ne peut passer le test de Turing, et ne peut penser vraiment). Pour rendre tout cela plus clair, il faut replacer les objections non pas comme des objections "à la chambre chinoise", mais plutôt comme des objections à l'IA faible (donc des objections à 1) + 2)), dans le cadre du test de Turing. --Jean-Christophe BENOIST (discuter) 7 février 2016 à 20:26 (CET)[répondre]
Oui c'est juste. D'ailleurs c'est Searle qui a établi le premier cette distinction entre IA faible et IA forte (selon ses dires en tout cas). Il accepte l'IA faible et rejette l'IA forte. La Chambre chinoise implique bien sûr la possibilité de l'IA faible, autrement dit la possibilité que la conscience soit simulée. Mais simuler n'est pas produire, et l'IA faible (simulation de la pensée) n'implique pas l'IA forte (production de la pensée). Malheureusement je ne connais pas ceux qui critiquent l'IA faible... Peut-être Hofsdadter est-il de ceux là --Nadjiwill (discuter) 7 février 2016 à 21:04 (CET)[répondre]
Ah non, Hofstadter est plutôt partisan de l'IA forte. Pour trouver des critiques de l'IA faible, il faut plutôt chercher du côté des créatifs (joueurs d'échecs (enfin, de go maintenant), compositeurs et peintres, etc.) qui déclarent au temps T : "jamais un ordinateur ne pourra faire A (seul l'esprit humain en est capable)" puis, au temps T+x, soit "L'ordinateur ne fait pas vraiment A, mais A', qui est bien plus facile" soit "certes, l'ordinateur peut faire A, mais jamais l'ordinateur ne pourra faire B"... Ceux-là, même si l'ordinateur passe le test de Turing, trouveront encore longtemps des défis impossibles genre "jamais l'ordinateur ne pourra composer une musique plus belle que celle de Mozart". Sinon, il y a une autre piste encore, c'est l'utilisation du théorème de Gödel pour prouver que l'ordinateur ne sera jamais aussi intelligent que l'humain (ça, c'est explicitement analysé et réfuté par Hofstadter). Mais on s'écarte de Searle, là...--Dfeldmann (discuter) 7 février 2016 à 21:16 (CET)[répondre]
J'avoue que je n'ai jamais réussi à bien saisir la pensée de Hofstadter, je vous fais donc confiance le concernant, d'autant que vous avez les compétences techniques pour en juger. Mais alors il y a quand même "embrouille" avec ce que vous nous dîtes, car on ne peut pas défendre l'IA forte et rejeter l'IA faible... Daniel Dennett, co-auteur de Vues de l'esprit avec Hofstadter, a quant à lui une position claire et nette sur la question : la distinction entre IA faible et IA forte n'a pas de sens. La Chambre chinoise produit bien de la conscience parce qu'elle se comporte exactement comme un être conscient (présupposé béhavioriste). Bref, un retour s'impose à la bibi, à la BU ou à sa biblio personnelle pour relire Vues de l'esprit (H & DD), La redécouverte de l'esprit (Searle), Le mystère de la conscience (Searle), La conscience expliquée (Daniel Dennett), The Langage of Thought (Jerry Fodor), etc. --Nadjiwill (discuter) 7 février 2016 à 22:39 (CET)[répondre]
Il me semble logique, quand on défend l'IA forte, de critiquer l'IA faible. C'est probablement la démarche d'Hofstadter. --Jean-Christophe BENOIST (discuter) 7 février 2016 à 22:51 (CET)[répondre]
On peut critiquer l'insuffisance de l'IA faible au profit de l'IA forte. Mais l'IA forte implique logiquement l'IA faible en tant que sa condition nécessaire (« si je suis vraiment conscient alors j'ai des comportements qui semblent conscients »). Je précise tout de suite que ça n'est pas mon point de vue, je me fais l'avocat de Searle puisqu'il s'agit ici de présenter sa position.--Nadjiwill (discuter) 7 février 2016 à 23:12 (CET)[répondre]
Je vois ce que tu veux dire, mais il y a une position ontologique dans l'IA faible, qui est celle se Searle, et qui est illustrée par la chambre chinoise, qui est que l'IA faible n'est pas une véritable conscience. Ceci est opposé et contradictoire avec l'IA forte, et il est donc logique que les tenants de l'IA forte critiquent Searle et l'IA faible.--Jean-Christophe BENOIST (discuter) 7 février 2016 à 23:46 (CET)[répondre]
Vu comme ça d'accord. Mais critiquer le principe même de l'IA faible (comme le ferait une conception dualiste de l'esprit par exemple), c'est à fortiori critiquer le principe de l'IA forte. Bon, cette discussion doit être l'occasion pour nous de nous replonger dans les textes en tout cas. --Nadjiwill (discuter) 8 février 2016 à 00:12 (CET)[répondre]

(Retour à gauche)Hum ; je dois mal me faire comprendre. Bon, repartons de Turing : le test dit en substance que si une machine a des comportements verbaux indiscernables d'un humain, elle est intelligente. Une telle "intelligence" (supposée exister ; rappelons qu'aucun programme n'a encore réussi le test, ou plus exactement la version calibrée du prix Loebner ; tant qu'on y est, l'article test de Turing contient beaucoup d'arguments supplémentaires permettant de mieux cerner la question) est (selon Searle) une IA faible : elle donne l'impression qu'elle est consciente et qu'elle pense. Mais (toujours selon Searle) ce n'est pas encore une IA forte, qui serait "vraiment" consciente. Turing avait déjà analysé ce genre d'objections, et le rôle de l'apologue de la chambre chinoise est de montrer (par l'absurde) que les arguments de Turing sont insuffisants. Parmi les réponses possibles, je n'envisageais que 1) affirmer que la chambre (supposée se comporter comme Searle le décrit) comprend le chinois, même si son opérateur ne le comprend pas ; Hofstadter, sur un sujet proche, imagine une colonie de fourmis intelligente, alors qu'aucune des fourmis ne l'est ; ou (ce qui est probablement incompatible avec 1) 2) affirmer que la chambre que Searle décrit est impossible, parce que les règles permettant de répondre en chinois à des questions en chinois ne sauraient être purement syntaxiques, autrement dit qu'un opérateur ne comprenant rien aux messages qu'il échange ne pourrait pas se comporter comme s'il parlait chinois (par exemple, un performatif tel que "attendez 30 secondes avant votre prochaine réponse" ne peut être traité ainsi). Quand au débat, il se complique au sens où il y a d'une part la croyance (ou non) à l'existence possible d'IA, d'autre part (et c'est effectivement la position de Hofstadter) la croyance qu'une IA seulement faible est impossible, autrement dit qu'un comportement simulant la conscience est nécessairement conscient. Voilà, j'espère avoir été assez clair cette fois...--Dfeldmann (discuter) 8 février 2016 à 00:59 (CET)[répondre]

Mais tout ceci n'est pas du tout incompatible avec ce que on a dit au dessus, voire redit la même chose en d'autres termes, et je suis d'accord avec ce qui tu viens de dire. Je ne comprends pas pourquoi tu dis que tu n'es pas compris ? --Jean-Christophe BENOIST (discuter) 8 février 2016 à 09:47 (CET)[répondre]
Parce que j'avais l'impression qu'il y avait confusion entre A "rejeter l'IA faible" = "un ordinateur ne pourra jamais simuler tous les comportements humains (sans même parler de les ressentir)" et B "rejeter l'IA faible" = "si un ordinateur simule (parfaitement) la conscience (IA faible), c'est qu'il est conscient (IA forte)". Mais si nous sommes d'accord, c'est parfait.
Par ailleurs, relisant les propos de Searle (en VF : l'histoire du hamburger), je réalise enfin que lui aussi considère qu'une syntaxe sans sémantique n'est qu'une simulation mécanique du langage. Mais je soupçonne qu'en 1971, les gens étaient influencés par des descriptions de la langue "à la Chomsky", et aussi par les prétentions à l'époque ridicules de l'IA, que ce soit pour la traduction automatique ou, plus absurde encore, pour des simulations de comportement à la Minsky ; ce que dit Searle, entre autre, c'est que ce genre d'automate (au sens de la théorie des automates) peut faire illusion, mais n'est pas conscient, et en particulier ne "comprend" pas ce qu'il fait. Pour une analyse des réalisations de l'époque, c'est assez juste, l'erreur serait d'en déduire une position philosophique forte, d'autant que le deep learning, par exemple, produit des simulations de la conscience (au sens de la possibilité de "réfléchir" sur la réflexion) où ce qui se passe "véritablement " dans les entrailles de la machine nous est aussi inaccessible que de tenter de localiser précisément la conscience dans le cerveau humain...--Dfeldmann (discuter) 8 février 2016 à 10:05 (CET)[répondre]
Les objections à Searle peuvent venir de ceux qui pensent A, et de ceux qui pensent B (j'ai rajouté les lettres dans ton propos). Il n'y a pas confusion dans le sens où ceux qui pensent A et ceux qui pensent B sont deux écoles de pensée différentes, qui s'opposent, mais qui se réunissent dans la critique de Searle ! (c'est pour cela qu'il est beaucoup critiqué). Donc, dans la section "objection", on peut s'attendre à avoir des critiques de ces deux obédiences (au moins). C'est toute la difficulté de cette section et d'où l'importance de dire ce qui est critiqué dans quel cadre philosophique, au delà de la critique brute en elle même. --Jean-Christophe BENOIST (discuter) 8 février 2016 à 11:05 (CET)[répondre]

Je n'ai pas été en mesure de retrouver cette objection dans "Vue de l'Esprit", dont je me suis procuré le pdf. C'est dans quel passage ? Il y a en effet toute une discussion (très intéressante) sur la chambre chinoise, mais qui reprends en fait l'"objection du système". De plus, pour reprendre mon incompréhension initiale, l'objection que la syntaxe ne peut engendrer de sémantique est aussi (surtout) une objection contre l'IA forte, et c'est exactement le discours de Searle que de dire que la syntaxe ne peut engendrer la sémantique ! Et qu'est-ce qui empêche la connaissance du monde d'être incluse dans les règles syntaxique ? Je ne comprends pas cet argument. --Jean-Christophe BENOIST (discuter) 9 février 2016 à 10:02 (CET)[répondre]

Je ne connais pour ma part que les arguments en faveur de l'IA forte (contre l'IA faible de Searle), comme l'"objection du système", d'autant qu'il semble qu'Hofsdadter aussi soit un partisan de l'IA forte si je suis Dfeldmann. Ce que Searle veut montrer avec l’argument de la chambre chinoise, c’est qu'il ne suffit pas d'avoir un équivalent humain fonctionnel, avec un comportement linguistique compréhensible (n'oublions pas que l'interlocuteur chinois comprend les réponses de l'opérateur), pour qu'il y ait un esprit ou une conscience intentionnelle. Les règles syntaxiques permettent certes de manipuler des symboles ou des signes de façon appropriée mais elles ne permettent pas de produire une signification avec une représentation du monde (sémantique). Il faut quelque chose de plus selon Searle pour que l'opérateur soit conscient de ce qu'il dit, et pour que les signes deviennent pour lui des représentations. Ce "plus", c'est la subjectivité, ou la conscience telle que nous en faisons l'expérience en première personne (first-person point of view). Pour Searle, la conscience n'est réductible ni à son fonctionnement tel qu'il est perçu de l'extérieur par un interlocuteur ou par un observateur, ni même à des états neurologiques (bien que ces états causent la conscience). De la même façon, le niveau sémantique des significations n'est pas réductible au niveau "syntactique" de la manipulation des signes--Nadjiwill (discuter) 9 février 2016 à 12:27 (CET)[répondre]
Mais tout à fait, je pense avoir compris l'argument de Searle, et je le comprends exactement comme tu viens de le dire (et d'ailleurs, pour dire mon POV, je suis de l'obédience Penrose, et je pense qu'une machine de Turing ne peut donner de l'IA forte). Ce que je ne comprends pas, c'est l'objection d'Hofstadter, qui - à première vue - est plutôt une objection contre l'IA forte, et qui va dans le même sens que Searle (et c'est un argument avec lequel je suis totalement d'accord, selon le POV que j'ai exprimé plus tôt, et donc c'est suspect, car je ne suis pas d'accord avec Hofstadter en général). En effet, la chambre chinoise ne peut pas fonctionner, exactement comme une machine de Turing ne peut pas fonctionner pour donner une IA forte (une chambre chinoise est une modélisation de machine de Turing). C'est pour cela que je recherche le passage dans le livre pour voir ce qu'il y a derrière. --Jean-Christophe BENOIST (discuter) 9 février 2016 à 13:46 (CET)[répondre]
Malheureusement il ne me reste plus que des souvenirs approximatifs de Vues de l'esprit... et j'ai le souvenir justement de ne pas avoir compris à l'époque la position d'Hofsdadter ;) Donc je ne peux pas t'aider ce sur ce point précis pour le moment.--Nadjiwill (discuter) 9 février 2016 à 14:24 (CET)[répondre]
Je n'ai pas le temps de commenter, mais j'ai beaucoup à dire. J'essaierai de faire ça ce soir (ou cette nuit). En attendant, juste un peu de grain à moudre. Supposons que vous ayez devant vous une machine qui passe sans problème le test de Turing (autrement dit, vous discutez avec elle pendant des heures, et la seule autre explication que vous pourriez trouver à ce qu'elle dit est que c'est en fait une marionnette télécommandée). Une fois cette option éliminée, quelle est votre position ? A) J'aurais juré que c'était impossible ; il va falloir que je repense à mes arguments pour essayer de trouver l'erreur' B) Je ne suis pas surpris (sauf que j'aurais juré qu'il aurait fallu des décennies pour que ça arrive), mais c'est seulement une simulation de conscience, pas la conscience véritable (IA faible) C) Même chose que B) et la machine est forcément consciente (IA forte) D) Je ne peux pas trancher entre B) et C), mais des gens plus compétents que moi le pourraient E) Je pense que B est différent de C, mais qu'on ne peut pas trancher de l'extérieur (dualisme) F) C'est impossible (autrement dit une telle machine ne pourra jamais être construite) parce que ... (et vos arguments sont essentiellement irréfutables, dans l'état actuel de vos connaissances : théories scientifiques bien connues comme la thermodynamique, positions religieuses, etc.) Je crois que j'ai fait le tour du problème, le plus évident étant une variante d'arguments solipsistes : comment peut-on prouver qu'un être humain (autre que soi-même) est conscient, et où est la différence avec une IA ?--Dfeldmann (discuter) 9 février 2016 à 16:02 (CET)[répondre]
Je pense que cela intéresserait tout le monde que l'on discute à ce sujet (moi en premier), mais il ne faut pas perdre de vue la question concernant l'article : que veut-dire Hofstadter dans cette objection, où exactement dans le bouquin, et en quoi est-ce une objection à Searle ? Dès que j'ai l'endroit dans la source, j'essaye de reformuler pour éclaircir tout cela.
Sinon pour moi, et pour Roger Penrose, qui n'est pas spécialement religieux ni pseudo-scientifique, c'est F. Et ses arguments sont réfutables, et d'ailleurs certains ne s'en privent pas (mais c'est le jeu quand on présente une théorie réfutable). Je pense que Alain Connes devrait être dans le même train, logiquement, enfin tous ceux qui croient au platonisme mathématique, au monde des idées, et que les machines de Turing n'ont aucun accès à cette réalité. Et d'ailleurs, une des critiques de la chambre chinoise s'effondre avec Penrose. En relisant Hofstadter, celui-ci mentionne l'objection de Pylyshyn (qui est très juste), qui dit que Searle ne dit pas ce qui disparait quand on remplace petit à petit les neurones d'un cerveau par un dispositif artificiel avec les mêmes input-output, et à quel moment le cerveau - conscient au départ - n'est plus conscient ou perd la conscience à mesure que le cerveau devient artificiel. La réponse à l'objection de Pylyshyn est : les processus quantiques propres à un cerveau biologique, absent des machines de Turing. Je vais rajouter d'ailleurs l'objection de Pylyshyn à l'article. --Jean-Christophe BENOIST (discuter) 9 février 2016 à 16:23 (CET)[répondre]
Ce sont des sujets de discussion passionnants, mais c'est vrai qu'on s'éloigne de l'objectif de l'article qui est de présenter de façon succincte les ressorts et les aboutissants de cette expérience de pensée. On pourrait échanger nos mails pour en discuter plus longuement.

Concernant l'objection de Pylyshyn, Searle imagine dans La redécouverte de l'esprit le scénario selon lequel les différentes unités physiologiques du cerveau (notamment les neurones) seraient successivement remplacées par des éléments en silicone : "Vous verrez qu'il est parfaitement concevable pour vous d'imaginer que votre comportement externe reste le même, mais que les processus internes de votre pensée consciente s'anéantisse graduellement. De l'extérieur, il semble aux observateurs que vous allez bien, mais de l'intérieur vous allez graduellement vers la mort." A ce stade ultime, la situation imaginée est celle où nous sommes mentalement morts, sans vie mentale consciente d'aucune sorte, alors que notre comportement externe obervable reste le même. Nous serions ainsi comme des zombies, mais avec le teint frais et la capacité de converser en plus. Ces zombies là peuvent-ils exister ? Pour Searle la réponse est négative, car il ne suffit pas que des éléments de silicone remplissent la bonne fonction pour qu'ils produisent à un niveau "émergent" la conscience et tout ce qu'elle implique (sens de la conversation et sens de l'humour par exemple).--Nadjiwill (discuter) 9 février 2016 à 23:56 (CET)[répondre]

Il reste à la résumer dans l'article, de manière moins romancée.. Émoticône --Jean-Christophe BENOIST (discuter) 10 février 2016 à 00:17 (CET)[répondre]

Sur la prétendue objection de Turing[modifier le code]

Jean-Christophe BENOIST (d · c · b), Dfeldmann (d · c · b), que pensez-vous de la prétendue nouvelle objection qui s'appuie sur une prétendue nouvelle source (une petite BD humoristique) formulée par un dessinateur nommé Zach Weiner et par... Turing lui-même ? (Par anticipation j'imagine) Je rappelle que son fameux test est de 30 ans antérieur à l'expérience de pensée de Searle, et que celle-ci ne consiste pas à montrer qu'on peut réussir le test de Turing avec un simple catalogue de règles syntaxiques (présupposé de l'objection), mais que la simulation de l'intelligence (IA faible) ne peut en aucun cas produire de l'intelligence sémantique (IA forte). Comme il a été dit dans une version antérieure de l'ajout, cette objection n'a jamais été formulée dans la « communauté philosophique », et on comprend pourquoi : elle relève d'un contre-sens manifeste. Cdt. --Nadjiwill (discuter) 3 novembre 2018 à 20:15 (CET)[répondre]

C'est assez embrouillé. Je pense en effet (c'est d'ailleurs ce que j'avais dit dans ma suppression) qu'on a affaire à un TI. Mais d'autre part, l'objection de base (je ne sais plus de qui elle est) reste que l'expérience de pensée est impossible, précisément parce que le chinois ne se résume pas à des règles syntaxiques qu'on pourrait appliquer sans aucune intelligence (ou plus précisément sans aucune connaissance du monde) ; le volume de ces règles est donc sans grande pertinence.--Dfeldmann (discuter) 3 novembre 2018 à 23:00 (CET)[répondre]

Réponse à propos de l'objection de Turing[modifier le code]

Bonjour,

Ce n'est pas moi qui ait rajouté l'objection sur le fait que l'existence d'un tel catalogue de règle syntaxique est une pétition de principe. Mais cette objection me parait pertinente ou en tous cas mérite d'être citée : en effet, les dialogues dans n'importe quelle langue étant de possibilités infinies (et donc n'ont même pas encore tous été dits), on ne sait même pas si un tel catalogue peut exister. Je n'ai pas eu le temps de faire de recherche bibliographique, mais je suis certain que si on cherche dans le domaine de la théorie de l'information (mathématiques) plutôt que seulement dans le domaine de la philosophie, on peut sans doute trouver des auteurs qui font la même objection à la chambre chinoise, et de manière mieux documentée. En bref : pour l'instant, il me semble qu'il faut la laisser.

Mais c'est moi qui ait rajouté l'objection "rétroactive" que Turing avait lui-même anticipé dès son article de 1950. J'ai modifié plusieurs fois mon ajout de paragraphe afin d'être le plus précis et le plus court possible. Mais il m'a semblé important de signaler que Turing lui-même, dans la section 7 de son article, avait déjà anticipé l'éventuelle objection de la chambre chinoise (qui ne s'appelait pas comme tel à l'époque, bien entendu). Sa réponse n'est pas philosophique, mais technique. Cependant, elle reste très pertinente. Il me semble que ne pas le mentionner serait un manque énorme dans la liste des objections. Il est vrai que la communauté philosophique ne s'était pas intéressé à cet argument car il est davantage d'ordre technique, et aussi parce que Turing l'avait rédigé de façon davantage "technique", de sorte que les informaticiens et les mathématiciens l'avaient remarqué, mais pas les philosophes. Cependant, il me semble qu'il doit faire partie de cette page, afin qu'elle soit complète. Relisez bien l'article de Turing : vous comprendrez que ma contribution n'est pas hors-sujet ni une incompréhension des arguments de Serale (sauf que cette section 7 de l'article de Turing est "hardue" à lire et a été souvent éludée).

G. Limousin (désolé, pas encore de compte wikipedia créé : c'est la première fois que je contribue).

Bon, on va arrêter là. C'est un TI (autrement dit c'est votre lecture, et comme vous le dites vous-même, l'article est dur à lire, et il n'est nullement évident que vous l'avez lu correctement), mais surtout c'est absolument hors sujet : Chomsky, pour ne prendre que lui, a défendu la thèse (sur laquelle au demeurant se base Searle) selon laquelle toutes les phrases (en nombre infini) d'une langue peuvent être produites par un ensemble fini et assez court de règles (dont il a donné des exemples assez complets pour l'anglais). La question, c'est qu'un tel ensemble de règles appliqués mécaniquement ne saurait remplacer une véritable intelligence de la langue ... ou peut-être que si, du moins si l'ensemble de règles était assez complet pour pouvoir tromper un locuteur natif.--Dfeldmann (discuter) 5 novembre 2018 à 20:32 (CET)[répondre]
G. Limousin, sur Wikipédia, chaque point litigieux doit être correctement sourcé ou faire l’objet d’un large consensus, ce qui n’est manifestement pas le cas de cette objection. Par rapport au contenu même de l’objection, là où je pense qu’il y a contre-sens, c’est que la question pertinente posée par Searle n’est pas de savoir si la chambre chinoise est une expérience de pensée techniquement réalisable (il y a fort à parier que lui-même ne la pense pas réalisable en pratique) mais de savoir si, dans le cas où elle serait réalisée, la « chambre », incluant l’opérateur et le catalogue de règles (métaphore de la machine et de son programme) comprendrait ce qu’elle dit. Searle répond par la négative à cette question. Il s’agit d’une expérience de pensée philosophique, Searle étant philosophe, pas d’une expérience de pensée scientifique. Cordialement.--Nadjiwill (discuter) 6 novembre 2018 à 17:26 (CET)[répondre]

réponse aux dernières remarques[modifier le code]

OK, je me "couche". Si vous pensez que je n'ai pas suffisamment bien compris ce que voulait dire Turing dans la section 7 de son article, ou si vous pensez que c'est hors-sujet, alors supprimez mes modifications. Car mon objectif était de contribuer de façon objective et éclairée afin d'améliorer Wikipedia, pas de donner mon avis personnel ni de transformer une page wikipedia en forum de discussion... Mais avant de décider défintivement de supprimer le paragraphe que j'ai ajouté, veuillez par exemple regarder attentivement la vidéo suivante, qui est bien sourcée : https://www.youtube.com/watch?v=d4vfMgWG-Jw Vous vous ferez votre propre opinion, mais peut-être mieux éclairée, sur le paragraphe que j'ai ajouté (est-il une interprétation personnelle, ou une réelle contribution précise et objective ?). Je précise que ce youtuber n'est pas un "farfelu" parmi tant d'autre : il est lui-même un chercheur en mathématiques, en théorie de l'information, et en IA. Et la réfléxion qu'il cite peut facilement être sourçable en faisant une recherche dans les articles en théorie de l'information (je ne suis pas suffisamment expert pour cela, mais à mon avis c'est faisable de trouver plusieurs objections bien sourcées, par des articles académiques, à l'expérience de la chambre chinoise, en cherchant ailleurs que seulement en philosophie). Enfin, je trouve dommage de ne citer nulle part l'article de Turing dans lequel il décrit son test, même si, certes, la page renvoie à celle du test de Turing, qui, elle, cite l'article.

(et désolé, mais je ne parviens pas à créer une réponse dans le "fil de discussion" : je ne réussis à répondre qu'en créant un nouveau paragraphe de discussion : je suis novice sur Wikipedia).

Je m'en remets à votre jugement de contributeurs. Bref : n'hésitez pas à supprimer mes modifications, si malgré tout cela vous pensez que mes ajouts sont hors-sujet ou seulement une interprétation personnelle.

G. Limousin.