Computationnalisme

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher
Le cerveau humain, simple machine à effectuer des calculs ?

Le computationnalisme est une théorie fonctionnaliste en philosophie de l'esprit qui, pour des raisons méthodologiques, conçoit l'esprit comme un système de traitement de l'information et compare la pensée à un calcul (en anglais, computation[1]) et, plus précisément, à l'application d'un système de règles. Par computationnalisme, on entend la théorie développée en particulier par Hilary Putnam et Jerry Fodor[2], et non le cognitivisme en général.

Le terme a été proposé par Hilary Putnam en 1961, et développé par Jerry Fodor dans les années 1960 et 1970[2]. Cette approche a été popularisée dans les années 1980, en partie parce qu'elle répondait à la conception chomskyenne du langage comme application de règles, et aussi parce que ce modèle computationnaliste était présupposé, selon Fodor, par les sciences cognitives et les recherches sur l'intelligence artificielle.

En anglais, la computation se réfère à la calculabilité, c'est-à-dire au fait de passer d'une entrée à une sortie par le biais d'un algorithme déterminé. Le computationnalisme n'est pas une thèse ontologique sur la nature de l'esprit : il ne prétend pas que toute pensée se réduit à un calcul de ce style, mais qu'il est possible d'appréhender certaines fonctions de la pensée selon ce modèle, qu'elles soient conscientes ou infraconscientes (par exemple les processus de vision, selon l'approche des neurosciences computationnelles développé par David Marr au début des années 1980[2]).

En termes de doctrine, le computationnalisme peut être caractérisé comme une synthèse entre le réalisme intentionnel et le physicalisme[2]. Le premier affirme l'existence et la causalité des états mentaux, et prend en compte les attitudes propositionnelles, c'est-à-dire la manière dont le sujet se comporte à l'égard d'une proposition (« je crois que x », « je pense que p », etc.). Le second affirme que toute entité existante est une entité physique. Le computationnalisme se présentait ainsi comme alternative à l'éliminativisme matérialiste, qui refusait l'existence de toute entité mentale[2]. Deux noyaux théoriques ont aussi été essentiels à la formation de la théorie computationnaliste : d'une part, le formalisme mathématique développé au début du XXe siècle, qui permet en gros de concevoir les mathématiques comme la manipulation de symboles à partir de règles formelles (axiomatique d'Hilbert) ; d'autre part, la calculabilité (et la machine de Turing). À l'aide de ces deux ensembles théoriques, on peut passer du noyau sémantique à la simple syntaxe mathématique, et de celle-ci à l'automatisation, sans jamais nier l'existence de la sémantique (c'est-à-dire du sens).

Le computationnalisme a été la cible de diverses critiques, en particulier de John Searle, Hubert Dreyfus, ou Roger Penrose, qui tournaient toutes autour de la réduction de la pensée et/ou de la compréhension à la simple application d'un système de règles. À la fin des années 1980, il a été concurrencé par un nouveau modèle cognitif, le connexionnisme[2]. Celui-ci vise à montrer qu'on peut expliquer le langage de la pensée sans faire appel à un raisonnement gouverné par un système de règles, comme le fait le computationnalisme[2].

Combiner le réalisme intentionnel avec le physicalisme[modifier | modifier le code]

Outre l'analogie de la pensée avec la ratiocination (ou calcul), le fonctionnalisme est lié à une « théorie représentative de l'esprit »[2], qui stipule l'existence des attitudes propositionnelles : les croyances et les désirs sont ainsi une relation entre un sujet pensant et les représentations symboliques du contenu de ces états[2]. Ainsi, croire que le chat est sur le fauteuil, c'est adopter une attitude propositionnelle distincte (celle de la croyance) de l'attitude qui consiste à souhaiter que le chat soit sur le fauteuil ; dans les deux cas, la représentation symbolique mentale (« le chat sur le fauteuil ») conserve la même valeur sémantique, mais l'attitude propositionnelle (croire ou vouloir) diffère[2]. L'approche computationnaliste considère que les états mentaux sont des représentations, au sens où ils sont composés de représentations symboliques ayant des propriétés sémantiques et syntaxiques, à l'instar des symboles utilisés dans la calculabilité mathématique[2]. Il repose donc sur l'affirmation selon laquelle les attitudes propositionnelles impliquent des représentations symboliques[2]. En ceci, il s'oppose à l'éliminativisme matérialiste, qui dénie toute existence aux entités mentales[2].

La théorie de la représentation de Jerry Fodor, formulée dans sa conception du « mentalais » ou du langage de la pensée, se distingue toutefois des théories classiques de la représentation (Hobbes, Descartes, etc.) en ce que les représentations ne sont pas assimilées à des images, mais à des symboles[2],[3].

Outre cette théorie représentative, le computationnalisme soutient aussi une théorie causale des états mentaux : les états mentaux sont reliés entre eux par le principe de causalité[4]. Au cœur de cette théorie, on trouve ainsi la possibilité de formuler, sous forme exclusivement syntaxique, au sens mathématique du terme, le contenu sémantique des états mentaux, et ensuite de lier la syntaxe au principe de causalité.

En d'autres termes, on appréhende la pensée en tant que système de règles à appliquer. Cela pose un premier problème philosophique, dans la mesure où concevoir la pensée de cette façon peut conduire à confondre une régularité empirique, qui obéit à une règle, à l'application de cette règle[2]. Ou encore : ce n'est pas parce qu'un comportement est régulier qu'il obéit à une norme[2].

Cette théorie semble donc opérer un amalgame entre le concept de cause et celui de raison : comment penser que nos représentations mentales s'enchaînent uniquement sur un processus causal ? N'est-ce pas faire fi du caractère normatif qu'elles possèdent, et d'abord du fait que nous les évaluons en fonction d'un « standard de validité » (par exemple le critère de la vérité) [2]?

Formalisme et calculabilité : de la sémantique au mécanisme[modifier | modifier le code]

C'est par le biais, d'une part, du formalisme mathématique, développé à la fin du XIXe siècle par Gauss, Peano, Frege et Hilbert, et d'autre part de la calculabilité, que le computationnalisme traite ce problème[2]. En effet, le formalisme réussit, en élaborant une axiomatique, à exclure ou à codifier les intuitions sémantiques du mathématicien (par exemple l'intuition à la source du postulat sur la parallèle d'Euclide[2]). Le formalisme considère ainsi, en grossissant le trait, que les mathématiques existent en dehors de toute intention et de toute pensée. Ils fonctionnent à l'aide de symboles qui demandent à être manipulés selon des règles formelles.

Le deuxième aspect mathématique décisif dans la théorie computationnaliste, c'est la définition des fonctions calculables par Alan Turing, en 1936. En élaborant le modèle abstrait de la machine de Turing, celui-ci montrait que toute opération n'impliquant que des schémas syntaxiques pouvait être dupliqué mécaniquement[2]. On parle aussi de la thèse de Church-Turing[5].

Ainsi, la formalisation mathématique montre comment les propriétés sémantiques des symboles peuvent parfois être codés selon des règles syntaxiques, tandis que la machine de Turing montre comment la syntaxe peut être relié à un processus causal, qui permet de concevoir un mécanisme capable d'évaluer toute fonction formalisable. La formalisation relie la sémantique à la syntaxe, et la machine de Turing la syntaxe au mécanisme[2].

Le computationnalisme pouvait en outre s'appuyer sur la « révolution cognitiviste » opérée en linguistique par Chomsky[2]. La linguistique générative de Chomsky affirme ainsi qu'à partir d'un système de règles limité, nous pouvons comprendre une infinité d'énoncés ; ce qui implique, à son tour, que l'on peut concevoir une infinité de pensées[2]. Selon Jerry Fodor (1975), la compétence linguistique théorisée par Chomsky conduisait à postuler un langage de la pensée (« mentalais »)[2].

L'algorithme, transformation de l'input en output[modifier | modifier le code]

La théorie fonctionnaliste comporte ainsi trois types de spécifications :

  • les spécifications d’entrées (input), les spécifications qui stipulent le genre de choses qui causent les états mentaux chez les personnes ;
  • les spécifications des états internes qui décrivent les interactions causales des états mentaux ;
  • les spécifications de sorties (output) qui disent quels genres d’action ou de comportements sont causés par les états mentaux.
Article détaillé : Entrées-sorties.

On passe des input aux output par le biais d'un algorithme. C'est le principe de base d'une machine de Turing ou même d'une machine à compteurs, modèle abstrait de calculabilité qui est concrétisé, par exemple, par un distributeur de cannettes : celui-ci réagit aux inputs (on lui donne 50 centimes ou 1 euro), et, en fonction de ceux-ci, délivre la cannette ou attend plus de monnaie[4]. La calculabilité permet ainsi d'identifier la classe des fonctions informatiques pouvant être calculées à l'aide d'un algorithme. Ces fonctions sont des ensembles d'instructions réalisant une certaine tâche : on parle aussi parfois de « routine » (rote procedure).

Fonctionnalisme, matérialisme, physicalisme et le problème des qualia[modifier | modifier le code]

Dans cette mesure, le fonctionnalisme, selon Hilary Putnam (1992), n'est pas nécessairement un matérialisme : les états mentaux peuvent être accrochés à différents supports, que ce soit le cerveau ou le hardware et le software d'un ordinateur, ou tout autre support[4]. Sur la différence entre fonctionnalisme et matérialisme, et la possibilité d'adopter une théorie dualiste tout en maintenant le fonctionnalisme, Laberge (ibid.) cite Hilary Putnam, « La nature des états mentaux », in Les Études philosophiques, juillet/septembre 1992, p.323-335.</ref>. Ainsi, même si la pensée s'appuie sur un support matériel (le cerveau), on peut alors l'étudier sans se soucier de ce support (contrairement à une certaine approche matérialiste voire réductionniste courante dans les neurosciences) : une même idée peut en effet être exprimée sur des supports physiques très différents (par la voix, sur papier, sur un mur, sur un ordinateur, etc.) Toutefois, dans la mesure où le principe de causalité est le plus souvent associé à la matière, la plupart des fonctionnalistes sont aussi matérialistes[4].

Dans cette mesure, le fonctionnalisme s'apparente à un behaviorisme méthodologique : contrairement au behaviorisme ontologique, il n'affirme pas qu'il n'y a pas d'états mentaux. Mais, de même que le behaviorisme méthodologique, il laisse de côté les aspects subjectifs, qualitatifs, des états mentaux (ou qualia), c'est-à-dire l'ensemble des expériences subjectives qui peut faire l'objet, par exemple, d'un poème ou d'une déclaration amoureuse, ou du simple fait d'aimer telle couleur. On parle ainsi de « fonctionnalisme de la boîte noire »[4].

Toutefois, la thèse de Putnam a été attaquée par John Searle, l'un des critiques les plus importants du computationnalisme. Selon lui, non seulement il est impossible, comme le prétend Putnam, de concilier le fonctionnalisme avec un dualisme à propos des états mentaux et des états physiques (dualisme pensée/cerveau), mais la tentative même du computationnalisme de concilier l'intentionnalisme réalisme avec le physicalisme est voué à l'échec. En effet, « le fonctionnaliste insiste pour qu’on comprenne bien qu’il ne dit pas qu’une croyance est un état mental irréductible qui, en plus a les relations causales qui sont les siennes, mais plutôt qu’une croyance ne consiste qu’en ce qu’elle a ces relations causales[n 1] ».

L'hypothèse du mécanisme digital[modifier | modifier le code]

L'hypothèse du « mécanisme digital » a été développée par Bruno Marchal[5], en y adjoignant 2 hypothèses d'une autre nature [7]:

  • d'une part, la these de Church, pierre d'angle de l'informatique théorique,
  • d'autre part, ce qu'il appelle le realisme arithmétique,c'est-à-dire le fait que la verité arithmétique est intrinsèque, "d'une ontologie non substantielle", dixit Marchal.

C'est cette conjonction de 3 hypothèses que Bruno Marchal nomme "computationnalisme", mais qui n'est pas admise comme telle par tous les tenants du computationnalisme. Il s'agit en effet à la fois d'une thèse ontologique forte, selon laquelle la conscience pourrait survivre avec un cerveau artificiel (de même qu'elle survit avec un rein artificiel), et d'une thèse logique faible, dans la mesure où il faut pour cela une description d'un état instantané du cerveau et que Marchal ne pose aucune restriction sur celle-ci. En d'autres termes, il est possible qu'il faille connaître l'état quantique de tout l'univers pour obtenir une telle description adéquate du cerveau[5]. Les systèmes de téléportation utilisés par la science-fiction, et repris en tant qu'expérience de pensée sur le problème de l'identité personnelle (voir par ex. Derek Parfit, 1984), utiliseraient une telle hypothèse.

Critiques de l'hypothèse computationnaliste[modifier | modifier le code]

Diverses critiques ont été adressées à la théorie computationnaliste, qui tournent toutes autour de la question des règles. En effet, le computationnalisme postule qu'on peut assimiler la pensée à un système d'application de règles, ce qui permet en retour d'identifier des fonctions informatiques complexes comme étant un équivalent de pensée. Ces critiques ne sont pas forcément fatales au computationnalisme, mais en limitent l'extension à certains processus déterminés de pensée, qui pourraient être modalisés selon un système de règles.

Selon Antonio Damasio, la représentation computationnelle ne fait qu'entretenir la distinction ancienne entre corps et esprit[réf. souhaitée].

Qu'est-ce qui est calculable ?[modifier | modifier le code]

Une critique ancienne provient de John Lucas (1961), qui affirme que le théorème d'incomplétude de Gödel pose des problèmes insurmontables à l'analogie esprit/machine[8]. Cet argument a été développé par Roger Penrose, selon qui un mathématicien humain est capable de comprendre plus et de démontrer plus que ce qui est simplement calculable[2]. Cela a fait l'objet de nombreux débats (David Lewis, Solomon Feferman, etc[2].).

Un autre argument a été formulé par Hubert Dreyfus dans What Computers Can't Do (1972)[2]. Fin connaisseur de Heidegger et de la phénoménologie, Dreyfus souligne ainsi la différence centrale qui distingue le processus cognitif utilisé lorsqu'un novice apprend une compétence et lorsqu'un expert agit. Ainsi, un joueur d'échec débutant applique un système de règles (par exemple, avancer le pion de deux cases ou occuper le centre). Mais un champion d'échecs n'applique pas de règles : il « voit » le « coup juste »[2]. L'application de règles, au cœur du computationnalisme, serait ainsi le propre des processus cognitifs limités[2]. Il est difficile, en particulier, de transformer une compétence experte en algorithme, lorsque cette compétence tire ses ressources d'une connaissance générale étrangère au domaine du problème visé[2].

Les tentatives visant à construire des réseaux connectionnistes, ou celle de Rodney Brooks visant à construire une intelligence artificielle simple sur le modèle des insectes, sont une réponse partielle aux objections de Dreyfus[2]. Ce dernier considère en effet ces tentatives comme plus prometteuses, et pense que la théorie de Walter Freeman répond à certaines formulations de Merleau-Ponty à propos de l'apprentissage d'une compétence[2]. Il reste toutefois sceptique, considérant dans What Computers Still Can't Do (1992) qu'on ne fait que donner une chance, méritée, d'échouer, au connexionnisme[2].

Il faut toutefois souligner que, si la théorie computationnaliste a souvent été interprétée comme visant à rendre compte de l'ensemble, ou presque, des processus cognitifs, y compris les processus infraconscients tels que la vision (David Marr), selon Jerry Fodor (1984 et 2000), seuls les « raisonnements modulaires », par opposition aux « raisonnements globaux », sont susceptibles d'être appréhendés par ce modèle[2]. Dans The Mind Doesn't Work That Way (2000), Fodor affirme dès l'introduction qu'il n'avait jamais imaginé qu'on puisse interpréter sa théorie de façon à croire qu'elle rendrait compte de la pensée en général[2].

Peut-on assimiler calculabilité et compréhension ?[modifier | modifier le code]

Article détaillé : Chambre chinoise.

L'une des plus puissantes objections a été formulée par John Searle (1980), à travers l'expérience de pensée de la chambre chinoise, qui se veut une réponse au test de Turing. Il s'agit de se demander si la calculabilité (computation) peut suffire à expliquer la compréhension[2]. Par son test, Turing visait à substituer à la question « les machines peuvent-elles penser ? » la question de savoir si elles peuvent réussir un examen, appelé « jeu de l'imitation », dans lequel les personnes examinées doivent déterminer, sur le seul fondement des réponses qu'on leur donne, si leur interlocuteur invisible est une personne ou une machine (voir le programme ELIZA)[2].

Or, Searle affirme qu'on ne peut extrapoler de la réussite au test de Turing la possibilité de penser. L'expérience de la chambre chinoise est simple : il suffit d'imaginer qu'on enferme une personne dans une salle, et qu'il ne puisse communiquer à l'extérieur qu'à l'aide de symboles chinois, langue qu'il ne comprend pas. Un cahier stipulant certaines règles de manipulation de ces symboles lui est fourni. Il s'agit ainsi de l'équivalent du test de Turing : ce dispositif imite un ordinateur digital qui reçoit des input symboliques et les transforme en output symboliques à l'aide d'un système de règles, qui peuvent être appliquées à des informations non-sémantiques, qui seraient exclusivement syntaxiques ou symboliques[2]. Or, Searle conclut qu'on ne peut évidemment pas parler d'une compréhension, puisqu'on a stipulé dès le départ que la personne ne comprenait pas le chinois ; ce qui ne l'empêchait pas de communiquer adéquatement à l'aide du système de règles[2]. On ne peut donc que simuler la compétence linguistique par une machine, mais non pas la dupliquer[2].

Deux lignes de réponse ont été adressées à l'objection de Searle. Certains sont allés jusqu'à définir la compréhension en termes fonctionnalistes : puisque le dispositif de la Chambre chinoise fonctionne, il faut dire qu'il suffit à la compréhension[2]. L'autre type de réponse concède que Searle a raison, mais tente de complexifier le schéma en ajoutant de nouveaux traits, par exemple la possibilité d'apprendre de nouvelles règles, la faculté d'interagir avec son environnement, etc., qui permettrait de parler d'une compréhension véritable, et non d'une simple simulation[2]. Searle a alors adapté son argument pour prendre en compte ces nouvelles facultés, tout en continuant à nier qu'une machine ne puisse faire autre chose que simuler la compréhension[2].

L'alternative connexionniste[modifier | modifier le code]

Article détaillé : Connexionnisme.

À la fin des années 1980, l'approche connexioniste a commencé à concurrencer le computationnalisme, dont le principal titre de légitimité, selon Fodor, était qu'il était la seule théorie apte à rendre compte de l'évolution des sciences cognitives et des modèles implicites utilisés par celles-ci[2]. Le connexionnisme tente d'élaborer des modèles de compréhension des processus cognitifs qui ne passent pas par le simple usage et application de règles[2]. Précédé par quelques travaux innovateurs de Wiener et de Rosenblatt, l'approche connexionniste a surgi sur la scène philosophique avec la publication de l'ouvrage de Rumelhart et McClelland, Parallel Distributed Processing (1986)[9].

Techniquement, la différence entre les deux approches réside surtout dans le fait que la première est intrinsèquement séquentielle et la seconde fait une très grande part au parallélisme des opérations. Dans les deux cas sont bien entendu appliqués des systèmes de règles, sans quoi il ne resterait rien à étudier.

Donald Knuth suggère que le conscient est de nature séquentielle (nous ne pouvons analyser clairement qu'une chose à la fois) et l'inconscient de nature parallèle. Il y voit une raison du grand succès de la programmation chez les nerds, qui sont mal à l'aise face aux phénomènes ne relevant pas de la pure logique.

Notes et références[modifier | modifier le code]

Notes[modifier | modifier le code]

  1. Searle : « Aucune de ces causes et de ces effets ne doivent être conçus comme comportant un élément mental. Ce ne sont que des séquences physiques. Le fonctionnaliste insiste pour qu’on comprenne bien qu’il ne dit pas qu’une croyance est un état mental irréductible qui, en plus a les relations causales qui sont les siennes, mais plutôt qu’une croyance ne consiste qu’en ce qu’elle a ces relations causales. Une croyance peut consister en un paquet de stimulations neuronales, ou dans le niveau de tension électronique d’un ordinateur, ou encore dans la vase verte du Martien, ou quoi que ce soit d’autre, pourvue qu’elle fasse partie du bon schéma des relations de causes et d’effets. Une croyance, donc, ce n’est qu’une chose, un X, faisant partie du schème de relations causales, et elle est telle du fait qu’elle se situe à tel et tel endroit dans le schème de relations causales[6]. »

Références[modifier | modifier le code]

  1. Hobbes concevait la raison de cette façon : Léviathan, I, 5, « De la raison et de la science » : « Car la RAISON, en ce sens, n'est rien que le calcul (autrement dit l'addition et la soustraction) des conséquences des noms généraux acceptés pour consigner et signifier nos pensées. » Mais, contrairement à Jerry Fodor, Hobbes concevait le « discours mental » comme peuplé d'idées qui sont des images, et non des symboles.
  2. a, b, c, d, e, f, g, h, i, j, k, l, m, n, o, p, q, r, s, t, u, v, w, x, y, z, aa, ab, ac, ad, ae, af, ag, ah, ai, aj, ak, al, am, an, ao, ap, aq, ar et as Horst, Steven (2003, révisé en 2005), The Computational Theory of Mind, Stanford Encyclopedia of Philosophy.
  3. Introduction de Pascal Ludwig à l'anthologie GF Corpus, Le langage, Flammarion, 1997.
  4. a, b, c, d et e Jean Laberge, Le problème de la relation du corps et de l’esprit, IVe partie : Le fonctionnalisme, Cégep du Vieux Montréal.
  5. a, b et c Marchal, Bruno, L'hypothèse du computationnalisme et ses conséquences, introduction à sa thèse (la thèse complète est en ligne).
  6. John Searle, Consciousness & the Philosophers, New York Review of Books, 6 mars 1997. Cité par J. Laberge, art. cit.
  7. http://iridia.ulb.ac.be/~marchal/lillethesis/Rapport%20Grigorieff[1].pdf
  8. Lucas, J.R., (1961), « Minds, Machines, and Godel ». in Philosophy, 36: 112-127. Cité par Horst, S., art. cit. de la Stanford Encyclopedia.
  9. Rumelhart, David E., James McClelland, and the PDP Research Group. 1986. Parallel Distributed Processing: Explorations in the Microstructure of Cognition. Cambridge, Mass: MIT Press. Cité par Horst, art. cit.

Annexes[modifier | modifier le code]

Bibliographie[modifier | modifier le code]

Articles connexes[modifier | modifier le code]