Histoire de la connaissance du cerveau

Un article de Wikipédia, l'encyclopédie libre.

L'histoire de la connaissance du cerveau est la branche de l'histoire des neurosciences qui retrace l'évolution dans le temps de l'ensemble du savoir scientifique concernant spécifiquement cet organe. Pendant des millénaires, le lieu même de la pensée et des émotions a fait l'objet de débats, de même que le lien entre le cerveau humain et les autres organes ou parties du corps, que ce soit dans son fonctionnement normal ou dans ses états pathologiques.

Antiquité[modifier | modifier le code]

La conception antique de la fonction cérébrale se résume globalement en deux théories : le cardiocentrisme, théorie cardiocentriste d'Aristote selon laquelle le cœur, organe chaud et sec, est le siège des facultés mentales ; et le cérébrocentrisme (ou céphalocentrisme), théorie céphalocentriste de Platon et plus tard de Galien selon laquelle ces facultés mentales sont localisées dans le cerveau[1].

Aristote (cœur)[modifier | modifier le code]

Pendant des millénaires, on croyait communément que le siège de l'activité mentale était situé au centre du corps humain, dans le cœur. Aristote défendait ce point de vue contre Hippocrate par exemple, qui pensait déjà que les pensées, les sentiments et les émotions étaient gouvernées par le cerveau. La vision d'Aristote, que nous savons aujourd'hui infondée, est restée pendant longtemps la plus vision répandue (peut-être en raison des manifestations de tachycardie que l'on retrouve lors d'émotions intenses et qui contrastent avec l'absence de sensibilité absolue du cerveau) et se retrouve dans certaines expressions courantes comme par exemple « Tu me brises le cœur », « Avoir un cœur de pierre », ou encore « Apprendre par cœur».

Aristote ne voit ainsi dans le cerveau qu'une sorte de radiateur. Justifions cependant son erreur par quelques considérations anatomiques :

  • le cerveau est effectivement un des organes les mieux vascularisés du corps humain ;
  • mis à nu, le cerveau semble beaucoup moins sensible que le cœur aux stimulations mécaniques.

Cerveau[modifier | modifier le code]

Il a fallu une véritable révolution philosophique et scientifique pour mener à l'idée du cerveau comme centre des pensées, comme par exemple avec Platon qui sépare l'âme en trois parties dont l'une, immortelle, se situe dans la tête. La révolution scientifique, qui s'accompagne de la connaissance de l'anatomie humaine avec Hippocrate, Hérophile et Érasistrate, aide les médecins à accepter l'idée qu'un dégât au niveau du cerveau puisse avoir des conséquences au niveau d'autres organes. Cette connaissance scientifique reste cependant très limitée. Hippocrate écrit par exemple : « le cerveau est semblable à une glande... blanc, friable comme celle-ci ». Et Hérophile, bien qu'il participe grandement à l'accroissement de la connaissance de l'anatomie du cerveau, resta persuadé que toutes les affections du corps humain provenaient exclusivement de problèmes dus à des déséquilibres d' « humeurs ».

Après les travaux expérimentaux de Galien, il n'était déjà plus possible de douter que le siège de l'«âme dirigeante» était dans le cerveau. Plus tard, d'autres personnes, comme Augustin d'Hippone (354-430), sans remettre en cause le caractère central du cerveau au détriment du cœur, place bien l'esprit au sein du cerveau mais au sein des espaces vides dont l'anatomie a révélé l'existence au sein du cerveau : les ventricules. Ces dernières structures ont été décrites dès le IIe siècle par Galien. Nemesius, au Ve siècle, attribue à chacun d'entre eux une fonction spécifique : l'imagination et les sensations à la partie antérieure, la réflexion à la partie médiane et la mémoire à la partie postérieure[2].

La vraie nature du cerveau et de ses relations avec les autres organes n'est donc pas encore comprise. Cependant la connaissance anatomique du cerveau a grandement progressé au cours de l'Antiquité.

Du XVIIe siècle à la première moitié du XIXe siècle[modifier | modifier le code]

Une carte morphologique du cerveau publiée dans le Modern English-English Dictionary

Il faudra attendre le XVIIe siècle en Europe pour dépasser le niveau de connaissance de l'Antiquité, grâce à l'essor des dissections à partir des XVIe-XVIIe siècles. Cependant ces siècles voient peu d'avancées significatives, bien qu'ils soient riches en débats pour expliquer la spécificité de l'esprit humain et malgré le renouveau des études anatomiques à partir du XVIe siècle.

Descartes pensait que l'âme pouvait uniquement être associée à une substance pensante (res cogitans) radicalement distincte de la matière qualifiée de substance étendue (res extensa). Au contraire, dans L'Homme-machine en 1748, La Mettrie dénie la nécessité d'un recours à un pont entre esprit et matière (la glande pinéale selon Descartes). En effet, pour lui le corps doit être considéré comme une machine dans laquelle le cerveau est l'organe où se manifeste ce qu'on appelle l'âme.

Les avancées suivantes eurent lieu au début du XIXe siècle avec les succès de la phrénologie, confirmant que le cerveau est le centre actif de toute connaissance et émotion : au XVIIIe siècle, le neurologue François Joseph Gall émet une théorie, aujourd'hui dépassée, sur la localisation des fonctions cérébrales dans le cerveau (phrénologie). Par la suite dans la première moitié du XIXe siècle, François Broussais enseigne cette théorie, après en avoir imaginé une autre sur les relations entre « vie » et « stimulus » ainsi que sur l'interdépendance (ou « sympathies ») des divers organes. Ces théories eurent une influence sur Auguste Comte, qui publia un tableau cérébral dans son Système de politique positive (1851).

Les recherches sur les localisations cérébrales opposent les partisans de la phrénologie (Gall, Broussais) à ceux d'une vision unitaire de l'activité du cerveau (Flourens). Entachée de thèses parfois fantaisistes, comme « la bosse des mathématiques » par exemple, la phrénologie inspire néanmoins les premières localisations de certaines fonctions au niveau du cortex et, en premier lieu, les recherches de Broca sur les aires cérébrales responsables du langage. Selon Gall, le cerveau est une collection de 27 aires correspondant à des activités mentales telles que la couleur, le son, le langage, l'honneur, l'amitié, l'art, la philosophie, le vol, le meurtre, l'humilité, la fierté et la socialisation.

Au tournant du XXe siècle[modifier | modifier le code]

Dès la fin du XIXe siècle, presque tous les développements de la révolution scientifique donnent lieu à application dans l'étude du système nerveux central. Les progrès de l'électromagnétisme, de la chimie organique, de la microscopie... offrent de nouveaux instruments à l'étude du cerveau et permettent de renouveler les méthodes de recherche qui reposent jusqu'alors uniquement sur l'anatomie descriptive.

Une étape cruciale est franchie avec la mise en évidence des cellules du système nerveux (que l'on appellera neurones) par Golgi et Cajal, grâce à une nouvelle technique de coloration qui permet également des études successives sur la forme, les propriétés, les fonctions et les connexions des neurones : Sherrington décrit le fonctionnement des systèmes réflexes, Sperry montre que les parties droite et gauche du cerveau sont impliquées différemment dans ses fonctions et Penfield établit une carte des localisations de la sensibilité somatique dans le cortex cérébral.

Au début du XXe siècle, il apparaît rapidement qu'il y a encore beaucoup à apprendre sur la manière dont le cerveau supervise le langage, faculté spécifique à l'être humain. Dès 1906, Sherrington (prix Nobel en 1932) décrit le mécanisme corps-cerveau comme un mécanisme complexe, contrôlé par des boucles rétroactives. La rétroaction, écrit Sherrington, permet au cerveau d'évaluer la nature de toute une gamme de stimuli et de produire la réponse appropriée. Dans le même temps, Santiago Ramon y Cajal étudie la structure cellulaire du cerveau. Il découvre ainsi que les cellules nerveuses, baptisées « neurones » par Waldeyer, constituent les unités fonctionnelles de base du système nerveux et transmettent l'influx nerveux sans jamais se toucher. Cette découverte lui permet d'élaborer la théorie du neurone en 1891. On démontrera plus tard que l'influx nerveux passe d'un neurone à l'autre en traversant la synapse à l'aide de neurotransmetteurs.

De 1930 à 1950, le canadien Wilder Penfield fait considérablement évoluer les connaissances sur les localisations cérébrales. Il réalise des stimulations électriques directes du cortex (au cours d'interventions chirurgicales) et répertorie méticuleusement les réponses aux stimuli. Il résume ses expériences sous forme d'homonculus moteur et sensoriel.

Au tournant du XXIe siècle[modifier | modifier le code]

Le XXe siècle voit les neurosciences induire une progressive naturalisation des objets de la philosophie de l'esprit (perception, langage, émotions, intelligence). Ainsi, l'approche neurophysiologique obtient des résultats remarquables dans l'étude du rêve (Jouvet) et des structures qui en sont responsables. À partir de cette jonction se constitue le champ des sciences cognitives qui feront bientôt appel également aux modèles mathématiques et cybernétiques, tout en prenant en compte le rôle essentiel des émotions (Damasio)[3] et de l'environnement (théories de la sélection neuronale de Changeux; darwinisme neuronal d'Edelman).

Renforcées par des techniques expérimentales toujours plus puissantes (microélectrodes, électroencéphalographies, radiographie X, caméra à positons et IRM) et enrichies d'un faisceau de disciplines complémentaires (neurobiologie, neuropsychologie, physico-chimie, génétique, embryologie...), les neurosciences abordent maintenant la description de ce qui fait la conscience de soi et la connexion entre conscient et inconscient.

Depuis son origine, la recherche sur le cerveau a connu principalement trois phases : phase philosophique, phase expérimentale et phase théorique. La prochaine phase a été annoncée comme une phase de simulation ― le futur des neurosciences[4].

Évolution des représentations du cerveau dans la seconde moitié du XXe siècle[modifier | modifier le code]

Ce qui suit rend compte des thèses du Prof. Dr. Michael Hagner présentées à Goettingue, le lors d'une conférence intitulée "Ikonophilie und Ikonophobie in der Hirnforschung"

En faisant une étude des illustrations des livres scientifiques sur le cerveau, on constate une forte évolution au cours de la seconde moitié du XXe siècle. On pourrait dire que les scientifiques travaillant sur le cerveau sont passés d'une « iconophobie » à une « iconophilie ».

Iconophobie de la cybernétique[modifier | modifier le code]

Après la Seconde Guerre mondiale, la cybernétique est le paradigme dominant pour l'étude du cerveau.

On considère que le cerveau est équivalent à une machine à calculer. On est alors au début de l'émergence de l'informatique, et beaucoup de travaux théoriques s'accumulent pour montrer comment, avec des opérations logiques basiques, on peut résoudre des problèmes complexes. Par analogie, on considère que, n'importe comment, le cerveau réalise des opérations logiques du même type que celle que l'on était en train de mettre au point pour les ordinateurs. La recherche sur le cerveau va alors se contenter de représenter les circuits logiques supposés être sous-jacents au fonctionnement du cerveau. Les représentations anatomiques sont absentes, ou bien simplifiées. Par exemple, le célèbre livre de John von Neumann, « The computer and the brain», a pour illustration en page de garde un ordinateur occupant la majeure partie de la photo et John von Neumann posant sur le côté. Ou bien des schémas de neurones connectés ressemblent plus à des schémas de logique ou d'électronique qu'à des planches histologiques. De manière générale en biologie, deux types de représentation s'opposent : d'une part des représentations physionomiques, et d'autre part des représentations fonctionnelles. La cybernétique des années 1940 choisit délibérément le deuxième. À l'instar du comportementalisme, il s'agit plus de savoir ce que fait le système plutôt que de savoir ce qu'est le système.

On peut tracer un parallèle entre cette abstraction systématique dans la représentation du cerveau de la part de l'école cybernétique des années 1940-50 avec le rejet général d'une approche particulariste dans la plupart des sciences de cette époque. En ethnologie par exemple domine le structuralisme avec notamment Claude Lévi-Strauss. En effet la représentation physionomique a été (trop) utilisée par les sciences sous influence nationaliste afin de mettre en exergue la supériorité de tel ou tel. Par l'abstraction systématique on veut au contraire refuser toute hiérarchisation, non seulement entre cultures humaines, mais aussi entre êtres vivants, voire entre toutes structures capables de traitement logique de l'information.

Iconophilie de l'imagerie cérébrale[modifier | modifier le code]

Depuis les années 1990 on assiste plutôt à un retour de l'autorité de l'image comme élément de preuve scientifique dans le cadre de la recherche sur le cerveau. Bien que les nouvelles méthodes d'imagerie cérébrale nécessitent une haute technicité et un traitement informatique complexe, et donc que les images obtenues ne correspondent pas à une observation directe des phénomènes, elles exercent néanmoins par leur apparente simplicité et par leur attractivité (de jolie couleur, parfois même des animations...), une fascination, une force de conviction intrinsèque. Consécutivement, la comparaison ordinateur/cerveau perd de sa force dans la communauté des chercheurs en neuroscience. Elle est remplacée par les concepts d'auto-organisation, de plasticité, d'apprentissage… Ironiquement, la recherche en informatique tente même de faire des ordinateurs qui miment le cerveau. On parle de réseaux neuronaux, d'intelligence artificielle, d'ordinateur capable d'apprendre, ou tout simplement de « convivialité » des logiciels et des systèmes d'exploitation...

Néanmoins les spécialistes en neuroscience restent vigilants face à cette iconophilie. De plus en plus de critiques s'élèvent contre une « imagerie fonctionnelle » qui montre ce qui se passe pendant tel ou tel comportement/pensée, mais ne dit rien du comment est corrélé un comportement avec l'activation de telle ou telle aire cérébrale.

Une rumeur concernant le cerveau[modifier | modifier le code]

On découvre, dans l'entre-deux guerres, que le cerveau est composé de plus de cellules gliales que de neurones, dans un rapport qui est alors estimé de 4 à 1. Il n'en a pas fallu plus pour que des journaux titrent: « Nous n'utilisons que 20 % de notre cerveau pour penser », qui devient alors rapidement par déformations successives : « Nous n'utilisons notre cerveau qu'à 20 % de sa capacité ». Cette erreur perdure encore dans plusieurs milieux aujourd'hui[5] et constitue un neuromythe biaisant ainsi certaines réalités de l'éducation[6].

Notes et références[modifier | modifier le code]

  1. Jean-Pierre Changeux, L'Homme neuronal, Hachette Littérature, , p. 18.
  2. Van der Eijk P, Nemesius of Emesa and early brain mapping, Lancet, 2008,372:440-441
  3. Antonio R. Damasio, L'erreur de Descartes : la raison des émotions, Odile Jacob, (ISBN 2-7381-0303-0)
  4. (en) Xue Fan et Henry Markram, « A Brief History of Simulation Neuroscience », Frontiers in Neuroinformatics, vol. 13,‎ (ISSN 1662-5196, DOI 10.3389/fninf.2019.00032, lire en ligne, consulté le )
  5. Sophie Fleury, Vrai ou faux? On n'utilise que 20 % de notre cerveau, L'Internaute, 2007.
  6. « Méfiez-vous des neuromythes! », sur www.associationneuroeducation.org, .

Voir aussi[modifier | modifier le code]

Bibliographie[modifier | modifier le code]

Articles connexes[modifier | modifier le code]

Lien externe[modifier | modifier le code]