Utilisateur:Carandre

Une page de Wikipédia, l'encyclopédie libre.

Le cerveau et la langue des signes[modifier | modifier le code]

Langage et Hémisphère gauche[modifier | modifier le code]

En ce qui concerne les régions du cerveau qui sont activées lors du langage des signes, les études sont unanimes sur un fait : l’hémisphère gauche est autant activé dans le langage oral que signé[1]. Ces régions incluent le gyrus frontal inférieur (incluant

Broca et l’insula), le sulcus précentral, les régions corticales temporales supérieures, le sulcus temporal supérieur postérieur, le gyrus angulaire et le gyrus supramarginal [2]. Les preuves ne sont plus à faire concernant l’hémisphère gauche car de nombreuses études de lésions ont démontré son rôle actif dans le langage signé.

Langage signé et Hémisphère droit[modifier | modifier le code]

La question de recherche principale à ce jour demeure le rôle que joue l’HD dans le langage des signes. Des études récentes ont permis de constater une activation significative de l’HD, soit le lobe temporal supérieur, inférieur et frontal ainsi que les régions postérieures-pariétales, lors de tâches d’élaboration de phrases.[2] Or, ceci suscite encore beaucoup de débats puisque d’autres études ont aussi démontré que l’activation des lobes temporaux supérieurs serait aussi présente dans le langage parlé et ne serait donc pas spécifique au langage des signes.[1] Bref, le rôle précis de l’HD dans le langage des signes est encore inconnu.

Principale différence entre le langage des signes et parlé[modifier | modifier le code]

La principale différence qui a été découverte entre les deux langues ne se trouve pas dans la région périsylvienne gauche mais bien dans les régions spécialisées dans les différentes modalités. En effet, le cortex auditif dans le lobe temporal supérieur est plus activé dans le langage parlé alors que le cortex visuel (dans les régions postérieures et inférieures du lobe temporal et dans les régions occipitales) sont plus activés par le langage des signes.[3][4]

Étude menée sur la langue des signe américaine[modifier | modifier le code]

Une étude a été menée par Emmorey, sur la production d’un mot en anglais et d’un mot signé en langue des signes américaine (ASL).[5] Le but de cette étude est de démontrer les régions actives dans le cerveau lors de la production d’un signe comparativement à la production de mot. Les participants sont divisés en deux groupes. Le premier groupe est constitué de personnes sourdes qui signent en ASL. Il est constitué de 14 femmes et 15 hommes, tous âgés entre 20 et 38 ans. La main dominante des signeurs est la main droite. Le deuxième groupe est constitué de 64 personnes unilingues anglophones. Le groupe comporte 35 femmes et 29 hommes âgés entre 20 et 54 ans. Tous les participants de ce groupe sont droitiers et ont une audition complètement normale. Durant l’expérimentation, les participants devaient identifier les images qu’on leur montrait, soit en signant, soit en prononçant à haute voix ce que représentait l’image. Il y avait trois catégories d’images : des animaux, des outils ou des ustensiles.

Résultats de l'étude : ASL et anglais oral (régions communes)[modifier | modifier le code]

La langue des signes américaine et l’anglais ont plusieurs régions d’activées en commun dans le cerveau. Il y a le gyrus frontal inférieur gauche, qui est une portion antérieure de l’aire de Broca. Cette région serait impliquée dans le processus d’accès lexical tout comme le cortex temporal médian gauche. De plus, la zone de transition occipito-temporale gauche serait activée pour les deux langues. L’activation de cette région démontre qu’elle serait impliquée dans le processus d’attention visuel et du processus de recherche du mouvement oculaire qui est requis lors de la tâche de reconnaissance d’image.[5]

Résultats de l'étude : ASL (régions spécifiques)[modifier | modifier le code]

L’étude démontre qu’il y a deux régions qui sont davantage activées chez les personnes sourdes. Les deux régions se situent dans le lobe pariétal gauche, qui ce dernier est impliqué dans les paramètres de modalités spécifiques (Configuration de la main, le mouvement, l’orientation de la main). Premièrement, il y a l’activation au sein du gyrus supramarginal gauche qui reflète un assemblage phonologique et d’encodage en ASL, soit par exemple la sélection de la configuration de la main et du lieu d’articulation. Deuxièmement, l’activation du lobule pariétal gauche reflète le contrôle proprioceptif de la production manuelle et brachiale, c’est-à-dire de la main et du bras.[5]

Résultats de l’étude : L’anglais oral (régions spécifiques)[modifier | modifier le code]

Chez les participants anglophones, les chercheurs n’ont pas trouvé une activation du cerveau plus spécifique à l’anglais parlé qu’à l’ASL.[5]

Débats et théories au sujet de l’hémisphère droit[modifier | modifier le code]

Bien que le langage des signes soit fortement latéralisé dans l’HG, les chercheurs s’interrogent encore au sujet du rôle de l’HD, qui pourrait être beaucoup plus activé dans le langage des signes que dans le langage parlé. Premièrement, il est prouvé que l’HD est dominant pour les habiletés requérant des processus visuo-spatiaux, ce qui est le cas du langage des signes. Il pourrait alors requérir plus d’activation de l’HD. De plus l’HD est dominant dans le jugement des communications sociales, incluant les expressions faciales et les émotions, qui sont fortement utilisées par les sourds comme décodage du langage[4]. Ces points sont des raisons de croire en un rôle plus important de l’HD chez les signeurs. De plus, quelques faits dans les expérimentations aspirent à douter des résultats. Tout d’abord, les sujets des études sont principalement tous signeurs de la main droite (donc plus latéralisé dans l’HG). Deuxièmement, les études se penchent plus sur les études de lésions de l’HG que droite. De surcroît, un débat concernant une modalité est en jeu. Peut-on considérer l’utilisation spatiale comme un élément linguistique au même titre que la configuration des mains (morphologie) ?

Notes et références[modifier | modifier le code]

  1. a et b Emmorey, K., McCullough, S., Mehta, S., Ponto, L. L., & Grabowski, T. J. (2013). The biology of linguistic expression impacts neural correlates for spatial language. Journal of cognitive neuroscience , 517-533.
  2. a et b Corina, D. P., Lawyer, L. A., & Cates, D. (2013). Cross-Linguistic differences in the neural representations of human language : evidence from users of signed languages. Frontiers in psychology , pp. 1-8.
  3. MacSweeney, M., Capek, C. M., Campbell, R., & Woll, B. (2008). The signing brain: the neurobiology of sign language. Trends in cognitive sciences , 432-440.
  4. a et b Campbell, R., MacSweeney, M., & Waters, D. (2008). Sign language and the Brain : a Review. Journal of deaf studies and deaf education , 3-20.
  5. a b c et d Emmorey, K., Mehta, S., & Grabowski, T. J. (2007). The neural correlates of sign versus word production. Neuroimage, 36(1), 202-208. doi: 10.1016/j.neuroimage.2007.02.040