CM 1 : 22/10 Neurolinguistique PDF
Document Details
Uploaded by ProtectiveHydra
Faculté de Médecine Sorbonne Université
Mme Bouton
Tags
Summary
Ce document est un cours sur la neurolinguistique, incluant des descriptions de la méthodologie, des études causales et corrélationnelles, ainsi que les notions des aires de Broca et Wernicke pour la parole. Il explique les différences dans la perception des sons et de parole à partir de l'imagerie cérébrale (IRM).
Full Transcript
Mme Bouton CM 1 : 22/10 SDL Neurolinguistique La neurolinguistique peut être vue comme un mélange de : Neurosciences (biologie du cerveau, étudie le système nerveux et permet de...
Mme Bouton CM 1 : 22/10 SDL Neurolinguistique La neurolinguistique peut être vue comme un mélange de : Neurosciences (biologie du cerveau, étudie le système nerveux et permet de comprendre le fonctionnement du cerveau, relié aux comportements humains) Linguistique (structure des langues, éléments communs à plusieurs langues) Cognition (ensemble des processus mentaux et des fonctions mentales, manière dont on l’utilise l’information). La neurolinguistique s’efforce de relier les connaissances de la linguistique sur « ce qu’est le langage » aux connaissances des neurosciences cognitives sur « la façon dont le cerveau utilise le langage ». I. Méthologie en neurolinguistique La pathologie vs le système sain : Études causales : Elles étudient un système lésé. Ces lésions sont majoritairement causées par l’environnement et le parcours médical d’un patient. Les lésions peuvent être temporaires ou permanentes. Les études causales permettent d’étudier cette lésion qui peut renseigner sur la causalité du dysfonctionnement. Elles permettent un lien direct vers l’information. Études corrélationnelles : Les études corrélationnelles permettent de déterminer s’il existe une relation entre deux variables ou plus. On regarde ce qui se passe dans l’environnement et dans le cerveau, puis on essaie de faire des liens entre ces observations. Concernant l’organisation anatomo-fonctionnelle du cerveau, les traitements de la parole s’organisent de manière hiérarchique : certaines régions traitent des informations dites de « bas niveau » tandis que d’autres analysent des informations dites de « haut niveau ». Approche moins directe mais qui permet de faire plus d’expériences car l’accès à des personnes typiques plus simple que des personnes atypiques (neuroimagerie) 1 Mme Bouton CM 1 : 22/10 Le lange est une fonction cognitive de très haut niveau donc complexe à comprendre dans son fonctionnement. Nous avons actuellement la capacité de créer des lésions artificielles permettant d’avancer dans la recherche et dans le perfectionnement de ces études causales et corrélationnelles. Air de Broca : 2 études de cas : lésion dans l’aire de Broca et impossibilité à parler (Broca, 1861) Air de Wernicke : Étude de cas : compréhension difficile, production possible, très fluide mais le discours n’a pas de sens. Perception catégorielle des sons de la parole : 1. Études corrélationnelles : On s’intéresse à 2 phonèmes et on crée un continuum entre les deux. La variation sur la voyelle entre un /ba/ et un /da/ diffère uniquement sur la pointe du second formant (indices spectraux). Entre un /da/ et un /ta/, on observe un effacement de l’intensité du burst au niveau du continuum, tandis qu’il est bien visible au niveau des deux syllabes (indices temporaux). Ensuite on cherche quelle aire du cerveau va permettre de traiter ces infos acoustiques de manière linéaire. IRM Fonctionnel : Les indices spectraux sont traités dans une portion de l’hémisphère droit tandis que les indices temporaux sont davantage traités dans une portion de l’hémisphère gauche. 2 Mme Bouton CM 1 : 22/10 On remarque la difficulté de prise de décision à la frontière (1 chance sur 2). Les continuum spectral et temporel activent tous les deux l’aire de Broca. L’aire de Broca s’active pour aider au choix. 2. Études causales Les personnes présentant un AVC présentent une incapacité totale à catégoriser /ba/ et /da/ (reposant sur indices spectraux traités dans l’hémisphère droit). Toutefois, leur performance pour catégoriser /da/ et /ta/ (indices temporaux traités dans l’hémisphère gauche) reste intacte. Donc elle confirme la catégorisation faites en étude corrélationnelles. II. Traitement neural de la parole Les oscillations neurales : les neurones produisent une activité électrique qui tend à se synchroniser, et ce d’autant plus que l’activité cognitive associée est rythmique. Réseau d’équilibre et oscillations : d’où viennent les oscillations ? Les légendes des neurones excitateurs et inhibiteurs sont inversées. 3 Mme Bouton CM 1 : 22/10 Excitation : encourage la décharge (cellule majoritaires, synapse à glutamate, dépolarisation, favorise la décharge neuronale). Inhibition : empêche la décharge (interneurones, synapse à GABA, hyperpolarisation, supprime la décharge neuronale). Les synapses sont dites excitatrices ou inhibitrices. Les neurones reçoivent à la fois des messages excitateurs et inhibiteurs. Les neurones font la somme de toutes ces informations : pour décider si les informations entrantes atteignent le seuil et donc si ils déchargent, ou si les informations n’atteignent pas le seuil et donc ne déchargent pas. Rythmes et synchronisation : Une seule impulsion d’inhibition peut (presque) synchroniser un ensemble de cellule. Les cellules sont initialisées pour décharger à intervalle régulier dans le temps : Les impulsions inhibitrices sont responsables de la synchronisation approximative des décharges neuronales : Explication : l’impulsion d’inhibition conduit toutes les cellules (proches) au même point. Lorsque l’inhibition diminue (suffisamment), toutes les cellules déchargent. Les réseaux de cellules E et I peuvent se synchroniser via une inhibition partagée. L’alternance des périodes d’inhibition et d’excitation est responsable de l’apparition de cycles rythmiques - oscillations neurales. Origines biophysiques des oscillations : 4 Mme Bouton CM 1 : 22/10 Rythme et longueur d’ondes : Il y a différents rythmes, certains lents comme Thêta, d’autres plus rapides comme Gamma qui s’adapte à la perception phonémique dans la parole. Peu de rythmes vont au-delà de 80Hz. L’activité très lente a une forte amplitude tandis que l’activité rapide a une moindre amplitude. Le rythme est un pic dans la densité spectrale de puissance. Rythmes de parole et rythmes neuronaux : Il existe un pic d’activité dans les bandes Delta et Alpha. Ce sont ces pics d’activité que l’on recherche, c'est-à-dire les rythmes ayant une forte amplitude. 5 Mme Bouton CM 1 : 22/10 III. Codage spatial et temporel de la parole dans le cerveau Codage temporel : la parole est rythmique La parole est rythmique : Les spectres d’enveloppe moyens sont cohérents entre les langues, et sont de lo’rdre de 2 à 8 Hz (theta), avec un pic autour de 5 Hz. Brouiller ce rythme perturbe la compréhension : Signal de parole original : portion de 50 ms = 20 Hz Signal de parole inversé : portion de 150 ms = 6,67 Hz 6 Mme Bouton CM 1 : 22/10 Rôle du rythme theta dans l’intelligibilité : Code spatial et code temporel pour les sons de parole : Code spatial dans la voie auditive centrale : Il y a différents sites qui vont s’activer dans la cochlée en fonction de la fréquence du signal reçu : c’est ce qu’on appelle la décomposition fréquentielle. Cochlée : décomposition en fréquence du signal, sons entre 20 Hz et 20 kHz En dehors : pas de son perçu ou traduit par la cochlée Voies auditives ascendantes : 7 Mme Bouton CM 1 : 22/10 Comment le son est-il représenté dans le cortex auditif ? Représentation fréquentielles = code spatial IV. Du son au sens Les voies ventrales et dorsales : Voie ventrale : du son au sens, traitement sémantique et lexical Le courant ventral se déplace le long du lobe temporal, puis du lobe frontal, transportant nos transformations de l’acoustique aux phonèmes, puis aux éléments lexicaux, et finalement au sens des phrases -> tâche de compréhension. Voie dorsale : interface sensorimotrice pour la production et perception de la parole. Le courant dorsal part du lobe temporal et passe par les régions supérieures du lobes frontal associées au système moteur, afin de faire correspondre plus directement l’entrée acoustique aux représentations de l’articulation -> tâche de répétition. Processus bottom-up et top-down : Processus bottom-up : Ces processus se basent sur l’information sensorielle brute provenant des caractéristiques acoustiques des sons de la parole (par exemple, les vibration sonores qui activent les cellules de la cochlée et envoie des signaux au cervau). Processus top-down : Ce sont des mécanismes cognitifs supérieurs qui viennent influencer et ajuster la perception en fonction de nos connaissances, de notre expérience, de notre attention et du contexte linguistique. Ils jouent un rôle crucial lorsque les informations sensorielles sont ambiguës, incomplètes ou bruitées. 8 Mme Bouton CM 1 : 22/10 Effet de contexte et processus top-down : 1. Effet de contexte : Lorsque nous entendons une phrase dans un contexte particulier, notre cerveau utilise ce contexte pour interpréter des mots ambigus ou incomplets. Par exemple, dans une phrase comme « Il fait ---- aujourd hui », même si la dernière partie du mot « froid » est masquée, notre cerveau comble le manque en fonction du contexte. Prédictions basées sur les connaissances antérieures: Le cerveau utilise constamment des prédictions basées sur notre mémoire et nos expériences linguistiques pour anticiper ce que nous allons entendre. Par exemple, lorsque nous écoutons un discours dans notre langue maternelle, nous pouvons prédire les mots suivants avant qu'ils ne soient complètement prononcés. Activation des représentations lexicales: Lorsque nous entendons un début de mot, notre cerveau active un ensemble de mots possibles correspondant à cette séquence sonore, puis utilise des indices contextuels pour affiner l'interprétation. Si nous entendons "app...", notre cerveau active plusieurs options comme "apprendre","appel" ou "appliquer" et choisit en fonction du contexte. 2. Effet McGurk: Ce phénomène illustre comment les indices visuels (comme les mouvements des lèvres)peuvent modifier la perception auditive. Si une personne entend un son (« ba ») mais voit les lèvres d'une personne prononcer un autre son (« ga »), son cerveau peut interpréter un troisième son (« da »). Dans ce cas, les informations visuelles précédents les informations auditives crée une prédiction: le système perceptif s'attend à percevoir un /da/, ce qui biaise le percept auditif. 9