CM1 et 2 Bouton_Neurolinguistique_ PDF

Summary

This document contains lecture notes on neurolinguistics, covering topics such as methodology, neurological aspects of language, and the relationship between language and the brain. It provides an overview of the field, including different approaches to studying it.

Full Transcript

22/10 CM BOUTON Neurolinguistique Date de @22 octobre 2024 16:49 création Cours 1.1.4 CONNAISSANCES FONDAMENTALES EN SDL APPLIQUEES A L'ORTHOPHONIE Type COURS Relue ? Sophie Bouton - Ins...

22/10 CM BOUTON Neurolinguistique Date de @22 octobre 2024 16:49 création Cours 1.1.4 CONNAISSANCES FONDAMENTALES EN SDL APPLIQUEES A L'ORTHOPHONIE Type COURS Relue ? Sophie Bouton - Institut de l’audition, Institut Pasteur I- Introduction La neurolinguistique peut être vue comme un mélange de : Neurosciences (biologie du cerveau, étudie le système nerveux et permet de comprendre le fonctionnement du cerveau, relié aux comportements humains) Linguistique (s’intéresse au son, sens, structure des langues, éléments communs à plusieurs langues : objectif de comprendre comment le langage est structuré, comment il fonctionne et comment il est utilisé par les être humains pour communiquer) Psychologie cognitive ⇒ Cognition (fonctions mentales) (ensemble des processus mentaux et des fonctions mentales, manière dont on l’utilise l’information). Ensemble des processus qui permettent de percevoir, d’apprendre, d’agir : différentes manières de percevoir et traiter les informations pour être en relation avec notre environnement. La neurolinguistique s’efforce de relier les connaissances de la linguistique sur « ce qu’est le langage » aux connaissances des neurosciences cognitives sur « la façon dont le cerveau utilise le langage ». Partie 1 : Méthodologie en neurolinguistique A- La pathologie vs le système sain 1- Études causales Elles étudient un système lésé. Ces lésions sont majoritairement causées par l’environnement et le parcours médical d’un patient. Les lésions peuvent être temporaires ou permanentes. Les études causales permettent d’étudier cette lésion qui peut renseigner sur la causalité du dysfonctionnement. Elles permettent un lien direct vers l’information. NB : seule preuve directe de l’implication d’un fonctionnement neural. Exemple de lésions: pathologie nd, traumatiques ou lésion temporaire (refroidir une zone du cerveau pour les geler dans une démarche expérimentale - ou EEG impulsion magnétiques ou électriques reproduisent ces lésions temporaires) 2 exemples d’études causales : production et perception de la parole 22/10 CM BOUTON Neurolinguistique 1 Etude sur l’Aire de Broca (gyrus frontal inférieur) = compréhension de la parole mais problème en production. Etudie les lésions du cerveau de Leborgne après sa mort pour comprendre ses comportements, seulement après autopsie. Examen révèle lésions qui semblent affecter une porter du lobe frontal de l’hémisphère gauche. Autopsie d’un deuxième patient confirme ⇒ plus possible de parler / production en cas d’atteinte du lobe frontal gauche. Etude sur l’aire de Wernicke (gyrus supérieur temporal postérieur): mise en lien entre l’aire de Broca et le lobe temporal. Travaux sur les troubles du langage en Europe. S’appuie sur les travaux de Broca mais s’intéresse à la perception de la parole. Pas de signification cohérente à la production de la parole = problème de perception mais pas de production. Lésions dans le lobe temporal de l’hémisphère gauche. 2- Études corrélationnelles Les études corrélationnelles permettent de déterminer s’il existe une relation entre deux variables ou plus. Plus facile à mener. Travail à grande échelle. On regarde ce qui se passe dans l’environnement et dans le cerveau, puis on essaie de faire des liens entre ces observations. Les preuves sont moins directes (il faut de nombreuses études pour cerner un phénomène particulier) Organisation anatomo-fonctionnelle du cerveau : ⇒ les traitements de la parole s’organisent de manière hiérarchique : certaines régions traitent des informations dites de « bas niveau » tandis que d’autres analysent des informations dites de « haut niveau ». Approche moins directe mais qui permet de faire plus d’expériences car l’accès à des personnes typiques plus simple que des personnes atypiques (neuroimagerie) Le langage est une fonction cognitive de très haut niveau donc complexe à comprendre dans son fonctionnement. Nous avons actuellement la capacité de créer des lésions artificielles permettant d’avancer dans la recherche et dans le perfectionnement de ces études causales et corrélationnelles. Exemple d’étude corrélationnelle : Perception catégorielle des sons de la parole 22/10 CM BOUTON Neurolinguistique 2 On s’intéresse à 2 phonèmes et on crée un continuum entre les deux. La variation sur la voyelle entre un /ba/ et un /da/ diffère uniquement sur la pointe du second formant (indices spectraux). Entre un /da/ et un /ta/, on observe un effacement de l’intensité du burst au niveau du continuum, tandis qu’il est bien visible au niveau des deux syllabes (indices temporaux). Ensuite on cherche quelle aire du cerveau va permettre de traiter ces infos acoustiques de manière linéaire. NB : Première partie : analyse acoustique (spectral : formant) Deuxième partie : analyse linguistique (indices temporaux) pour déterminer la frontière entre un ba et un da. Observations : IRM Fonctionnel aires impliquées dans les processus acoustiques++ : Indices spectraux = traitement dans une portion de l’hémisphère droit Indices temporaux = traitement dans une portion de l’hémisphère gauche. Difficulté de prise de décision à la frontière (1 chance sur 2) Prise de décision pour le choix notamment à cette frontière ⇒ Les continuum spectral et temporel activent tous les deux l’aire de Broca. L’aire de Broca s’active pour aider au choix. Les personnes présentant un AVC présentent une incapacité totale à catégoriser /ba/ et /da/ (reposant sur indices spectraux traités dans l’hémisphère gauche). Toutefois, leur performance pour catégoriser /da/ et /ta/ (indices temporaux traités dans l’hémisphère droit) reste intacte. Donc elle confirme la catégorisation faites en étude corrélationnelle. NB : deuxième partie expérience en études causales 22/10 CM BOUTON Neurolinguistique 3 B- Origine biophysique des oscillations 1- Vidéo : Les oscillations neurales Vidéo des lucioles, ondulation contagieuse à travers la forêt à une vitesse régulière. Chaque luciole fait attention à son voisin mais également à des lucioles plus éloignées. Capable de prendre en compte des lucioles très éloignées. Les neurones produisent une activité électrique qui tend à se synchroniser, et ce d’autant plus que l’activité cognitive associée est rythmique. Les neurones se synchronisent non seulement avec les neurones voisins, mais aussi des neurones plus éloignés géographiquement. 2- Réseau d’équilibre et oscillations : d’où viennent les oscillations ? Les synapses sont dites excitatrices ou inhibitrices. Les neurones reçoivent à la fois des messages excitateurs et inhibiteurs. Travaillent ensemble pour former une population de neurones. Travaillent en réseau Les neurones font la somme de toutes ces informations : pour décider si les informations entrantes atteignent le seuil et donc si ils déchargent, ou si les informations n’atteignent pas le seuil et donc ne déchargent pas. 22/10 CM BOUTON Neurolinguistique 4 Neurone excitateurs : E Neurones inhibiteurs : I Encourage la décharge Empêche la décharge cellules majoritaires interneurones synapse à glutamate hyperpolarisation dépolarisation supprime la décharge neuronale favorse la décharge neuronale a. Rythme et synchronisation Une seule impulsion d’inhibition peut (presque) synchroniser un ensemble de cellules. NB : si seulement neurones E ⇒ épilepsie. NI>NE : un seul suffit à arreter les informations qui suivent, les NE déchargent ensuite en même temps lorsque le signal du NI est levé ⇒ c’est le principe de la synchronisation. Les cellules sont initialisées pour décharger à intervalle régulier dans le temps. Explication : Cette impulsion d’inhibition conduit toutes les cellules (proches) au même point. Lorsque l’inhibition diminue (suffisamment), toutes les cellules déchargent. Les réseaux des cellules E et I peuvent se synchroniser via une inhibition partagée. Les impulsions inhibitrices sont responsables de la synchronisation approximative des décharges neuronales. b) Décharges périodiques dans un réseau E-I Cycle rythmiques : l’alternance des périodes d’inhibition et d’excitation est responsable de l’apparition de cycles rythmiques ⇒ oscillations neurales. (EIEIEIEIEIEI) 22/10 CM BOUTON Neurolinguistique 5 Une cellule excitatrice qui s’active provoque l’activation de plusieurs autres cellules. À partir d’un certain seuil, cette forte présence excitatrice déclenche l’activation des cellules inhibitrices qui vont mettre fin à la réaction sinon crise d’épilepsie. Puis nous entrons dans la période réfractaire. Le rythme oscillatoire se créé quand les cellules se synchronisent ce qui permet aux neurones de traiter l’environnement (partie jaune). Dans la partie jaune, on observe que le réseau s’est arrêté, le système est perturbé, il n’y a plus de rythme. Les cycles rythmiques s’établissent parce que bon équilibre E-I + signal venant de l’environnement continue. Cela crée les oscillations neurales : équilibre entre E et I. c) Rythme et longueur d’ondes Il y a différents rythmes, certains lents comme Thêta, d’autres plus rapides comme Gamma qui s’adapte à la perception phonémique dans la parole. Peu de rythmes vont au-delà de 80Hz. 22/10 CM BOUTON Neurolinguistique 6 L’activité très lente a une forte amplitude tandis que l’activité rapide a une moindre amplitude. Le rythme est un pic dans la densité spectrale de puissance. Il existe un pic d’activité dans les bandes Delta et Alpha. Ce sont ces pics d’activité que l’on recherche, c'est-à-dire les rythmes ayant une forte amplitude. Ci-dessus décomposition du spectre d’un enregistrement : variations d’amplitude spectrale. C- Rythmes de parole et neuronaux Les rythmes de parole ont été étudié pour montrer qu’ils sont liés à des rythmes neuronaux (études corrélationnelles) ⇒ rythme d’occurence dans le cortex auditif primaire : Le cortex auditif primaire permet de recevoir les informations entrantes et de les découper entre phonèmes, syllabes et mots/phrases : phonèmes : rythmes neuronaux rapide : rythme d’occurrence neuronal gamma 30Hz (correspond au rythme d’occurrence des phonèmes dans la parole) syllables : rythmes neuronaux moins rapides : rythme d’occurrence theta mots phrases : rythme d’occurrence delta 0,5 et 4 Hz Le langage est très étendu par rapport à d’autres. Le potentiel évoqué (auditif) 22/10 CM BOUTON Neurolinguistique 7 Les PEA ont une forme particulière et sont très importants car ils permettent la détection de certaines pathologies. Les PEA correspondent à l’enregistrement de l’activité des neurones en réponse à une stimulation. Partie 2 : Codage spatial et temporal de la parole dans le cerveau A- Codage temporel : la parole est rythmique Ce qui est important dans le codage temporelle : les variations de l’enveloppe de la parole ⇒ les variations d’amplitude de l’enveloppe. Elle augmente et diminue au fur et à mesure du signal, ce qui crée un rythme. Le temps et ses variations temporelles sont cruciales pour le locuteur et l’auditeur. Locuteur : pour les produire Auditeur : pour les suivre dans le temps Echelles différents : pour découper en phonèmes, syllabes et mots. 1- La parole est rythmique 22/10 CM BOUTON Neurolinguistique 8 Les spectres d’enveloppe moyens sont cohérents entre les langues et sont de l’ordre de 2 à 8Hz (theta) avec un pic autour de 5Hz. (Au-delà des variations entre les langues!!) ⇒ important dans la rééducation : ces informations sont les mêmes. NB : recherches faites à partir de signaux audio : livres audio, podcasts, émissions radios. Capter le signal, l’envoppe et les variations d’amplitude. 2 études différentes avec des corpus différents qui évaluent la meme compétence. Démonstration : brouiller ce rythme perturbe la compréhension : signal de parole dans le bon sens : compréhensible le sens inverse : incompréhensible Signal découpé en 50ms inversion du signal d’une portion sur 2 à l’intérieur du signal (petite portion seulement, l’occurrence du signal arrive tous les 20Hz, le rythme de compréhension préservé) : compréhension possible Portion de 150ms : idem : pas de compréheions : signal arrive toutes les 6,67 Hz ⇒ la compréhension du signal n’est plus possible. Le code temporel - mécanisme du verrouillage de phase Verrouillage de phase entre les neurones et les sons de basse fréquence (< 1kHz). Pour coder ces sons, il n’y a pas besoin de beaucoup de neurones. Verrouillage de phase entre la population et les sons de basse fréquence. Pour les sons de haute fréquence (>4kHz), la fréquence d’apparition des stimuli est beaucoup trop rapide et les neurones ne sont pas capables de suivre, donc pas de verrouillage de phase. Codage temporel au travers du système auditif 22/10 CM BOUTON Neurolinguistique 9 Cf graphique des PEA (p.3) Les représentations temporelles des sons de la parole Les fréquences modulatoires du signal de la parole lui donne de la variabilité. Techniques de Vocoder (outil informatique utilisé pour comprendre ce que les personnes avec un implant cochléaire comprennent) : permet de discriminer comment le cerveau fait sens des infos temporelles lentes vs fines. Le code temporel dans le cortex auditif primaire Activité très forte au début de la stimulation car attrait pour la nouveauté. 2- Rôle du rythme theta dans l’intelligibilité Système auditif bien adapté au système de modulation lente en particulier entre 2 et 6 Hz. Bande de fréquence qui a notre attention. Etude ci-dessus : pour étudier ce phénomène, nécessaire de perturber le signal, manipuler ce qui peut être entendu : en laboratoire utilisation de parole compressé : facteur par 2, 3, 4, 5 etc…. NB : ici dans l’étude pas seulement perception/ discrimination des syllabes mais également compréhension. Tâche demandée : retaper à l’ordinateur les phrases que vous avez compris 16hz - compression seule (rythme d’occurence des syllabes) : seulement 25% de bonnes réponses Avec restauration perceptive : Compression + insertion du silence : améliore les résultats avec un pic autour de 8Hz. Les rythmes syllabiques sont étroitement liés à l’intelligibilité de la parole. Variation temporelle des informations dans notre cerveau, constructive et nécessaire pour que la parole soit intelligible. NB : les autres rythmes temporelles sont aussi importants dans l’intelligibilité ! B- Codage spatial dans la voie auditive centrale 22/10 CM BOUTON Neurolinguistique 10 Comment un son voyageant dans l’air devient-il une activité cérébrale associée à la signification d’un mot ? Vibrations ⇒ Tympan ⇒ fluide visqueux ⇒ cochlée ⇒ conversion en influx nerveux 1- Codage du son dans la cochlée et la voie auditive ascendante 2- Codage du son dans le cortex auditif 22/10 CM BOUTON Neurolinguistique 11 On essaie de décoder la parole via les informations cérébrales reçues. La reconstruction est le signal neuronal passé dans un spectrogramme. Voies auditives et code fréquentiel Il y a différents sites qui vont s’activer dans la cochlée en fonction de la fréquence du signal reçu : c’est ce qu’on appelle la décomposition fréquentielle. Cochlée : décomposition en fréquence du signal, sons entre 20 Hz et 20 kHz En dehors : pas de son perçu ou traduit par la cochlée Cartographie tonotopique du système auditif Voies auditive et code temporel Les sons sont audibles sur une large gamme de fréquences entre 20 et 20 000 Hz. Codage spatial = tout au long de la hiérarchie de traitement, des hautes aux basses fréquences, toute l’information est conservée. Ce code est spatial car ce sont les neurones d’un même endroit qui vont encoder les informations pour les hautes ou basses fréquences dans le cortex auditif (cf. schéma couleurs), gradient linéaire entre les hautes et basses fréquences. Ce codage se pert à la sortie du cortex auditif primaire ⇒ l’étape d’après n’est plus dans le traitement des caractéristiques physiques mais intégre la recherche de sens. 3- Distinction entre la fréquence spectrale des sons de parole vs. fréquence modulatoire des sons de parole Fréquence spectrale des sons de parole = fait référence aux fréquences réelles présentes dans un son. La parole peut aller haut en fréquence (cf. spectrogramme) Représentation spatiales des sons de parole fréquences spectrales du signal de parole Code de lieu existe à partir d’une certaine fréquence Fréquence modulatoire des sons de parole = fait référence à la vitesse à laquelle l’amplitude de l’onde sonore varie, souvent perçue comme le rythme de la parole Exemple : différence entre une phrase affirmative et interroogative. Représentations temporelles des sons de parole Fréquences modulatoires du signal de parole Code temporel : oscillations (enveloppe ⇒ vocoder : implant cochléaire) le cerveau ne code pas de la même façon les variations temporelles lentes vs.rapides 22/10 CM BOUTON Neurolinguistique 12 ⇒ Le code temporel dans le cortex auditif primaire (sur la gauche) Exemple d’enregistrements intracraniens, représentations de l’activité du cerveau qui va varier en fonction des fréquences à 4, 8, 16 …. 120 Hz. Burst d’activité en rouge, dès qu’il y a un son saccadé, le cerveau se synchronise sur le rythme du signal auditif lorsque les fr sont lentes, mais à partir de 64Hz, le cerveau n’est plus capable de se synchroniser, de suivre une activité saccadée ⇒ continue. Le cerveau considère qu’il s’agit d’un flux continu à partir d’un certain niveau de fréquence (plus la capacité de coder les sacades). (sur la droite) Importance dans la perception de la parole : caractérisation des syllabes / caractéristiques physiques des sons sont enregistrées dans notre cortex auditif primaire pour leur reconnaissance. 4- Les ASSR Auditory Steady State Responses : étude des variations fréquentielles L’études des variations séquentielles se fait via les ASSR (Auditory Steady Stade Response) Réponses neuronales oscillatoires du cx auditif qui se produit lors qu’un stimulus auditif est présenté (un son modulé à une fréquence précise quelle qu’elle soit) Exemple : 22/10 CM BOUTON Neurolinguistique 13 Les ASSR (réponses neuronales) : 1. Elles proviennent de l’activité synchronisée des neurones dans le gyrus de Heschl 2. Elles varient selon la f de modulation du stimulus 3. Illustrent comment le cerveau utilise un système oscillatoire pour se synchroniser avec des stimuli externes, ce qui est crucial pour la perception temporelle des sons et l’alignement avec le rythme des stimuli. NB: Lorsque le cortex auditif est exposé à un son rythmique, les neurones s’accordent pour osciller à cette f. ils se synchronisent TOUS avec le stimulus auditif : c’est un exemple de verrouillage de phase – illustrent comment le cerveau utilise l’activité oscillatoire pour se synchroniser avec ces stimuli auditifs. ⇒ CRUCIAL pour la perception temporelle + l’alignement avec le rythme des stimuli Les ASSR sont des Biomarqueurs des troubles auditifs et linguistiques Biomarqueurss pour la dyslexie, l’autisme ou la schizophrénie (fréquence et zone du cerveau concernées différentes) NB : schizo déficit oscillatoire à 40Hz - fréquence qui fait le lien entre différentes régions cérébrales Application des ASSRs à la dyslexie Activité neurale altérée à 30Hz ⇒ segmentation phonémique perturbée. 22/10 CM BOUTON Neurolinguistique 14 Ecoute de son modulé en amplitude à des fr particulières de 2-3 à 80Hz puis observation des réactions du cortex auditif d et g. Pour le groupe controle, pic d’activité dans le cortex auditif g à 30Hz. Pic marqué et résistant Pour les adultes lecteurs dyslexiques : activité oscillatoire plus marquée dans le cortex auditif d à 40Hz + beaucoup plus de variabilité (entre 38 et 44Hz), absence de pic d’activité à 30Hz sur le CAG Cette incapacité du cerveau à réagir à 30Hz est considéré comme un trouble phonologique : difficulté à manipuler les sons de parole. La dyslexie comme trouble phonologique (Exemple de tache supprimer le premier phonème d’un mot, regrouper des unités phonémique entre elle etc…) Quand on perçoit la parole, on a une activité oscillatoire qui se synchronise aux différents rythmes du signal (peu de rythmes au-delà de 80 Hz) Phonème 30 Hz (rythme d’occurrence rapide GAMMA) Syllabe 4-7 Hz (rythme d’occurrence lent THETA) Mot 2-4 Hz (rythme d’occurrence très lent DELTA) Le cerveau doit découper le signal en mots en syllabe en phonèmes grâce aux rythmes oscillatoires ⇒ apprentissage de la parole / langue. Le découpage en phonème est trop rapide pour les dyslexiques, le découpage des phonèmes est trop rapide, les représentations phonologiques qui se construisent sont instables (car pas suffisamment efficicae). Possible d’apprendre à parler car l’unité phonémique n’est pas si importante que cela (le sens des mots nous permet de faire la distinction entre les phonèmes : moutin/ bouton à l’oral) En revanche la lecture devient trop difficile, diff à distinguer les unités phonologiques de la langue ⇒ le mapping (établissement du lien entre les deux) devient difficile voir impossible car les représentations phonémiques sont instables. Développement d’outil thérapeutiques via la stimulation électrique transcranienne avec un courant alternatif Permettent une amélioration des résultats pour les dyslexiques en : Manipulation de phonèmes 22/10 CM BOUTON Neurolinguistique 15 Lecture de textes Pas de variation à 60Hz mais à 30Hz en cas de stimulation du cerveau amélioration des taches par rapport aux autres. En revanche l’effet ne dure pas. 1h après les performances retombent. Que faut-il faire ? Ici preuve de concept, stimulation de 20 minutes sur ces adultes, que faudrait-il pour des effets à long terme? Il faut envisager d’avoir des outils pour de la stimulation à la maison (ttt à long terme seulement en laboratoire n’est pas envisageable, trop contraignant). ⇒ prometteur. En cours études de stimulation auditive rythmique (entrainement à la maison pour des enfants étude sur 160 enfants sur le long terme). Partie 3 : du son au sens Trame récapitulative du cours : A- Les voies ventrales et dorsales 22/10 CM BOUTON Neurolinguistique 16 1- Voie ventrale = du son au sens : traitement sémantique et lexical Le courant ventral se déplace le long du lobe temporal, puis du lobe frontal, transportant nos transformations de l’acoustique aux phonèmes, puis aux éléments lexicaux, et finalement au sens des phrases ⇒ tâche de compréhension. 2- Voie dorsale = interface sensorimotrice pour la production et perception de la parole Le courant dorsal part du lobe temporal et passe par les régions supérieures du lobe frontal associées au système moteur, afin de faire correspondre plus directement l’entrée acoustique aux représentations de l’articulation ⇒ tâche de répétition. B- Processus bottom-up et top-down 1- Définitions Processus bottom up = se basent sur l’information sensorielle brute provenant des caractéristiques acoustiques des sons de la parole (par exemple : les vibrations sonores qui activent les cellulres de la cochlée et envoient des signaux au cerveau) Processus top-down = ce sont des mécanismes cognitifs supérieurs qui viennent influence et ajuster la perception en fonction de nos connaissances, de notre expérience, de notre attention et du contexte linguistique. Ils jouent un rôle crucial lorsque les informations sensorielles sont ambiguës, incomplètes ou bruitées. ⇒ viennent en permanence influencer nos perceptions. Vidéo : piano seul en fermant les yeux juste bruit, avec sous titre : sens associé ⇒ notre cerveau prédit ce qui va venir. NB : avant le cortex auditif primaire ces processus n’existent pas. 2- Effet de contexte et processus top down Effet de contexte = lorsque nous entendons une phrase dans un contexte particulier, notre cerveau utilise ce contexte pour interpréter des mots ambigus ou incomplets. Exemple : il fait … aujourd’hui. Même si la dernière partie du mot froid est masquée par un bruit, grâce à l’information contextuelle, notre cerveau comble le manque. 22/10 CM BOUTON Neurolinguistique 17 Prédictions basées sur les connaissances antérieures = le cerveau utilise constamment des prédictions basées sur notre mémoire et nos expériences linguistiques pour anticiper ce que nous allons entendre. Exemple : lorsque nous écoutons un discours dans notre langue maternelle, nous pouvons prédire le smots suivants avant qu’ils ne soient complètement prononcés. Activation des représentations lexicales : lorsque nous entendons un début de mot, notre cerveau active un ensemble de mots possibles correspondant à cette séquence sonore, puis utilise des indices contextuels pour affiner l’interprétation. Exemple : Si nous entendons “app…” notre cerveau active plusieurs options comme “apprendre”, “appel” ou “appliquer” et choisit en fonction du contexte. 3- Illustration des processus top down Effet McGurk Effet McGurk = ce phénomène illustre comment les indices visuels (comme les mouvements des lèvres) peuvent modifier la perception auditive. Si une personne entend un son /a/ mais voit les lèvres d’une personne prononcer un autre son /ga/ son cerveau peut interpréter un troisième son /da/. Dans ce cas les informations visuelles précédents les informations auditives crée une prédiction : le système perceptif s’attend à percevoir un /da/ ce qui biaise la perception auditive. C- Codage hiérarchique : théorie dominante Les régions auditives secondaires établissent des liens entre les phonèmes et les syllabes, construisant progressivement des structures linguistiques. Ce traitement suit un modèle hiérarchique, où les éléments simples (phonèmes) sont regroupés en unités plus complexes (mots, phrases). Chaque région du cerveau opère un codage particulier : les aires sont reliées les unes aux autres en prenant en compte les informations du niveau précédent. Chaque aire ensuite entre en jeu. L’encodage phonologique est dépendant des informations articulatoires -> importance du cx moteur. Ci-dessous toutes les représentations hiérarchiques des caractéristiques linguistiques : 22/10 CM BOUTON Neurolinguistique 18 Une fois que nous avons identifié des mots, nous les comparons aux informations lexicales déjà encodées dans notre cerveau pour voir si les correspondances sont bonnes. Si la correspondance est trouvée = fluidité, si la correspondance n’est pas trouvée = solution à trouver (manque t-il un phonème ? solution par soi-même ? redemander le mot à son interlocuteur?) Principe de cette théorie : représentation hiérarchique des caractéristiques linguistiques ++ Tous les niveaux (phonétique à sémantique) sont encodés parallèlement dans le cerveau Le cerveau traite simultanément des niveaux complexes de langage. Plus le niveau est élevé dans la hiérarchie (syntaxique, sémantique), plus la représentation est stable et durable. Pendant combien de temps lorsqu’on entend une unité de son, notre cerveau continue de traiter cette information ? Si on synchronise toute l’activité phonémique, on constate un traitement de 200ms comme efficace pour le traitement des phonèmes La periode de recouvrement est d’autant plus longue que l’on accède à des niveaux de haut niveau (sens des mots syntaxe des phrases) : cette période de recouvrement est d’autant plus longue qu’on accède à des niveau plus haut. 22/10 CM BOUTON Neurolinguistique 19 NB : en superposant les unités, les plus petites durent moins longtemps mais se superposent à toutes les autres. On a des représentations plus ou moins soutenues en fonction de leur organisation dans la hiérarchie Hiérarchie de codage contrainte par le signal d’entrée : la temporalité des phonèmes, lexical, syntaxique, … contraint la temporalité du codage Comment ces différentes représentations sont-elles organisées et coordonnées dans le cerveau pour éviter l’interférence tout en permettant une mise à jour continue des informations ? ⇒ temporalité et codage : Les représentations phonétiques évoluent rapidement (environ 64ms) Les représentations syntaxiques et sémantiques persistent beaucoup plus longtemps (> 700ms) ce qui permet une accumulation et un traitement plus global du langage D- Synthèse des étapes : du son au sens Les indices acoustiques bruts sont décomposés dans le gyrus de Heschl en fonctions de leurs fréquence et temporalité Ces informations sont transformées en unités phonétiques dadns les régions auditives secondaires Ces unités sont ensuite comparées à des représentations lexicales et associées à des significations dans les régions sémantiques Les boucles descendantes et perception / production enrichissent ce processus en intégrant le contexte et les attentes. Partie 4 : Contribution active du cortex moteur A- Les boucles de rétroaction La perception de la parole ne repose pas uniquement sur le traitement auditif passif : elle implique aussi une contribution active du cortex moteur : qui prédit et ajuste les représentations auditives. Les boucles de rétro action entre le cortex moteur et auditif permettent de coordonner les informations auditives et les prédictions motrices. 2 versants : Temporalité de l’événement : quand il va arrive Qualité de événements : ce qui va arriver Exemple : on prédit la fin des phrases, des mots ⇒ perception active de la parole. Tache à effectuer : perception de train de syllabes. Naturellement le cerveau fait un apprentissage statistique, il cherche à identifier et regrouper des syllabes / mots. Si le train de syllabe 2,5 Hz : synchronisation CA + CM jusqu’à 4,5Hz Synchronisation idéale : 4,5Hz (= équivaut au rythme syllabique) A partir de 5,5 Hz : disparition de la synchonisation 22/10 CM BOUTON Neurolinguistique 20 Tache à effectuer en condition naturelle : participants écoutent des phrases et des mots. Echelle de temps lente : celle de la phrase + échelle de temps plus rapide celle des mots. Dans ce cas là, on obersve : CA activé + échelle mots CM activé + échelle phrase Ces boucles sont soutenues par des oscillations neurales qui synchronisent les deux régions à différentes échelles temporelles. Activité beta : se retrouve dans toutes les taches de prédictions en particulier motrices le suivi de la parole à des échelle de temps lentes est directemetn lié à une compréhension correcte Les oscillations delta qui suivent le rythme global des phrases ou des unités prosodiques influencent les oscillations beta associées aux prédictions motrices et à la coordination temporelle Besoin de l’interaction oscillomotrice de la parole + connaitre les oscillations concernées pour cibler les rééducations de demain. B- Trouble des boucles de rétro action le TDL Difficultés de la prédiction. 1- Les enfants avec TDL ont du mal à anticiper les structures grammaticales complexes, 22/10 CM BOUTON Neurolinguistique 21 ⇒ ce qui ralentit la compréhension des phrases. Ces enfants ont du mal à détecter les incohérences ci-dessous. En s’intéressant à leur système neural (tout à droite) : pas d’activité neural pour la détection de ces incohérences (en rouge ne bouge pas) 2- Difficultés à suivre des motifs sonores répétitifs. Tels que les rythmes syllabiques ou les transitions phonétiques, ne sont pas aussi bien détectés par les enfants avec TDL, ce qui affecte leur capacité à découper les phrases en unités significatives (mots). L’apprentissage statistique est la capacité du cerveau humain (dès la naissance) à détecter les régularités stat dans des séquences d’info sensorielles, comme les sons. Les enfants TDL ne parviennent pas à prédire les différents concepts clés : Transitions probabilistes entre le syllabes Le cerveau détecte que certaines syllabes ont une proba élevée de se suivre (le ⇒ ti ⇒ pa) formant un mot probable. D’autres syllabes, comme dans pa ⇒ bi ⇒ ma ont une proba faible car elles traversent des frontières de mots Segmentation du flux de parole ⇒ les participants apprennent inconsciemment à segmenter les séquences auditives en “mots” grâce à ces régularités stats. Processus implicite ⇒ ce type d’apprentissage est souvent implicite : cad que les participants ne sont pas cs d’apprendre, mais leurs réponses au test montrent qu’ils ont intégré les régularités. Exemple : En moins de 2 minutes, adulte normal peut détecter sans beaucoup d’effort la phrase 22/10 CM BOUTON Neurolinguistique 22 3- Hypothèse la plus forte aujourd’hui : mauvaise synchronisation entre le CA et le CM. Evaluation de cette synchronisation : développement d’un outil diagnostic résistant au contexte linguistique. Jeu 1 : Garde le rythme Les enfants doivent reproduire une syllabe (par exemple ta) en synchronie avec une séquence rythmique régulière de bips pendant une période prolongée (10 secondes). Le rythme eut soit être régulier soit ralentir / accélérer. Objectif = évaluer leur capacité d’ajustement en temps réel : ce qui reflète non seulement la prédication temporelle mais aussi la flexibilité adaptative. Analyse : mesurer la constance de la synchronisation entre les bips entendues et les syllabes prononcées Les enfants avec TDL = difficultés très précoces qui ne s’améliorent pas avec le temps Enjeu futur : outils de rééducation pour resynchronisation des systèmes CA et CM pour pouvoir apprendre. C- Perception audio-visuelle de la parole 1- Réseau du langage : ensemble des aires concernées par le langage 22/10 CM BOUTON Neurolinguistique 23 NB : Cartographie du langage Le « modèle classique » du langage dans le cerveau présente une zone du lobe temporal nécessaire à la compréhension de la parole et une zone du lobe frontal nécessaire à la production de la parole. Ces deux régions sont nécessairement connectées : le langage que l’on produit est le langage que l’on comprend, et inversement. Ces centres sont liés à d’autres zones du cerveau dont le fonctionnement est également crucial pour une utilisation totale du langage : les zones motrices pour l’articulation des mots ; les zones frontales pour le stockage des connaissances conceptuelles. Mais les études sont en constante évolution. On ne sait pas encore où sont localisés les mots par exemple -> 2 études qui se contredisent. La cartographie ne suffit donc pas, les mécanismes impliqués sont plus important pour la prise en soin. 22/10 CM BOUTON Neurolinguistique 24 2- Sillon temporal ⇒ lieu de l’intégration des informations auditives et visuelles. Cas du patient SJ 1 patient SJ, qui a subi un AVC ayant endommagé la région temporo-pariétal gauche, entrainant une aphasie anomique légère. Une IRM structurelle a révélé une destruction complète du STS moyen et postérieur gauche, ainsi que des lésions dans les zones adjacentes des lobes temporal et pariétal. Perturbations de la perception audiovisuelle ? De manière surprenante, SJ a montré une intégration multisensorielle préservée, mesurée à l’aide de deux tests indépendants Perçoit l’effet McGurk Sa perception de stimuli audiovisuels ambigus, avec des informations auditives ou visuelles floues, était significativemetn influencée par la modalité opposée. Bases neuronales de cette intégration multisensorielle préservée,, IRm utilisée pour examiner les réponses cérébrales chez SJ et 23 témoins controles. Résultats : en haut à droite 22/10 CM BOUTON Neurolinguistique 25 SJ : pas d’activité à gauche mais le STD est beaucoup plus activé par // controles Controles : activation bilatérale Explications ⇒ réorganisation des réseaux corticaux du langage chez SJ de sorte que le STS droit prend désormais en charge l’intégration multisensorielle de la parole. !! La perception multisensorielle a lieu tout le temps. Exemple : une information visuelle + auditive est toujours plus impactante qu’une seule information. Alarme seule : les étudiants mettent plus de temps à sortir d’une salle que si cette alarme est liée à une information visuelle Dans la parole, l’activité visuelle + auditive est particulièrement importante; 3- AV integration - perception de la parole dans le bruit Etude 1 22/10 CM BOUTON Neurolinguistique 26 Des études comportementales ont montré que les jugements perceptifs sont pondérés par la fiabilité de chaque modalité sensorielle : les modalités les plus fiables sont plus fortement pondérées, même si cette fiabilité change rapidement ⇒ Si je ne vois pas bien la personne je vais davantage faire confiance au signal auditif et inversement ⇒ augmentation de la connectivité liée à la stabilité des signaux Ils observent une augmentation de la connectivité fonctionnnelle entre le STS et le CA lorsque la modalité auditive était plu faible (moins bruitée) ainsi qu’un augmentation de la connectivité entre le STS et le cortex visuel lorsque la modalité visuelle était moins bonne. Etude 2 : Temporal synchrony : comment les participants intégrent le signal visuel au signal auditif. Meme phrase mais inversion de la prédiction possible au nivau des lèvres : différences entre le b et le v fortement influencé par l’indice visuel donnée. Tache dans le bruit Observation : tendance à percevoir le v plus que le b ⇒ tendance plus forte lorsque les stimuli auditifs et visuels sont incongruents que congruents ⇒ biais de perception : dépend de la fiabilité du stimulu et donc du contexte sémantique de la phrase (nous avons plus envie de finir cette phrase par vase que base) Qu’est ce qui définit cette influence dans le temps ? Phases des oscillations cérébrales 22/10 CM BOUTON Neurolinguistique 27 Activité prédictrice nous permet de déterminer si on préfère percevoir le mot vase que le mot base. Rythme syllabique nous permet de faire cette différence. D- Production de la parole Différentes aires cérébrales motrices entrent en jeu pour produire dans la parole Préparation de l’activité motrice (ce que j’ai envie de dire, comment je vais le formuler) : en vert Articulation : en rouge Oscillations des fréquences au repos , ce qui ressort : 5Hz : rythme syllabique 20Hz : Beta articulation des événements NB : dans la zone motrice/ de production de l’articulation, le rythme syllabique est moins présent vs. les zones de préparation du langage qui sont des zones linguistiques. 22/10 CM BOUTON Neurolinguistique 28 2- Dysfonctionnements en neurolinguistique L’étude des dysfonctionnements en neurolinguistique renseigne : 1. La compréhension du fonctionnement typique du cerveau 2. Le diagnostic et traitement 3. L’éducation 4. Les décisions politiques et sensibilisation 5. Les connaissances interdisciplinaires 6. Les perspectives évolutionnistes 7. Les applications technologiques Livre recommandé : https://www.decitre.fr/livres/le-cerveau-et-les-maux-de-la-paroles- 9782738143402.html? gad_source=1&gclid=Cj0KCQiAlsy5BhDeARIsABRc6Zu1RiQSgBk2Nxz4wctBA_XZrb4O_CUzco- gTNqdAn84F8mbG9fiR3YaAszsEALw_wcB#resume Anne-Lise Giraud-Mamessier. 22/10 CM BOUTON Neurolinguistique 29

Use Quizgecko on...
Browser
Browser