Si vos grands-parents peinent à comprendre lorsque vous leur parlez, c'est en partie parce que leur ouïe faiblit, mais ce déclin n'explique pas toute l'histoire. Une étude publiée dans la revue Neuropsychologia par l'équipe de Pascale Tremblay, du Département de réadaptation et du Centre de recherche CERVO de l'Université Laval, montre que la capacité d'utiliser les signaux visuels du langage et de les intégrer aux signaux auditifs serait aussi en cause.
«Même si nous ne faisons pas un effort conscient pour lire sur les lèvres des personnes qui nous parlent, notre cerveau utilise des signaux visuels de ce type pour comprendre ce qu'elles disent. C'est particulièrement important lorsqu'on nous parle à voix basse ou qu'il y a beaucoup de bruits ambiants», précise la chercheuse, qui dirige le Laboratoire des neurosciences de la parole et de l'audition.
Vous êtes sceptique? L'équipe de la professeure Tremblay a produit une vidéo illustrant l'effet McGurk. Elle devrait vous convaincre de l'importance de l'intégration des signaux visuels et auditifs dans la perception du langage. Faites le test: entendez-vous la syllabe ba ou da?
Il ne fait pas de doute que l'acuité auditive diminue avec l'âge chez la presque totalité des gens, reconnaît la professeure Tremblay. «Par contre, certaines personnes ont de la difficulté à percevoir le langage, même si elles n'ont pas de problèmes auditifs. Pour bien comprendre, il faut entendre, bien sûr, mais il faut aussi être en mesure d'utiliser l'information visuelle, de l'intégrer à l'information auditive puis de traiter et de décoder ces signaux.»
Afin d'établir l'importance de la capacité d'intégration audiovisuelle dans les problèmes de perception du langage associés au vieillissement, la professeure Tremblay et trois chercheurs français ont réalisé une série de tests chez deux groupes de 17 sujets, le premier formé de personnes de 20 à 42 ans et le second composé de personnes de 60 à 73 ans.
Les sujets étaient placés devant un ordinateur qui servait à leur présenter des enregistrements de trois syllabes – pa, ta ou ka – qu'ils devaient reconnaître correctement. Ces enregistrements étaient soit audios uniquement, visuels uniquement (le visage de la personne prononçant la syllabe sans le son) ou audios et visuels à la fois. Résultats? La capacité d'utiliser les signaux visuels pour comprendre le langage est présente dans les deux groupes, mais son efficacité est réduite chez les personnes âgées.
Dans une deuxième série de tests, les chercheurs projetaient de courtes vidéos montant le visage d'une personne prononçant les trois mêmes syllabes. Les sujets avaient parfois droit à des indices visuels les aidant à trouver la réponse correcte. «Nous voulions mesurer comment ces indices visuels prédictifs modifiaient l'activité neurophysiologique pendant la tâche, explique la professeure Tremblay. Les résultats montrent que ces indices facilitent de façon similaire la perception de la parole dans les deux groupes de sujets. Ce sont les processus d'intégration des signaux visuels et auditifs, et non les processus auditifs comme tels, qui semblent le plus affectés par le vieillissement.»
À la lumière de ces résultats, on comprend pourquoi la pandémie n'a pas rendu la vie facile aux personnes qui ont du mal à comprendre les autres. «Le port du masque nous prive de l'information visuelle provenant de la lecture labiale. En plus, sur des plateformes comme Skype et Zoom, le décalage occasionnel entre la voix et le mouvement des lèvres brouille les signaux et nuit à la communication», souligne la professeure Tremblay.
Le mouvement des lèvres n'est qu'un des signaux visuels que nous utilisons pour comprendre les autres, poursuit-elle. Les expressions du visage et les mouvements des mains fournissent aussi des informations visuelles qui aident à la communication et à la compréhension du langage. «Nos résultats fournissent des pistes intéressantes pour la mise au point d'interventions visant à améliorer la capacité à percevoir la parole chez des personnes âgées. On pourrait, par exemple, cibler l'aptitude à faire de la lecture labiale et à intégrer cette information à l'information auditive pour compenser la perte auditive.»
Les autres auteurs de l'étude parue dans Neuropsychologia sont Anahita Basirat, de l'Université de Lille, et Serge Pinto et Marc Sato, de l'Aix-Marseille Université.