Comment le cerveau reconnaît la voix du son

Des chercheurs de l’UNIGE et de l’Université de Maastricht démontrent que le cerveau s’adapte à l’intention de la personne en privilégiant soit l’écoute de la voix, soit celle des sons.

Le cerveau est-il capable de distinguer la voix des sons qu’elle prononce? Peut-il différencier avec précision la fréquence ou encore la modulation temporelle? Pour répondre à ces questions, des chercheurs de l’Université de Genève (UNIGE), en collaboration avec l’Université de Maastricht, ont créé des pseudo-mots dictés par trois voix aux timbres différents, afin d’observer comment le cerveau traite ces informations lorsqu’il se focalise une fois sur la voix et une autre fois sur les sons. Ils ont constaté que le cortex auditif ne se concentre pas sur les mêmes aspects en fonction de la tâche qui lui est demandée. Les hautes variations spectrales sont privilégiées pour la voix, alors que les modulations temporelles rapides et les faibles modulations spectrales prennent le dessus pour les sons. Ces résultats, à lire dans la revue Nature Human Behaviour, permettent d’éclaircir les mécanismes cérébraux du traitement de la parole.

L’information langagière est caractérisée par deux aspects: d’une part la voix de l’interlocuteur, d’autre part les sons qu’il prononce (phonèmes). Le cerveau traite-t-il ces deux informations de la même manière? «Pour répondre à cette question, nous avons créé 120 pseudo-mots qui respectent la phonologie française, mais qui n’ont aucun sens, afin que le traitement sémantique ne vienne pas interférer avec la perception pure des phonèmes», explique Narly Golestani, professeure à la Section de psychologie de la Faculté de psychologie et des sciences de l’éducation (FPSE) de l’UNIGE. Ces pseudo-mots mettaient en avant des phonèmes comme /pe/, /te/ et /ke/, à l’image de /gabratade/, /preperibion/ ou encore /ecalimacre/.

L’équipe de l’UNIGE a enregistré la voix d’une phonéticienne qui articulait l’ensemble des pseudo-mots, qu’elle a ensuite convertis en trois voix différentes, de graves à aigus. «Pour rendre la différenciation des voix aussi difficile que la différenciation du discours, nous avons créé la perception de trois voix différentes à partir des stimuli enregistrés, plutôt que d’enregistrer trois personnes différentes», complète Sanne Rutten, chercheuse à la Section de psychologie de la FPSE de l’UNIGE.


Comment le cerveau trie les informations langagières

Les scientifiques ont ensuite placé les participants de l’étude dans un scanner pour imagerie par résonnance magnétique fonctionnelle (IRM) à haut champ magnétique (7 Tesla), qui permet d’observer l’activité du cerveau en mesurant l’oxygénation du sang dans le cerveau: plus il y a d’oxygène, plus la zone du cerveau est employée. Les participants ont ensuite écouté les pseudo-mots lus par les trois voix et devaient une fois identifier les phonèmes /pe/, /te/ et /ke/, une autre fois dire si ceux-ci étaient lus par la voix 1, 2 ou 3.

Les équipes genevoise et hollandaise ont préalablement analysé les pseudo-mots qui avaient été enregistrés au niveau acoustique, en se focalisant sur la fréquence (haut/bas), la modulation temporelle (à quelle rapidité le son change à travers le temps) et la modulation spectrale (comment l’énergie est rependue à travers les différentes fréquences). Ils ont constaté que pour différencier les voix, il fallait se concentrer sur les plus hautes variations spectrales, soit une grande variation des fréquences et des résonnances des sons. Au contraire, ce sont principalement les modulations temporelles rapides qui permettent de distinguer les phonèmes, aidés par les modulations spectrales basses.

Ils ont ensuite utilisé la modélisation computationnelle pour analyser les résultats de l’IRM, soit de l’activation cérébrale dans le cortex auditif lors du traitement des sons durant les deux tâches. Lorsque les participants devaient se concentrer sur les voix, le cortex auditif amplifiait les hautes modulations spectrales. Pour les phonèmes, il répondait plus aux modulations temporelles rapides et aux modulations spectrales basses. «Dans les deux cas, nous voyons que les résultats d’analyse des sons et celles des résultats de l’IRM sont très similaires», se réjouit Narly Golestani.

Ces analyses comparatives permettent de relever que pendant l’écoute, le cortex auditif amplifie l’aspect acoustique critique pour répondre à la tâche demandée: soit distinguer une voix, soit différencier des phonèmes. «C’est la première fois chez l’homme que l’on démontre, à l’aide de méthodes non invasives, que le cerveau s’adapte à la tâche et aux spécificités des informations acoustiques sur lesquelles on veut porter notre attention dans la parole», s’enthousiasme Sanne Rutten. Cette étude permet aujourd’hui de comprendre les mécanismes du traitement des sons et des bases du traitement langagier par le cerveau. «Cela sera utile pour nos recherches futures, en particulier sur le traitement d’autres niveaux de langage, y compris la sémantique, la syntaxe et la prosodie, thèmes que nous envisageons d’explorer dans le cadre d’un Pôle de recherche national sur l’origine et l’avenir du langage que nous avons demandé en collaboration avec des chercheurs de toute la Suisse», conclut Narly Golestani.

17 juillet 2019

Ce post a été initialement publié sur ce site