Article: « L’audition et la vision utilisent la même « boîte noire » du cerveau »

Publié par: le 27 août 2009 | Pas de commentaire

Cet article, publié par le Journal Forum, le 12 août 2009, aborde les conclusions d’une recherche récente effectuée par deux membres du BRAMS, Pr. Marc Schönwiesner (Université de Montréal) et Pr. Robert Zatorre (Institut Neurologique de Montréal, Université McGill).

« Les sons et les images se partagent un code neural similaire à l’intérieur du cerveau humain, selon une nouvelle étude. Dans l’édition en ligne de Proceedings of the National Academy of Sciences (PNAS), des chercheurs de l’Université de Montréal et de l’Institut neurologique de Montréal de l’Université McGill expliquent comment le même code neural, dans le cerveau, permet à la personne de distinguer différents types de sons, comme la parole et la musique, et différentes images.

Des participants ont été recrutés et soumis à une imagerie par résonance magnétique fonctionnelle (IRMF), une forme de cartographie du cerveau non invasive utilisée pour déterminer comment le cerveau reconnaît différentes caractéristiques des instruments de musique, des mots d’une conversation et des sons ambiants.

Les sujets ont subi des examens IRMF complets pendant trois heures dans le but de fournir des renseignements précis sur la façon dont le cerveau réagit à différents sons.

« Il s’avère que le cerveau utilise la même stratégie pour coder les sons et les différentes images, a expliqué l’auteur principal, Marc Schönwiesner, professeur de psychologie à l’Université de Montréal. Il est ainsi plus facile pour une personne de combiner les sons et les images qui relèvent d’un même objet, par exemple lorsqu’il dribble un ballon de basket. »

La prochaine étape consiste à déterminer comment le cerveau établit la différence entre la batterie d’une pièce rock et les cordes d’une symphonie ou entre une conversation en français et une autre en anglais.

« Notre objectif est de trouver la façon exacte dont le cerveau décortique ces différents types de son. Cette étape nous permettra peut-être un jour de reconstruire une chanson qu’une personne a entendu en fonction de son activité cérébrale », souligne M. Schönwiesner, qui est aussi membre du Laboratoire international de recherche sur le cerveau, la musique et le son (BRAMS), un groupe de recherche conjoint de l’Université de Montréal et de l’Université McGill sur la musique et le cerveau.

Alors que les chercheurs progresseront dans le décodage de la structure d’activation du cerveau, a poursuivi M. Schönwiesner, des applications étonnantes pourront être envisagées.

« Si les chercheurs peuvent reconstruire une chanson qu’une personne a entendue à partir de la lecture d’une IRMF, nous ne sommes pas loin de pouvoir enregistrer l’activité cérébrale pendant le sommeil et de reconstruire les rêves, dit-il. Ce serait vraiment formidable, même si cette éventualité demandera encore des dizaines d’années de recherche. »

À propos de l’étude :
Les auteurs de l’article Spectro-temporal modulation transfer function of single voxels in the human auditory cortex measured with high-resolution fMRI, publié dans Proceedings of the National Academy of Sciences, sont Marc Schönwiesner de l’Université de Montréal et Robert Zatorre de l’Institut neurologique de Montréal de l’Université McGill.

Partenaires de recherche :
Cette étude a été financée par les Instituts de recherche en santé du Canada et l’Académie des sciences allemande.

 

Sylvain-Jacques Desjardins

JOURNAL FORUM – 12 août 2009