Création musicale et science au diapason

À l'Ircam, la recherche scientifique est indissociable de la création musicale. Fondée en 1977 par le chef d'orchestre et compositeur Pierre Boulez, l'Institut de recherche et coordination acoustique-musique emploie aujourd'hui 150 personnes dont 90 chercheurs. Ce laboratoire travaille en étroite collaboration avec le CNRS, l'université Paris VI et le Centre Pompidou, dont il est voisin au coeur de Paris. « Notre mission est de trouver des solutions techniques aux besoins de la musique contemporaine, à l'heure de l'omniprésence de l'informatique. Nous sommes le seul laboratoire de recherche à développer des technologie pour la création artistique, qui auront des débouchés commerciales ou industrielles », se félicite Hugues Vinet, directeur scientifique de l'Ircam. 60 % de son financement provient de la recherche collaborative avec des industriels et des programmes français et européens, le reste émanant de subventions du ministère de la Culture.L'Institut commercialise une large palette de logiciels de création musicale qui regroupe une communauté de 1.300 utilisateurs dans le monde. Une nouvelle gamme de plug-in (des petits logiciels additionnels) vient de sortir en partenariat avec l'éditeur Flux. Les « Ircam Tools » sont destinés aux professionnels du cinéma, de l'industrie musicale ou du jeu vidéo. « Ces outils sont faciles d'utilisation. Nous avons beaucoup travaillé à masquer la technologie Ircam sous une interface ludique qui rend la prise en main de ces logiciels très aisée », explique Frédérick Rousseau, chargé de la valorisation scientifique. Au menu : modification du rendu d'une voix, gestion de la réverbération des sons et amélioration de la perception d'un instrument. Ainsi, le plug-ing Spat (voir photo) permet de modifier et de reprendre chaque instrument de musique ou chaque voix pour améliorer le rendu en cas de problèmes à la prise de son. des débouchés dans la santéL'Ircam a développé des applications améliorant la spatialisation des sons avec la technologie WFS (wave field synthesis). « C'est un procédé de reproduction holophonique qui permet de capter une scène sonore en préservant les infos spatiales de distance et de direction des sources qui la composent », explique Hugues Vinet. L'auditeur peut se déplacer en gardant une perception cohérente de la localisation des sources (à la différence de la stéréophonie qui implique d'être au milieu des haut-parleurs). L'institut a testé cette technologie lors d'expositions au Centre Georges-Pompidou (Dada, Beckett), puis en 2008, mis en service un système de diffusion WFS composé de 128 haut-parleurs pour reproduire à l'identique la même « expérience sonore » dans une salle de spectacle. C'est ce dispositif qui sera installé pour sonoriser la pièce de théâtre « Richard II » de Shakespeare lors du prochain Festival d'Avignon.Les recherches sonores trouvent aussi des débouchés dans d'autres secteurs comme la santé. L'étude de la propagation des sons dans le corps humain a amélioré le traitement des acouphènes. En psychiatrie, la rééducation passe par l'utilisation d'outils de réalité virtuelle, en créant des incohérences entre l'image et le son. « Nous participons aussi à l'élaboration d'environnements sonores artificiels, à la manière d'un architectequi conçoit un bâtiment, dans un but fonctionnel », observe Hugues Vinet. Ce « design sonore » vise notamment à améliorer le confort dans les lieux publics ou à rendre perceptible aux piétons la présence de véhicules électriques.
Commentaire 0

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

Il n'y a actuellement aucun commentaire concernant cet article.
Soyez le premier à donner votre avis !

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.