Du temps à l’espace De l’utilisation d’un séquenceur graphique comme outil d’architecture sonore
Maquette et mise en page : Matthieu Ranc Licence Creative Commons CC BY NC SA Le titulaire des droits autorise l’exploitation de l’œuvre originale à des fins non commerciales, ainsi que la création d’œuvres dérivés, à condition qu’elles soient distribuées sous une licence identique à celle qui régit l’œuvre originale. Copyright des photos Les documents visuels ont été trouvés sur Internet et n’ont fait l’objet d’aucune demande. Les auteurs restent libres de se manifester.
Matthieu Ranc
Du temps à l’espace De l’utilisation d’un séquenceur graphique comme outil d’architecture sonore
Mémoire du Mastère spécialisé « Innovation by Design » Sous la direction de Roland Cahen
/ 30
© 2013 Matthieu Ranc
Ce mémoire de fin d’études du Mastère spécialisé « Innovation by Design », dispensé par l’ENSCI - Les Ateliers, traitera du détournement d’un séquenceur graphique destiné à la création numérique afin de mettre en espace le son. Nous aborderons dans un premier temps l’histoire de la spatialisation sonore dans le domaine musical et le domaine industriel. Dans un second temps, nous verrons quels outils ont été créés pour répondre à cette demande et quels sont leurs champs d’application actuellement. Dans une troisième partie, nous constaterons les limites que peuvent poser ces différents moyens techniques. Enfin nous étudierons IanniX, un séquenceur graphique et comment sa forte capacité d’abstraction peut répondre aux problèmes rencontrés, à travers plusieurs exemples d’utilisation.
« Il suffit de pouvoir dessiner, d’avoir des mains, avoir des oreilles et des yeux et puis de travailler. » Iannis Xenakis
AVANT-PROPOS Fin 2006, après un baccalauréat moyen, je rentrais en école d’ingénieur à l’ECE Paris sans réel engouement pour les matières dispensées et avec une absence totale de projet professionnel. Les trois premières années furent assez douloureuses avec beaucoup de théorie, un système différent du lycée, l’arrivée sur Paris, un intérêt proche du néant pour les cours enseignés, la sensation que mon avenir allait se jouer entre une société de conseil en informatique et un grand groupe dans lequel j’allais perdre ma personnalité, mon humanité, mes désirs intrinsèques, etc. Autant dire que tout n’était pas gagné. Malgré cela, je continuais mon chemin car ma mère m’avait dit un jour : « lorsque l’on commence quelque chose, on le finit. » Lors de ma quatrième année au sein de cette école, nous devions choisir des options majeures et mineures et je me tournais respectivement vers les systèmes d’information, par le hasard le plus total, et les médias numériques, étant un passionné de musique dès la plus tendre enfance. Le déclic fut immédiat : enfin j’envisageais des applications artistiques aux matières que je subissais depuis trois ans. J’y rencontrais également mon professeur, Guillaume Jacquemin qui me proposa alors de faire mon stage dans sa jeune société buzzing light. Cette expérience consistait à travailler avec Thierry Coduys et Pascal Dusapin, à la fois sur le développement et l’optimisation du séquenceur graphique IanniX, ainsi que sur la performance Opéra de Feu pour les 150 ans de Deauville. Je touchais des doigts la promesse d’un avenir plus passionnant. Pendant ma dernière année au sein de l’ECE Paris, j’effectuais l’option design interactif et sensitif, devenais chef d’équipe pour mon projet de fin d’études et rentrais en tant qu’assistant chef de projet web et multimédia chez TF1 pour une durée de six mois. Ce stage confirma rapidement que la perspective d’un travail au sein d’un groupe me rebutait, aussi je continuais à travailler avec Guillaume et Thierry sur le projet IanniX. Je sentais alors qu’il fallait que je continue à acquérir des bases différentes de celles que j’avais reçues lors de ces cinq dernières années, que je continue à compléter mon profil dual. Après en avoir longuement parlé avec Pierre-Julien Cazaux, un camarade de promotion, Guillaume et mes parents, j’envoyais mon dossier à l’ENSCI - Les Ateliers. Cette année et demie passée à l’école m’a permis de rencontrer de nouveaux amis, des intervenants extraordinaires, un cadre scolaire hors du commun. Mais aussi de me construire, de m’apporter en maturité, de me remettre en question, et finalement, d’envisager ma vie de manière nouvelle.
Je voudrais pour cela remercier dans un premier temps Guillaume Jacquemin qui fut tour à tour mon professeur, mon maître de stage et finalement un ami à qui je dois beaucoup. Je tiens également à remercier mes parents, Alain et Christiane Ranc pour m’avoir fait confiance sur le choix de cette formation, pour leur soutien et leur aide pendant la rédaction de ce mémoire. J’aimerais également remercier Roland Cahen pour avoir accepté de devenir mon directeur de mémoire, pour tous ses conseils, sa disponibilité, sa gentillesse et pour avoir cru en moi et en ce mémoire. Merci à Sylvie Lavaud et Olivier Hirt pour leur encadrement tout au long de cette année, leur disponibilité et leurs nombreux conseils. Merci également à Katie Cotellon pour ce premier workshop inoubliable et pour m’avoir secoué lors de nos divers points collectifs. Un immense merci à Thierry Coduys pour m’avoir permis d’embarquer dans l’aventure IanniX, pour sa confiance. Plus généralement, merci à Rémi Engel, pour ses conseils sur la mise en page et l’impression, et à Sophie Laroche, pour m’avoir supporté une semaine pendant la rédaction de ce mémoire. Je voudrais également adresser un message et un merci tout particulier à chacun de mes camarades du Mastère spécialisé : - Pierre-Julien de Cazaux, merci pour tes accueils nombreux, parfois tardifs, pour ton soutien lors de mes nombreuses remises en question, pour l’Islande et pour cette amitié ; - Marie Guitton, merci pour ces nombreuses discussions au Poulailler, pour ta bonne humeur constante malgré les moments difficiles ; - Simone Buche, vielen Danke für alles Kaffee, für das Orange Zimmer am Samstag, für einen Abend, an dem ich mich durch Post-its anvertrauen konnte ; - Mickaël Desmoulins, merci d’avoir introduit la plupart de nos tours de table sur un ton solennel, merci pour Bordeaux, merci d’être mon vieux con préféré ; - Paula Aitkenhead, thank you for being one of the most incredible woman in the world, you totally deserve the title of Supermom; - Pierre-Emmanuel Lépicier, merci pour ta folie et la quantité innombrable de tes coups de foudre tout au long de cette année ; - à tous ces amis, amour gloire et beauté. Bisou. Enfin, je remercie Nicolas de Benoist qui, lors d’une discussion pendant le second workshop de cette formation, nous a posé la question suivante : « Si le designer peut designer tous les sujets, ne doit-il pas pouvoir également designer sa vie ? »
SPATIALISATION [spasjalizasjɔ̃] n. f. — 1927 ; de spatialiser ◊ PHYSIOL.
Localisation dans l’espace d’un stimulus visuel ou auditif.
SONORE [sɔnɔr] adj. — 1560 ; lat. sonorus, de sonus Relatif au son, phénomène physique ou sensation auditive ; de la nature du son. Ondes, vibrations sonores. Source sonore. Relief sonore. Signal sonore.
INTRODUCTION Nous faisons quotidiennement l’expérience de la spatialisation. Notre cerveau est capable de situer dans l’espace, la position d’un objet. C’est grâce à cette capacité que nous pouvons nous déplacer. Nous sommes en effet capables d’anticiper certains de nos mouvements en analysant la distance présente entre un objet et nous. Par exemple, lors d’une promenade, nous voyons un trottoir et nous savons alors que nous devrons l’enjamber. Idem avec des objets mobiles tels que les voitures. Sa vitesse et la distance qui me sépare d’elle va m’aider à prendre la décision de traverser ou non. Nous oublions bien trop souvent, que l’ouïe nous apporte également beaucoup d’informations additionnelles à celles perçues grâce à la vision. Nous sommes capables par exemple de reconnaître le matériau d’un objet en l’entendant tomber ou si quelqu’un tape dessus. La cognition auditive est également capable de nous aider à déterminer la position dans l’espace d’un objet. Si nous entendons du bruit tard provenir du haut, nous pouvons deviner que les voisins font encore la fête trop tard. L’ouïe permet également de pouvoir reconnaître la taille d’une pièce ou la largeur d’un passage grâce à la réverbération des ondes sonores sur les surfaces constituants l’espace dans lequel nous nous trouvons. Lorsque nous supprimons la vue, il est connu que les autres sens augmentent. Une personne nonvoyante va pouvoir se déplacer en mémorisant le nombre de pas avant un changement de direction, la rencontre d’un obstacle, etc. Mais, il va aussi devoir faire appel aux autres sens tels que l’ouïe pour lui apporter des informations ponctuelles sur son trajet : quelqu’un me dépasse, une personne vient à ma rencontre, etc. De plus, notre ouïe fonctionne en permanence, il n’est pas possible pour nous de ne pas entendre. Nous ne pouvons pas, comme la vue, fermer nos oreilles et faire le vide auditif. Lorsque nous entendons un son, on peut décider de lui porter plus d’attention et donc de capter plus d’informations quant à celui-ci : volume, timbre, durée, position dans l’espace, etc. Cette capacité de l’oreille et du cerveau de localiser un son dans l’espace a très tôt intéressé le domaine musical avec la diffusion de concert utilisant la dimension spatiale comme élément de composition, mais également le monde de l’industrie. Que ce soit le cinéma et l’audiovisuel en général, par la création de standard pour les cinémas et les installations home cinema chez les particuliers, ou le domaine du bâtiment, l’architecture et l’urbanisme, la question de la mise en espace d’un son est de plus en plus prise en compte et a permis la création d’outils de spatialisation sonore malheureusement pas toujours forcément adaptés : pro-
blème d’écriture à la fois pour le compositeur mais aussi pour le vidéaste, problème d’adaptation à des espaces complexes, problème de souplesse quant aux méthodes de diffusion, etc. L’objectif de ce mémoire est donc, dans un premier temps, de traiter de l’historique de la spatialisation sonore dans la musique et l’industrie, puis dans un second temps, d’aborder les outils employés actuellement et leurs champs d’application. Nous ferons par la suite ressortir les limites de ces outils, pour enfin étudier comment la difficulté de simuler une séquence avec un ensemble de sources fixes et mobiles peut être pallier par le détournement de IanniX, un séquenceur graphique pour la création numérique.
HISTORIQUE DE LA SPATIALISATION SONORE Musique 1. Des temps anciens au XIXe siècle, l’utilisation de l’antiphonie Il faut remonter au temps hébreux pour découvrir les premières traces de spatialisation sonore en musique : la structure des psaumes hébreux révèle la présence d’antiennes. Saint Ignace d’Antioche (35 — 107) fut le premier à les introduire dans les chants du culte catholique après avoir eu une vision d’anges chantant en alternance. Depuis, les antiennes continuent de faire partie intégrante des chants religieux dans l’Église romaine catholique, regroupées dans les antiphonaires. Les années passent et c’est à partir de 1550 que l’on retrouve les premières œuvres musicales publiées utilisant les spécificités de l’espace. Le maître de chapelle Adrian Willaert se sert du fait que la basilique Saint-Marc à Venise soit pourvue de deux tribunes face à face, dans lesquelles sont installés deux orgues et deux chœurs, pour composer plusieurs travaux pour cori spezzati 1
et groupes
d’instruments. Sa pièce Vespers est le premier travail de ce type. La technique se répand en Europe et devient notamment commune en Angleterre : Spem in alium de Thomas Tallis, composé en l’honneur du 40e anniversaire de la reine Elizabeth, en 1573, est caractérisé par 40 parties vocales séparées, arrangées en 8 chœurs de 5 voix. Le point culminant de l’emploi de cette technique fut sans doute la pièce Festal Mass, d’Orazio Benevoli, pour le consacrement de la cathédrale de Salzburg en 1628, avec ses 53 parties distinctes : 16 voix, 34 instruments, 2 orgues et une basse continue. Après la période Baroque, la technique fut de moins en moins usitée et il faudra attendre le début de la période Romantique pour trouver de nouveaux exemples d’emploi du placement dans l’espace, notamment à des fins d’effets théâtraux. On trouve ainsi, en 1837, dans le Requiem d’Hector Berlioz, quatre ensembles de cuivres, placés aux quatre points cardinaux de la scène. De plus, des ensembles de cuivres hors scène étaient employés dans le Requiem de Guiseppe Verdi (1874) et la Symphonie n° 2 de Gustav Mahler (1897).
1. Chœurs séparés.
15
2. Le XXe siècle, vers une évolution des techniques L’arrivée des premiers magnétophones à la RTF 2 en 1951, donne l’occasion à Jacques Poullin, ingénieur du son, de développer un système de spatialisation pour diriger des objets sonores : le pupitre potentiométrique de relief à quatre canaux. Grâce à cet outil, Pierre Henry donne le premier concert spatialisé sur 4 haut-parleurs, situés devant à gauche et à droite, derrière et au-dessus de l’audience, les sons se projetant dans l’espace « suivant des plans ou des trajectoires qui s’inscrivent dans la hauteur, la largeur et la profondeur. » 3 « Tenant en main une bobine, l’opérateur, debout sur la scène, effectuait des gestes dans un espace matérialisé par de larges cerceaux croisés. Ces gestes, agissant sur la balance des haut-parleurs, produisaient un mouvement analogique du son dans l’espace de la salle. Ainsi fut « mise en relief » la Symphonie pour un homme seul de Pierre Schaeffer et Pierre Henry lors des premiers concerts de musique concrète au Théâtre de l’Empire et à la salle de l’ancien Conservatoire. » 4
FIG. 1. — Pierre Henry et le potentiomètre d’espace.
2. Radiodiffusion-télévision française. 3. Selon la notice technique du programme du concert. 4. Description de François Bayle du concert de 1951, in Musiques acousmatique, propositions… …positions, Buchet/Chastel, coll. « Musique », 1993, 269 p.
16
En 1952, Pierre Schaeffer invite Olivier Messiaen à réaliser une œuvre de musique concrète. « Ne comprenant pas très bien ce qu’il voulait, je laissais Pierre Henry, qui avait été son élève, lui fournir ce « presque pas de sons » qu’il demandait. Et cela a donné Timbres-durées. » 5 L’œuvre est décrite sur 3 partitions : - une partition donnant les rythmes et associant à chaque note un timbre, qui est noté par un code et une désignation explicite de sa source ; - une partition graphique de concaténation des évènements sonores ; les timbres sont désignés par un code ; - une partition graphique déployant les rythmes et leurs timbres associés sur quatre canaux qui sont des voies de spatialisation.
FIG. 2. — Partition graphique de spatialisation sur 4 canaux de Timbres-durées.
FIG. 3. — Partition graphique de spatialisation sur 4 canaux de Timbres-durées.
5. Pierre Schaeffer, De l’expérimentation à l’esthétique, Groupes de recherches musicales, émission de radio, 1959.
17
En 1955, la WDR 6 commande à Karlheinz Stockhausen une pièce orchestrale. Celui-ci part s’isoler dans les Alpes suisses et travaille sur la pièce tout en observant le paysage par la fenêtre. Émerveillé par la beauté des montagnes, il décide de les utiliser comme structure de l’œuvre. « in Gruppen […] whole envelopes of rhythmic blocks are exact lines of mountains that I saw in Paspels in Switzerland right in front of my little window. Many of the time spectra, which are represented by superimpositions of different rhythmic layers—of different speeds in each layer—their envelope which describes the increase and decrease of the number of layers, their shape, so to speak, the shape of the time field, are the curves of the mountain's contour which I saw when I looked out the window. » 7
FIG. 4. — Fundamental spectra over seven basic durations (Mountain Panorama at Paspels).
Pour Gruppen, 109 musiciens sont divisés en 3 groupes, chacun dirigé par un chef d’orchestre, et positionnés à gauche, devant et à droite du public. Cette configuration lui permit de jouer avec la dimension spatiale mais également temporelle en imposant des tempi différents à chaque groupe. La première eut lieu le 24 mars 1958, dirigée par Karlheinz Stockhausen, Bruno Maderna et Pierre Boulez.
6. Westdeutscher Rundfunk. 7. in « Conversations avec Stockhausen » (page 141) par Jonhatan Cott. Ed Jean-Claude Lattès.
18
En 1958 a lieu l’Exposition universelle de Bruxelles et la compagnie Philips contacte Le Corbusier afin d’y construire un pavillon indépendant. Celui-ci accepte, souhaitant créer « un premier « jeu électronique » synchronique, où la lumière, le dessin, la couleur, le volume, le mouvement et l’idée font un tout étonnant et accessible, bien entendu, à la foule. » 8 Le Corbusier confie le projet architectural à Iannis Xenakis et réalise, en collaboration avec Edgar Varèse, le spectacle. Les images en noir et blanc, choisies par l’architecte, sont projetées sur deux parois opposées de la salle et synchronisées avec la pièce Poème électronique du compositeur. À cela viennent s’ajouter plusieurs autres événements lumineux : projections chromatiques, motifs abstraits, sculptures couvertes de peinture fluorescente… En parallèle, Xenakis s’occupe de la répartition des 425 haut-parleurs du pavillon, détermine leurs séquences afin de créer des « routes sonores » et compose Concret PH, un interlude de deux minutes diffusé à la rentrée et à la sortie de l’audience dans la salle. « Pour la première fois, j’entendais ma musique littéralement projetée dans l’espace » 9
FIG. 5. — Le pavillon Philips.
8. Le Corbusier, 1958, n.p. 9. VARÈSE (Edgar), Écrits, Christian Bourgois, coll. « Musique, passé, présent », 1993, 215 p.
19
Le 3 avril 1966, pendant le festival d’art contemporain de Royan, est donnée la première de Terrêtektorh de Iannis Xenakis. Écrite pour 88 instruments éparpillés dans le public, l’œuvre utilise des fonctions logarithmiques pour définir les déplacements sonores. Il en résulte une écoute strictement individualisée, permettant à chaque auditeur de saisir les mouvements du son, ressentir les contrepoints selon les instruments dans l’espace, etc. Ainsi, seul le chef d’orchestre, placé au centre du dispositif, entend la pièce depuis le « sweet spot ». 10
FIG. 6. — Terrêtektorh : disposition de l’orchestre (Pour Royan).
10. Zone d’écoute idéale pour du son spatialisé.
20
En juin 1973, lors du 3e Festival International des Musiques Expérimentales de Bourges, le GMEB 11 diffuse son premier concert sur le « Gmebaphone » (devenu aujourd’hui le Cybernéphone), un instrument de diffusion-interprétation électroacoustique conçu par Christian Clozier en collaboration avec Pierre Boeswillwald et réalisé avec l’aide de Jean-Claude Le Duc. Les concepteurs s’opposant aux habituels concerts de haut-parleurs spatialisés sur 4 plans, selon des « lignes et points », préférant rechercher une lisibilité des plans et des détails et souhaitant mettre en avant « la nécessité d'une lecture sonore acoustique pertinente des complexités (timbres, temps, espaces) de la musique électroacoustique polyphonique » 12 , le Gmebaphone se caractérise par l’animation « d’un mouvement de temps coloré qui développe son espace. » 13
FIG. 7. — Plan général du Gmebaphone.
11. Groupe de musique expérimentale de Bourges. 12. Cahier des charges de l’instrument. 13. Dictionnaire des arts médiatiques © 1996, Groupe de recherche en arts médiatiques - UQAM.
21
Un an plus tard, François Bayle, alors directeur du GRM 14 , élabore l’Acousmonium, un « orchestre » composé alors de 72 haut-parleurs. Leur disposition est frontale, réintroduisant la « scène auditive », et leurs spécificités bien précises (directions, distances, timbres, etc.) l’aidant ainsi à « organiser l’espace acoustique selon les données de la salle, et l’espace psychologique selon les données de l’œuvre. Aménageant tutti et soli, nuances et contrastes, reliefs et mouvements, le musicien au pupitre devient le concepteur d’une orchestration et d’une interprétation vivante. » 15
FIG. 8. — François Bayle et l’Acousmonium.
14. Groupe de recherches musicales. 15. Musiques acousmatique, propositions… …positions, Buchet/Chastel, coll. « Musique », 1993, 269 p.
22
Industrie / Technique 1. La fin du XIXe siècle, les grandes révolutions industrielles Le 25 mars 1857, Édouard-Léon Scott de Martinville invente le phonautographe, un appareil, qui, pour la première fois, permet de fixer un son sur un support : le phonautogramme.
FIG. 9. — Détail d’un phonautogramme de 1859.
Ainsi, en 1860, le premier enregistrement intelligible de voix est créé. La voix, probablement celle de Édouard-Léon Scott de Martinville entonne l’air de Au clair de la lune. À l’époque, la lecture du son n’est pas possible, l’appareil n’étant capable que d’effectuer de l’enregistrement. Il fallut attendre 1877 pour que Thomas Edison invente le fameux phonographe,qui, quant à lui, était capable de fixer et de restituer des sons.
FIG. 10. — Thomas Edison et son phonographe.
23
Après avoir participé à la création du premier réseau téléphonique, Clément Ader a l’idée, en 1881, de diffuser l’opéra chez les particuliers. Il place ainsi deux microphones à l’Opéra Garnier, reliés au réseau permettant une réception de bonne qualité, créant par la même occasion la première diffusion stéréophonique : le Théatrophone. « C'est très curieux. On se met aux oreilles deux couvre-oreilles qui correspondent avec le mur, et l'on entend la représentation de l'Opéra, on change de couvre-oreilles et l'on entend le Théâtre-Français, Coquelin, etc. On change encore et l'on entend l'Opéra-Comique. Les enfants étaient charmés et moi aussi » 16
FIG. 11. — Schéma de l’installation du Théâtrophone. 16. Victor Hugo, Choses vues, in Œuvres complètes, édition du Club Français du livre, tome XVI, 1970, p. 911.
24
2. Le XXe siècle, du cinéma au particulier En 1938, Walt Disney, insatisfait des systèmes d’enregistrement sonore de l’époque, travaille sur Fantasia avec Leopold Stokowski. Pendant 7 semaines, et armés de 33 microphones, ils enregistrent avec l’Orchestre de Philadelphie les différentes séquences du film sur 9 pistes et les convertissent ensuite sur 4 pistes. (3 pour la musique, la voix et les effets spéciaux, et 1 pour le volume général.) Walt Disney demande ensuite à l’ingénieur du son William E. Garity de créer un système pour donner une illusion de mouvement au son, appelé Fantasound. Se rendant compte qu’un simple contrôle du volume ne permet d’aboutir au résultat voulu, il créé notamment le « pan pot » 17 qui permet de faire voyager les sons grâce à des fondus sur les haut-parleurs à gauche, au centre et à droite. Fantasia fut uniquement diffusé dans 14 théâtres devant être spécialement équipés d’entre 30 et 80 haut-parleurs. Le temps et le coût de l’installation étant considérables, le film n’engendra pas de bénéfices lors de sa première sortie. Grâce à la conception de ce système, Disney devint notamment l’un des premiers clients de Hewlett-Packard et Fantasia fut le premier film à sortir en stéréo.
FIG. 12. — Mickey Mouse dans la séquence de l’apprenti sorcier de Fantasia.
17. Potentiomètre de panoramique.
25
Les années cinquante marquent l’apparition du son stéréo sur pellicule. Les deux pistes optiques devant être placées sur le bord, là où se trouvait avant la piste mono, l’intensité de chacune doit être divisée afin d’occuper le même espace et de garantir une compatibilité avec les systèmes monophoniques. Cette baisse d’intensité dégrade le son en produisant du bruit et c’est ainsi que Dolby Labs est créé en 1965 afin de pallier à ce problème avec la création du réducteur de bruit Dolby A un an plus tard.
FIG. 13. — Un film 16 mm avec piste sonore monophonique à droite.
En faisant la moyenne des canaux gauche et droit, Dolby résout le problème du canal central, censé améliorer la relation de l’utilisateur avec l’écran. C’est ainsi qu’en 1975, Liztomania, de Ken Russel, est le premier film à utiliser le système Dolby Stereo. Un an plus tard sortira une nouvelle version avec un canal « surround » supplémentaire, grâce à des décalages de phase des canaux gauche et droit. Le premier film à en bénéficier sera A star is born de Frank Pierson. En 1982, le système Dolby Surround sort pour le grand public et permet à des lecteurs stéréos (VHS, DVD, etc.) de recréer le Dolby Stereo. Ce système sera amélioré 5 ans plus tard et renommé sous le nom de Dolby Pro Logic.
26
Au début des années quatre-vingt-dix, Kodak lança son format, le CDS 18 . Celui-ci fut le premier système numérique sonore au cinéma et était capable de supporter une configuration de canaux 5.1. Le système ne fut adopté qu’entre 1990 et 1992 car son inscription sur pellicule ne permettait pas d’avoir une piste analogique de secours. Ainsi, si la piste numérique était endommagée, aucun son n’était joué… La sortie de Batman Returns de Tim Burton, en 1992, marque l’apparition du Dolby Digital, premier système numérique sonore des laboratoires, capable de supporter une configuration de canaux 5.1. Le 17 juin 1993 sort le film Last Action Hero de John McTiernan. Il est le premier à être équipé du système surround SDDS 19 capable de gérer jusqu’à 8 canaux : 5 canaux de front, 2 canaux surround et un caisson de basse. Enfin, toujours la même année, Universal Studios et Steven Spielberg fondent la DTS, Inc. 20 , un système capable de gérer lui aussi une configuration 5.1. La première utilisation de celui-ci eut lieu pour le film Jurassic Park et il fut installé dans 876 cinémas.
FIG. 14. — Détail d’une pellicule 35 mm, à gauche en bleu apparait le SDDS, entre les deux encoches le Dolby Digital, les deux lignes verticales sont la piste analogique stéréo et tout à droite se trouve le DTS. 18. Cinema Digital Sound. 19. Sony Dynamic Digital Sound. 20. Digital Theater Systems, Inc.
27
Conclusion D’un point de vue musical, on retiendra que la spatialisation est apparue dans un premier temps en plaçant les musiciens à des emplacements clés des espaces de représentation. Plus tard, l’avancée des techniques a permis la création du premier système de spatialisation. Les premières partitions graphiques furent créées et les compositeurs commencèrent à prendre en compte la dimension spatiale lors de l’élaboration d’œuvres. La synchronicité de plusieurs médias fut aussi un enjeu important, ainsi que l’utilisation de fonctions mathématiques et la question primordiale du geste instrumental et de l’interprétation. Du côté industriel, la spatialisation a été très tôt au cœur de nombreux enjeux commerciaux. L’élaboration et l’implémentation de différents standards par plusieurs grandes marques, telles que Sony, Dolby ou DTS, au sein du marché audiovisuel a permis aux particuliers de s’approprier les technologies mises en place au départ dans les salles de cinéma.
LES OUTILS ET LEURS CHAMPS D’APPLICATION Étudions désormais plusieurs outils permettant de mettre en œuvre la spatialisation que ce soit dans le domaine musical ou industriel. Afin de simplifier la compréhension des enjeux clés liés à ces outils, divisons-les en trois familles distinctes : les systèmes de diffusion, les systèmes de spatialisation virtuelle et les dispositifs de rendu. Pour finir, nous verrons dans quels domaines ceux-ci peuvent être mis en application.
1. Les systèmes de diffusion Les systèmes de diffusion tels que l’Acousmonium et le Cybernéphone (ancien Gmebaphone) se basent sur l’idée que l’espace est un paramètre à prendre compte lors de la composition d’une œuvre et qu’il influence alors le jeu instrumental. On parle souvent de « concerts de haut-parleurs » car les projecteurs sonores sont choisis selon leurs caractéristiques propres et constituent un ensemble de projecteurs sonores au nombre et aux positions variables, dirigé par une console spécifique. Grâce à celle-ci, chaque piste sonore est envoyée directement à des sorties de la console qui sont assignées à un ou plusieurs haut-parleurs. On retrouve donc la notion du jeu instrumental lors de la diffusion car la spatialisation repose alors sur la technique et le geste du consoliste.
FIG. 15. — Le Cybernéphone sur scène.
29
Le Cybernéphone La répartition spatiale des enceintes du Cybernéphone se fait par « bandes de fréquence » et ce de manière frontale par rapport au public. Ainsi, l’interprétation musicale se retrouve basée sur l’analyse de l’œuvre et de ses signaux physiques. Il en ressort donc une lecture acoustique des complexités sonores de la musique électroacoustique et sa mise en relief par le jeu d’interprétation. L’Acousmonium L’Acousmonium, quant à lui, utilise principalement des raisons esthétiques (timbres, disposition, couleurs, etc.) pour la répartition spatiale de ses haut-parleurs. La plupart du temps sa disposition est frontale, mais il peut arriver que certains haut-parleurs soient placés en hauteur et au milieu de l’audience.
FIG. 16. — L’Acousmonium avec plusieurs haut-parleurs répartis dans le public.
Les systèmes de sonorisation a. Les public address
Les publics address sont des systèmes d’amplification et de diffusion composé d’un microphone, d’un amplificateur et de haut-parleurs. Ils sont la plupart du temps utilisés pour diffuser un message à une importante audience et / ou dans des conditions d’environnement sonore large ou pollué.
30
FIG. 17. — Haut-parleurs les plus souvent utilisés pour les public address
b. Le line array
Le line array est un système de sonorisation permettant la diffusion du son à forte puissance et sur de grandes distances. Il est la plupart du temps utilisé dans la sonorisation de spectacles de grandes envergures.
FIG. 18. — Un line array.
Conclusion Les systèmes de diffusion permettent d’envoyer, à partir d’une console, des sons directement sur des haut-parleurs répartis dans l’espace. Cette répartition peut répondre à des besoins spécifiques de diffusion (comme pour le public address et le line array) ou à des fins esthétiques et musicales, comme pour le Cybernéphone et l’Acousmonium.
31
2. Les systèmes de spatialisation virtuelle Le pan pot et la stéréophonie La technique du pan pot stéréophonique consiste, pour une source monophonique, à gérer l’intensité du signal transmise à chaque canal. Elle permet ainsi de placer une source entre deux haut-parleurs et de simuler un déplacement de celleci pour un auditeur placé idéalement entre les projecteurs sonores.
FIG. 19. — Schéma de la perception du son en stéréophonie.
FIG. 20. — Différences d’intensité transmise à chaque canal selon les paramètres du pan pot sous le logiciel Ableton Live.
Cette méthode est très courante et est présente sur l’ensemble des compacts disque, ainsi que dans la plupart des logiciels de sons, même très basiques et également sur les consoles de mixage. Son principal avantage est de supporter une réduction monophonique (notamment pour la diffusion radiophonique), contrairement à d’autres procédés plus complexes.
32
Le VBAP 21 Le technique du Vector Base Amplitude Panning s’appuie sur la méthode du pan pot stéréophonique et l’améliore : elle permet de positionner, dans un plan ou dans un volume, des sources sonores virtuelles grâce à un ensemble de projecteurs sonores dont le nombre et la disposition ne sont pas forcément définis.
FIG. 21. — Schéma illustrant le mode de fonctionnement du VBAP.
L’Ambisonie a. Principe
L’Ambisonie est une méthode d’enregistrement et de restitution sonore en 3D qui ne nécessite pas de répartition standardisée des haut-parleurs. b. Fonctionnement
Créée au début des années soixante-dix par Michael Gerzon, l’Ambisonie permet de représenter les composantes spatiales du champ acoustique sous la forme de motifs spatiaux élémentaires. Ces motifs sont variants selon un ordre de complexité. L’ordre 0 n’utilise qu’un canal indépendant de toute information spatiale. L’ordre 1 se sert de trois canaux supplémentaires enregistrant les informations des dipôles gauche-droite, avant-arrière et haut-bas. Plus l’ordre augmente, plus le nombre de motifs spatiaux est important. On parlera ainsi d’HOA 22 pour des
21. Vector Based Amplitude Panning. 22. High Order Ambisonics.
33
Ambisonies d’ordre supérieur à 2. Ainsi lors de la restitution, les haut-parleurs reçoivent une combinaison des canaux dépendante de leur positions dans l’espace, contrairement aux modèles de type « surround » où chaque canal audio est lié à une direction de l’espace et donc à un haut-parleur spécifique. L’enregistrement en Ambisonie se fait à travers un ensemble de microphones (de 4 à 32) disposés sur la surface d’une sphère. « Ensuite l’Ambisonics permet de restituer, de manière très précise et perceptible pour l’auditeur, un nombre bien plus élevé de sources sonores que d’autres dispositifs de diffusion. C’est d’une telle richesse ! Les possibilités de cette boîte à outil sont infinies ou presque. » 23
FIG. 22. — Capsule tétraédrique SoundField.
c. Inconvénient
Les capsules microphoniques de plus de 4 faces sont chères et les résultants sont idéaux avec une quantité de haut-parleurs importante faisant de ce système un investissement conséquent ce qui ne lui permet pas un support du monde industriel même si son modèle intéresse de plus en plus le monde du cinéma et de la télévision 3D. 23. Natasha Barrett, dans la notice technique du programme de l’inauguration du nouveau dispositif de spatialisation sonore multicanal dans l’espace de projection de l’IRCAM.
34
La WFS 24 a. Principe
La WFS permet de simuler les positions de sources sonores séparées des positions des projecteurs sonores « réels ». Elle se repose sur les modèles de diffusion acoustique pour modéliser la perception de l’emplacement d’une source sonore. Son utilisation nécessite une quantité importante de haut-parleurs. On parlera d’écoute transaurale. b. Fonctionnement
En 1678, le physicien Christiaan Huygens avança qu’il était possible de recréer un front d’onde en le synthétisant à partir d’une ligne composée d’une infinité de points de projection. En multipliant le nombre de projecteurs sonores, il est ainsi possible de créer pour l’auditeur, une qualité d’écoute ne nécessitant pas de se trouver dans le « sweet spot ». Cette diffusion se détache donc des modèles de type «surround» qui ne peuvent être appréciés quant à eux qu’au centre du dispositif d’écoute.
FIG. 23. — Schéma illustrant le principe de Huygens.
« La WFS permet également de se pencher sur la fusion et l’interaction de l’espace artificiel et de l’espace acoustique réel : l’exploitation de l’acoustique d’un lieu est pour moi un aspect du geste musical, au même titre que le jeu instrumental. » 25
24. Wave Field Synthesis. 25. Rama Gottfried, dans la notice technique du programme de l’inauguration du nouveau dispositif de spatialisation sonore multicanal dans l’espace de projection de l’IRCAM.
35
c. Inconvénient
Pour recréer le front d’onde il faut, en théorie, une infinité de projecteurs sonores, ce qui est impossible. L’installation de ce genre de système demande donc un nombre important de projecteurs sonores et donc un financement important. De plus, le son doit être traité en temps réel ce qui peut demander beaucoup de ressources informatiques. Enfin la synthèse ne pouvant être effectuée qu’à travers un plan, la diffusion reste horizontale. La HRTF 26 a. Principe
La HRTF est une fonction qui permet de simuler la position de projecteurs sonores séparées des positions des projecteurs sonores « réels ». En psychoacoustique, elle permet de modéliser la perception de l’emplacement des haut-parleurs. Elle est le plus souvent utilisée pour une écoute au casque ou dans des environnements où le positionnement des oreilles par rapport aux projecteurs sonores peut être facilement contrôlé. On parlera alors d’écoute binaurale. b. Fonctionnement
Pour localiser un son, le cerveau a besoin de plusieurs paramètres. Selon la « Duplex Theory » de Lord Rayleigh, l’étude du retard et des différences d’intensités du son entre nos deux oreilles permet de déduire la localisation d’une source en azimut selon : - l’ITD 27 qui est la différence du temps d’arrivée du son entre les deux oreilles. (essentiel pour les basses fréquences) ; - l’ILD 28 qui est la différence d’intensité entre un signal arrivant à l’oreille ispsilatérale 29 et l’oreille contralatérale 30 . (essentiel pour les hautes fréquences). Certains points de l’espace ayant un couple ITD / ILD identique un cône de confusion est créé. Pour supprimer ces erreurs, l’étude d’une troisième donnée, spectrale, est nécessaire : la HRTF. Celle-ci permet de localiser un son en élévation, différencie l’avant de l’arrière de la tête et affine la localisation azimutale.
26. Head-Related Transfert Function. 27. Interaural Time Difference. 28. Interaural Level Difference. 29. Oreille la plus exposée. 30. Oreille la moins exposée.
36
Position perçue d’un projecteur virtuel
FIG. 24. — Schéma illustrant le principe de la HRTF.
c. Inconvénient
Cependant, la HRTF présente une difficulté d’utilisation idéale majeure : elle est propre à chaque individu. Ainsi, la perception d’un traitement utilisant cet algorithme peut changer d’un auditeur à un autre, pouvant donc réduire l’effet voulu. Il faudrait donc pouvoir être capable de la personnaliser pour obtenir un rendu optimal. C’est pour cela que plusieurs instituts, tels que l’IRCAM, proposent des banques de HRTF. Spat, le spatialisateur de l’IRCAM Le Spatialisateur est une suite de logiciels, développée dès 1999 par l’équipe Espaces acoustiques et cognitifs de l’IRCAM, qui permet de traiter en temps réel la spatialisation de sources sonores. Ce système est extrêmement modulaire car il prend en compte le nombre de sources sonores, les contraintes du dispositif de projection, la puissance de calcul nécessaire, etc. Son aspect temps réel lui permet d’être utilisé dans des situations de concert, mais également en post-production, que ce soit dans le cinéma, la musique ou les jeux vidéo.
37
FIG. 25. — Interface de Spat.oper.
Espace de projection de l’IRCAM Inauguré en octobre 1978, l’espace de projection est une salle pouvant accueillir jusqu’à 350 personnes. Isolée du reste du bâtiment de l’IRCAM, elle peut servir de salle de concert, de studio d’enregistrement, etc. Sa particularité réside dans son acoustique : celle-ci est variable car les structures (plafonds, murs) sont indépendantes et peuvent ainsi modeler l’espace de la salle. De plus, les panneaux de ces structures sont en réalité des périactes 31 dont chaque face est composée d’un matériau au caractéristique différente (absorbante, réfléchissante et diffusante). Entre 2008 et 2011, l’IRCAM a acquis 264 haut-parleurs, et les a répartis autour de l’audience, permettant une diffusion horizontale en WFS, ainsi qu’un dôme de 75 haut-parleurs fonctionnant en Ambisonie et autorisant une diffusion en 3D. Celui-ci peut diffuser de l’Ambisonie d’ordre 9, en faisant ainsi le système de restitution le plus complexe réalisé à ce jour. La spatialisation des sources sonores est gérée en temps réel par une installation informatique pilotant les 339 haut-parleurs. L’inauguration du nouveau dispositif de spatialisation sonore de l’espace de projection eut lieu le 29 novembre 2012.
31. Triangles pivotants (beaucoup utilisés comme éléments de décor au théâtre grec antique).
38
« C’est la première fois que j’ai pu composer une pièce et l’entendre, immédiatement, dans un tel espace, sur un tel système, et si bien décodée. Habituellement, lorsque je compose en Ambisonics 3D, je ne peux qu’imaginer le résultat au cours de l’écriture. Jamais le tester. Ici, à tout moment de la composition, j’ai pu aller dans l’Espace de projection pour me rendre comte de ce que j’écrivais. » 32
FIG. 26. — Espace de projection de l’IRCAM.
Conclusion Les systèmes de spatialisation virtuelle permettent de simuler la position de sources sonores, ou de projecteurs sonores dans l’espace, soit en modifiant l’intensité sonore provenant des haut-parleurs, soit en utilisant des configurations pré-requises d’installation de diffuseurs sonores, soit en utilisant des fonctions basées sur la cognition auditive ou la propagation des ondes.
32. Natasha Barrett, dans la notice technique du programme de l’inauguration du nouveau dispositif de spatialisation sonore multicanal dans l’espace de projection de l’IRCAM.
39
3. Les dispositifs de rendu MidiSpace MidiSpace est un logiciel permettant de spatialiser différentes sources sonores au format Midi et la position d’un avatar, représentant l’auditeur, par rapport à celles-ci. Directement lié à un moteur de spatialisation, celui-ci permet d’écouter en temps réel comment va être perçu l’espace sonore depuis la position virtuelle de l’utilisateur. Les stations de travail Les DAW 33 ou SAW 34 sont souvent utilisées par les compositeurs et les ingénieurs du son pour spatialiser les objets sonores en musique, médias, etc. Ainsi, elles supportent toutes les configurations communes de canaux : mono, stéréo, et 5.1. Cette utilisation étant limitée au champ commercial, leur usage dans le champ artistique est trop souvent restreint à une configuration 5.1 qui favorise une direction frontale et offre des capacités réduites de localisation du son sur les côtés et l’arrière. Récemment sont apparues des extensions gérant le 10.2 mais sont toujours inférieures à différentes techniques telles que la WFS et l’Ambisonie. De plus, les configurations utilisées dans les installations artistiques sont souvent complexes et adaptées à l’œuvre rendant l’utilisation des DAW difficile. Enfin, elles restent souvent cantonnées à de l’utilisation en post-production que ce soit pour le cinéma ou les jeux vidéo. Conclusion Les dispositifs de rendu permettent de travailler sur un éditeur directement lié à un moteur de spatialisation. Limités à des espaces simples ou imposés par les standards de l’industrie, ils ne permettent en revanche pas de pouvoir travailler sur des environnements personnalisés et employant des configurations techniques inhabituelles.
33. Digital Audio Workstations. 34. Spatial Audio Workstations.
40
4. Champs d’application a. La recherche
Au niveau de la recherche, l’espace de projection de l’IRCAM présente un double intérêt, musical et scientifique. Dans un premier temps, il permet aux compositeurs de s’approprier de nouveaux moyens d’écoute et constitue un nouvel outil d’expérimentation sonore. Dans un second temps, il sert aux équipes de l’institut, à la fois sur les recherches de développement des techniques de reproduction et sur les études sur la cognition auditive spatiale. Concernant les techniques de reproduction, l’IRCAM travaille actuellement avec le CNSMDP 35 sur le projet Sample Orchestrator 2 et en interne sur l’amélioration des techniques de WFS et de reproduction binaurale, ainsi que sur les sources à directivité contrôlées. Dans le domaine de la cognition auditive spatiale, l’institut est en partenariat avec le Trinity College de Dublin et le CHU 36 de Nice sur le projet Verve visant à améliorer la qualité de vie de personnes à risque d’exclusion sociale. La spatialisation sonore y est utilisée pour simuler des environnements, virtuels et immersifs, facilitant l’analyse de l’impact affectif et auditif pour mettre en place de nouvelles techniques thérapeutiques concernant les troubles liés à l’anxiété. En parallèle l’IRCAM travaille également sur le projet HC2 37 qui s’intéresse aux nouvelles formes de perception et d’interaction définies par la relation humain-outils informatiques. b. Le multimédia
La spatialisation sonore tient un rôle très important dans le multimédia. Premièrement, la question de la mise en espace du son dans les cinémas n’est pas nouvelle. Actuellement, Dolby, Sony et DTS sont les trois grands à monopoliser le milieu sonore cinématographique. Cela représente une part de marché importante car chaque standard nécessite l’installation in situ des décodeurs respectifs et, selon, des haut-parleurs. Deuxièmement, le marché de l’audiovisuel chez le particulier devient de plus en plus important avec la standardisation et la banalisation des installations de type home cinema, que ce soit pour les films, la musique ou les jeux vidéo. On peut citer par exemple, la sortie du casque Parrot Zik, designé par Philippe Starck,
35. Conservatoire national supérieur de musique et de danse de Paris. 36. Centre hospitalier universitaire. 37. Human Computer Confluence.
41
qui permet, grâce à une application smartphone, de contrôler l’emplacement de haut-parleurs virtuels.
FIG. 27. et FIG. 28. — Contrôle de l’angle des haut-parleurs virtuels sous l’application Parrot Audio Suite.
FIG. 29. — Contrôle de la profondeur des haut-parleurs virtuels sous l’application Parrot Audio Suite.
42
On peut aussi noter l’apparition récente de concerts performés et enregistrés en 3D tels que pour la performance de Beck reprenant Sound and Vision de David Bowie pour la marque de voiture Lincoln, avec plus de 170 musiciens disposés en cercle autour de la scène où jouait le chanteur.
FIG. 30. — Une des « binaural head » utilisée pour enregistrer Sound and Vision.
FIG. 31. — Disposition des musiciens autour de la scène, un des micros binauraux utilisés peut être aperçu suspendu au-dessus de la scène.
43
c. Le bâtiment
La spatialisation a aussi un enjeu important de la domaine du bâtiment. Par exemple, le CSTB 38 a fait construire la salle Le Corbusier, une infrastructure immersive qui permet de naviguer interactivement dans des représentations 3D en utilisant des photos de terrain, des modélisations de l’ouvrage ainsi que les données du projet (matériaux utilisés, sources sonores, etc.).
FIG. 32. — Outil acoustique de simulations interactives de sites de chantier.
FIG. 33. — Dispositif d’écoute 3D breveté de la salle immersive Le Corbusier. 38. Centre Scientifique et Technique du Bâtiment.
44
CONSTAT Une difficulté de personnalisation et d’écriture Concevoir, modéliser, éditer, contrôler les trajectoires et les positions des sources sonores dans une œuvre, un film, une installation, etc. demande un travail en amont considérable. Il survient alors un problème d’écriture et d’authoring car l’artiste ou l’ingénieur du son vont avoir besoin d’écrire leurs intentions, écouter le rendu produit, et en fonction, pouvoir revenir sur la composition afin d’ajuster un son, une intensité, une position de source sonore, etc. Il leur faut donc la possibilité d’effectuer des allers-retours entre écriture / ajustements. Parmi les logiciels vus dans la partie « Les outils et leurs champs d’application », quelles sont les interfaces permettant l’écriture d’une œuvre ou la composition d’un espace sonore ? a. Le Spat
Un logiciel tel que le Spat de l’IRCAM, qui permet de travailler dans un espace sphérique 3D et bien que performant, présente rapidement quelques limites d’utilisation. Il n’est par exemple pas possible de positionner plus de 8 sources sonores et plus de 8 haut-parleurs. Il est également impossible de pouvoir écrire des trajectoires de sons dans l’espace de composition. En revanche le positionnement des projecteurs sonores n’est pas imposé dans l’espace circulaire.
FIG. 34. — Interface de Spat.oper.
45
b. MidiSpace
L’édition de trajectoires dans le logiciel MidiSpace permet de spatialiser en temps réel la position de sources Midi, représentées par des instruments, (cf. FIG. 35.) par rapport à un avatar représentant la position de l’auditeur dans l’espace. Plusieurs inconvénients sont notables. D’une part, l’interaction avec le positionnement des sources prend place dans un espace 2D et restreint. D’autre part, il n’est pas possible d’enregistrer une séquence de déplacement au sein de l’espace pour pouvoir le rejouer par la suite.
FIG. 35. — Interface de MidiSpace.
46
c. La SAW IOSONO
Une station de travail comme celle de IOSONO limite l’espace de composition à un cercle et les interactions avec le positionnement s’en retrouvent donc diminuées. De plus, le logiciel propose un choix restreint de configurations audio et ne peut, en conséquence, pas s’adapter à des cas particuliers.
FIG. 36. — Interface de la Spatial Audio Workstation de IOSONO.
En revanche, on peut dessiner des trajectoires de déplacement, les éditer et piloter des positions de sources grâce à des contrôleurs tels qu’un joystick. Attention malgré tout, car le contrôle manuel a une portée réduite et manque parfois de précision.
FIG. 37. — Joystick contrôlant la position de sources sonores.
47
d. Conclusion
Au niveau configuration, on retiendra qu’il est impossible de positionner comme on le souhaite les haut-parleurs dans des espaces autres que le cercle et le carré pour la 2D et le cube et la sphère pour la 3D mais également des piloter des positionnements de sources à l’intérieur de celles-ci. Ce manque de personnalisation fera donc réfléchir plus en terme de zones d’écoute (devant, à droite, derrière, etc.) qu’en terme d’espace 3D réel (niveau du sol, mur à droite, coin en haut à gauche, couloir, etc.). De plus, beaucoup de ces logiciels ne permettent pas de personnaliser la configuration audio en se limitant souvent aux formats du home cinema. Il sera donc impossible de pouvoir les utiliser avec des configurations requérant 17 haut-parleurs et 2 caissons de basse par exemple. Au niveau composition, il est parfois impossible d’écrire et d’enregistrer les positions et les déplacements effectués. Ou alors il faudra jouer les modifications à l’aide de contrôleurs, se rapprochant ainsi de la performance enregistrée. À part les trajectoires 2D de la station de IOSONO, il manque également un modèle temporel avec une notion de début et de fin, de continuité et une représentation graphique de la scène spatiale et sonore afin d’avoir une image du travail et également une trace pouvant faire office de partition. En effet, c’est cette représentation qui va permettre au compositeur ou au technicien de pouvoir ajuster ses paramètres sonores en fonction de ses intentions, d’avoir un retour visuel, de garder un caractère unique à la production : telle partition ne peut être jouée que dans un espace et une configuration particuliers par exemple. En conclusion, il manque donc un outil : - indépendant du moteur de spatialisation ; - permettant de créer, dans un espace 3D : - des configurations de haut-parleurs personnalisées, - des trajectoires de déplacement de sources sonores par rapport à cet espace configurable ; - autorisant un véritable travail, à la fois en amont et en situation, de composition et d’écriture.
SOLUTIONS 1. IanniX, un séquenceur graphique Créé en 2002, IanniX est un séquenceur graphique open source, inspiré des travaux de Iannis Xenakis et destiné à la création numérique. a. De l’UPIC 39 à IanniX
Dans les années 1970, Xenakis, préoccupé par la transposition de la représentation de l’espace en représentation temporelle utilise une table d’architecte équipée de capteurs électroniques comme outil d’édition du son et de la musique, ancêtre en quelque sorte des tablettes Wacom mais permettant de bénéficier d’un grand espace de travail et de dessiner directement sur des feuilles de papier tangibles. Nommé l’UPIC, cet outil, extension de la notation du solfège traditionnelle, permettait au musicien de composer un espace temps / fréquence et de l’interpréter de manière simple et directe, en conservant une notion de geste instrumental.
FIG. 38. — Iannis Xenakis et l’UPIC.
39. Unité polyagogique informatique du CEMAMu (Centre d’études de mathématiques et automatique musicales).
49
Sur les bases de l’UPIC, IanniX a été imaginé comme un séquenceur graphique temps réel, permettant de construire et de composer des partitions graphiques. Une forte volonté d’abstraction a été imposée afin que IanniX ne soit pas dédié uniquement à l’informatique musicale, mais aussi au traitement du signal vidéo, au show-control pour les installations, et à la gestion de différentes interfaces hardware. b. Les objets fondamentaux
Pour composer une partition graphique temps réel dans IanniX, une palette restreinte de trois objets fondamentaux et distincts a été imaginée : - les « triggers » déclenchent des événements ponctuels ; - les « courbes » sont des suites de points dans l’espace tridimensionnel ; - les « curseurs » évoluent sur des courbes et progressent en fonction du temps. Le trigger émet un message lorsqu’il est déclenché, au passage d’un curseur. La courbe peut-être composée de segments de droite, en ellipse ou en courbe de Bézier. Les curseurs peuvent envoyer des messages indiquant leur position dans l’espace ou leur progression, peuvent déclencher des triggers sur leur passage et enfin envoyer des messages lorsqu’ils créent un point d’intersection avec une autre courbe. c. La polytemporalité
IanniX implémente un mécanisme dit de polytemporalité, qui permet à chaque curseur de gérer indépendamment sa progression, donc sa relation espace-temps. d. Les partitions génératives
IanniX peut interpréter des scripts JavaScript et ainsi faciliter la création de partitions mathématiques, génératives ou graphiquement complexes. Je vous invite à regarder cette vidéo pour mieux comprendre les principes de base de IanniX : https://vimeo.com/60940611 (mot de passe : iannix)
2. Utilisé comme un éditeur indépendant Dans un premier temps nous allons construire étapes par étapes un simple exemple d’espace accueillant une spatialisation sonore, puis nous analyserons l’œuvre Yeosu 2012 pour mieux comprendre la mise en application des aspects innovants lors d’un cas particulier.
50
a. Exemple de spatialisation
Nous allons donc utiliser le logiciel IanniX afin de créer notre partition de spatialisation. Au lancement, le logiciel présente une grille 2D vierge où l’échelle de mesure est la seconde. Nous pouvons ainsi nous l’approprier et convertir cette unité de temps en unité de longueur.
FIG. 39. — Espace de travail vierge sous IanniX.
Dans cet exemple, nous choisirons de reconstituer un espace particulier en choisissant de manière arbitraire qu’une seconde équivaut à un mètre. Pour un espace carré de 2m x 2m, nous traçons à l’aide des segments de courbe l’équivalent dans le logiciel puis nous plaçons les haut-parleurs là où nous le souhaitons. Ici, en bleu, dans une configuration 5.1.
FIG. 40. — Espace défini et haut-parleurs placés dans une configuration 5.1.
51
Nous pouvons par la suite rajouter différentes trajectoires déterminant la position des sources sonores (représentée par des curseurs) au fur et à mesure que le temps défile. Étant donné que IanniX permet à chaque curseur d’avoir une vitesse indépendante il est possible de paramétrer le temps parcouru par une source sur sa trajectoire ou de placer plusieurs sources sur une même trajectoire, à des vitesses différentes. Ici nous utilisons 3 trajectoires (bleu foncé, orange et noire) avec les curseurs associés.
FIG. 41. — 3 trajectoires de sources sonores dans un espace défini dans IanniX.
Nous avons alors un système proche de la station de travail de IOSONO : utilisation d’un standard du home cinéma et édition de trajectoires de sources sonores. Rajoutons maintenant plusieurs haut-parleurs dans un espace différent :
FIG. 42. — 4 trajectoires de sons dans un espace composé de 10 haut-parleurs.
52
b. Analyse de l’œuvre Yeosu 2012, présentée lors d’exposition internationale 2012.
Étudions à présent la conception de l’œuvre Yeosu 2012 par Charles de Meaux. Dans un polyèdre de 56 x 24 x 12 m, le son devait être mis en espace selon des vidéos de paysages diffusées sur un écran au plafond. « Charles de Meaux, à qui l’on a confié 10 minutes de temps d’occupation de l’écran, s’est tourné vers une solution formelle résolument a-narrative pour les images et au contraire totalement scénarisée et spatialisée pour le son — qui est la couche significative prépondérante de la pièce. […] Le vertige sonore replace le spectateur au sein d’une composition écrite où les objets sonores sont distribués et joués dans le volume entier de l’espace donné. » 40 À l’époque, le logiciel IanniX ne permettait pas de travailler dans un espace 3D, il a donc fallu modifier l’outil afin de l’adapter aux besoins nécessaires et inhérents au projet. Une fois l’architecture logicielle modifiée, il était nécessaire de tester en studio la conversion du séquenceur en véritable outil de spatialisation, la conversion du temps en espace.
FIG. 43. — Trajectoires de sons dans un cube 3D sous IanniX. 40. L’art à l’épreuve des mondes exposés (Franck Gautherot) in L’art au temps des expositions universelles.
53
FIG. 44. — Tests en studio du rendu sonore des trajectoires écrites sous IanniX.
Les tests ayant été concluants, il s’agissait alors de reproduire l’espace réel de l’exposition dans le logiciel tout en prenant en compte les contraintes techniques de l’installation : 24 haut-parleurs disposés par groupe de 3 sur 8 poteaux délimitant l’espace de spatialisation et 8 caissons de basse.
FIG. 45. — Espace de l’installation, les points roses représentent l’emplacement des haut-parleurs.
54
Parallèlement, Charles de Meaux travaillait sur calques pour écrire, dans l’espace, les déplacements de sons imaginés pour chacun des tableaux.
FIG. 46. — Exemple de partition sur calque.
Une fois les calques récupérés, il ne restait plus qu’à transcrire les courbes dans le logiciel à l’aide de formules mathématiques, puis de modifier le modèle cubique d’Ambisonie afin de l’adapter au polyèdre de l’espace.
55
Une fois sur place, le mixage spatial pouvait être réalisé à l’intérieur de la structure à l’aide de 2 iPads, connectés en Wi-Fi à la régie, l’un fonctionnant comme une timeline d’évènements sonores, l’autre affichant l’espace 3D pour voir où les sons étaient placés.
FIG. 47. — iPads aidant au mixage spatial.
Dans ce cas de figure, le mixage spatial servait aussi à pouvoir ajuster les niveaux d’intensité sonore. En effet, généralement, pour faire rentrer un son progressivement, on fera un fondu entrant en augmentant plus ou moins rapidement le volume du son. Ici, l’intensité du volume sonore était la même tout au long de la lecture de la source, c’était sa position dans l’espace et l’éloignement par rapport à l’auditeur qui permettait de simuler un fondu entrant ou sortant. Conclusion Pour Yeosu 2012 IanniX a été utilisé pour la première fois pour spatialiser du son en 3D. Ce choix s’est fait grâce à la possibilité d’adapter l’espace de composition à l’espace naturel de l’exposition et aux différentes contraintes techniques de l’environnement, ici l’utilisation de 24 haut-parleurs et 8 caissons de basse. De plus, l’utilisation de cet outil a permis à Charles de Meaux d’avoir un réel support de travail au niveau de l’écriture de l’œuvre, lui permettant de pouvoir retoucher en fonction des rendus sonore de son travail et ainsi faire des aller-retours entre écriture / écoute.
56
FIG. 48. — Une des partitions IanniX de Yeosu 2012 vue du dessus.
57
58
FIG. 49. — Une des partitions IanniX de Yeosu 2012 vue en biais.
3. Simulation et modélisation des espaces réels Pour aller plus loin et ce toujours grâce au caractère indépendant de IanniX, nous pouvons imaginer utiliser le logiciel pour recréer des espaces architecturaux réels et des déplacements de sources sonores à l’intérieur de celui-ci. Le fait d’avoir cet outil de représentation indépendant du moteur de spatialisation va nous permettre de modéliser et simuler des environnements sonores temps réel. a. Architecture
Pour un rendu 3D vidéo par exemple, on pourrait recréer l’espace architectural dans une partition 3D IanniX puis attribuer un flux sonore à chaque événement (personnes, voitures, rivière, etc.) et ce, selon leur déplacement dans l’espace. Chaque flux sera alors représenté par une trajectoire et son déplacement par le curseur sur cette trajectoire. On pourrait alors définir un curseur supplémentaire suivant la trajectoire de la caméra afin de pouvoir naviguer à la fois visuellement mais aussi auditivement dans l’environnement.
FIG. 50. — IanniX utilisé pour simuler des déplacements de sources selon la position de voitures.
b. Urbanisme
Dans le cadre de projet d’urbanisme, l’utilisation de IanniX présenterait deux avantages. Premièrement, comme pour l’architecture, il serait possible, en amont, de simuler un environnement sonore 3D, proche du modèle réel escompté. Nous pourrions alors placer différentes sources sonores fixes ou mobiles : trains, personnes, haut-parleurs de type Public Address, RER, etc. Deuxièmement, une fois les systèmes mis en place et opérationnels, IanniX pourrait alors servir de contrôleur en temps réel sur le mixage spatial des dif-
59
férentes sources sonores. On pourrait alors augmenter l’intensité d’un haut-parleur en période de fréquentation ou ajuster les délais d’un public address selon les bruits environnants afin d’optimiser la diffusion de messages importants dans un environnement donné. Conclusion Bien qu’actuellement il n’existe encore pas de moteur de spatialisation utilisant des environnements autres que des cubes et des sphères, le fait de disposer dès à présent d’un éditeur indépendant permet de commencer à pouvoir travailler sur la simulation acoustique temps réel de sources mobiles et fixes dans un espace architectural donné. ce n'est pas un problème d'impossibilité technique, mais seulement que personne se s'est attelé à la question, par facilité, sans doute aussi ce coût de calcul, mais il existe de nombreuses solutions pour cela (grilles...)
60
FIG. 51. — Exemple de gare vue du dessus.
61
62
FIG. 52. — Exemple de gare vue en biais.
FIG. 53. — Exemple de gare vue de la perspective du piéton.
63
CONCLUSION La musique a depuis longtemps pris en compte la dimension spatiale, que ce soit à cause de contraintes techniques comme la disposition des orgues de la basilique Saint-Marc, ou des choix d’ordre purement esthétique comme la disposition des haut-parleurs de l’Acousmonium. Cette prise en compte a poussé les compositeurs et les chercheurs les accompagnant, à se poser des questions sur les possibilités d’écriture de l’espace et les différents moyens techniques à mettre en œuvre pour rendre possible le déplacement de sources sonores dans l’espace. Des recherches ont commencé à être menées en parallèle par le cinéma qui voulait rendre l’expérience audiovisuelle plus intense et immersive. Ayant un premier temps touché les configurations techniques et les installations des cinémas, le marché s’est également déplacé chez le particulier avec la banalisation du home cinema. Ces avancées artistiques et industrielles ont abouti à la création de 3 grandes familles d’outils permettant la spatialisation sonore : - les systèmes de diffusion qui envoient directement un son sur un haut-parleur, la spatialisation s’effectuant par le positionnement de celui-ci dans l’espace ; - les systèmes de spatialisation virtuelle qui vont permettre de positionner et déplacer des haut-parleurs virtuels et des sources sonores dans l’espace ; - et enfin les dispositifs de rendu qui sont des logiciels ou stations de travail qui permettent d’écrire des déplacements de sources sonores et de les jouer grâce à un moteur de spatialisation directement intégré. Malgré la performance de ces outils, on rencontre rapidement des limites à leur utilisation, que ce soit par une limite du nombre de sources sonores à gérer et des positions de haut-parleurs imposées, ou par un manque de support d’écriture pour les artistes et les ingénieurs. Il manque donc un outil permettant de gérer des espaces de composition et des configurations technique particulières et offrant un travail d’écriture en amont et en situation. En 1947, Iannis Xenakis arrivait en France et devenait ingénieur assistant du Corbusier pendant 13 ans. Cette période lui permit de concevoir plusieurs projets tels que la réalisation d’une grand partie du couvent de la Tourette et le pavillon Philips. En parallèle, il poursuivait ses recherches en musique et parvint à mêler ces deux domaines : la dernière partie de la partition de Metastasis servit de base à la conception du pavillon Philips par exemple. Il s’intéressa à la mise en espace du son en concevant des partitions indiquant la position de musiciens dans
65
le public, répartis selon des critères mathématiques et esthétiques. Finalement, en 1977, il créa l’UPIC, une sorte de tablette graphique sur laquelle il pouvait dessiner et mettre en son ses productions. Lorsqu’en 2001 Iannis Xenakis décéda, il laissa un héritage qui mena, entre autre, à la conception du logiciel IanniX sorte de descendant de l’UPIC destiné à la création numérique en général : son, vidéo, lumière, etc. Après avoir détourné le logiciel de sa fonction première, on se rendit compte des fortes possibilités d’innovation que celui-ci offrait pour la spatialisation sonore. Sa forte capacité d’abstraction et son indépendance par rapport à un moteur de spatialisation lui permet en effet de pouvoir construire des espaces architecturaux virtuels sans aucune contraintes mais aussi de gérer la position d’un nombre infini de sources sonores. Il ne reste maintenant plus qu’à attendre que les systèmes de spatialisation virtuels soient assez performants pour permettre de gérer ces nouvelles possibilités. Les limites seront alors celles de l’imagination de l’auteur, du compositeur, des ingénieurs. Iannis Xenakis qui aimait représenter, soit le temps soit l’espace, partant de concepts hors temps et hors espace, a trouvé avec l’UPIC un moyen contemporain de transposer la représentation spatiale en représentation temporelle, de passer de la table d’architecte à la représentation musicale. Nous proposons de boucler la boucle et d’utiliser aujourd’hui le descendant de l’outil qu’il a inventé également pour composer la spatialisation de la musique et permettre à la musique de l’espace de gagner l’architecture.
66
NOTES 41 Aire : En mathématiques, l’aire est une mesure de grandeur de certains figures du plan ou de surfaces en géométrie dans l’espace. Ambisonie : Technique de captation, synthèse et reproduction d'environnement sonore. L'immersion de l'auditeur dans cet environnement virtuel se fait grâce à un nombre de haut-parleurs variant de quatre à quelques dizaines. La méthode Ambisonique existe en version 2D (les haut-parleurs sont tous situés dans le plan horizontal contenant la tête de l'utilisateur) et 3D (les haut-parleurs sont alors souvent disposés sur une sphère centrée sur la tête de l'utilisateur). Antienne : Refrain repris par le chœur entre chaque verset d’un psaume, ou chanté seulement avant et après le psaume. Azimut : L’azimut (parfois orthographié azimuth) est l'angle dans le plan horizontal entre la direction d'un objet et une direction de référence. Le terme est issu de l'espagnol acimut, lui-même issu de l'arabe "ت#$( اas-simt), qui signifie direction. Binaural : Binaural signifie littéralement « ayant trait aux deux oreilles. » L'audition binaurale, par comparaisons de fréquences, permet à l'homme et aux animaux de déterminer la direction d'origine des sons. Ici, on parlera de son binaural, c'est-à-dire des sons apparents, dont la perception apparaît dans le cerveau indépendamment de stimulus physiques. Canal : Le canal est un médium de transmission d’informations. Pour un projecteur sonore, il représente une voie d’amplification indépendante. Cinétique : Roland Cahen développe une musique qu’il qualifie de cinétique en ce que sa musicalité s’exprime par le mouvement au même titre que la chorégraphie. Coordonnées : Les coordonnées permettent de localiser un point dans un espace à N dimensions. Elles peuvent être cartésiennes (x, y, z) ou polaires (r, θ, φ). Densité : Ici la densité correspondant à la répartition de l’énergie d’une masse sonore sur les différents canaux qui la constitue. Diffusion : Action de projeter un signal sonore sur un projecteur sonore grâce au contrôle de son intensité transmise. La diffusion pourra faire preuve d’une inter41. Certaines définitions proviennent du site Wikipédia (http://fr.wikipedia.org).
prétation manuelle, être assistée par des systèmes informatiques ou être automatique. Une diffusion automatique aura pu être auparavant composée et interprétée manuellement, puis enregistrée afin de pouvoir être rejouée de manière identique. Dispositif de diffusion (ou projection) : Représente un ensemble de sources physiques ou virtuelles, leurs positions dans l’espace, leurs caractéristiques, le nombre de canaux utilisés, la position de l’auditorium par rapport à ces sources. Distance projetée : Représente la sensation de distance perçue par l’auditeur par rapport à un projecteur sonore. HRTF : Une HRTF caractérise les transformations apportées aux ondes sonores par le corps de l’auditeur, principalement à la tête, le pavillon de l’oreille et le conduit auditif, qui permettent à l’être humain de repérer l’origine d’un son, tant en azimut (horizontalement) qu’en site (verticalement). Elle permet ainsi de simuler des espaces 3D à partir de deux canaux de projection. Localisation sonore : Elle désigne la capacité du système auditif à déterminer la position spatiale d’une source sonore au moyen de différents indices physiques. Ces indices peuvent être classés en deux catégories : les indices binauraux (c’est-àdire issus de l’analyse combinée des sons parvenant aux deux oreilles) et des indices monauraux (c’est-à-dire ceux que l’on peut déterminer avec une seule oreille). Mouvement : Ici variation du son dans l’espace par rapport au temps. Objet sonore : Notion due principalement à Pierre Schaeffer, et qui désigne un phénomène sonore perçu dans le temps comme un tout, une unité, quels que soient ses causes, son sens, et le domaine auquel il appartient (musical ou non). Panoramique polyphonique : La notion de panoramique polyphonique fait référence à un ensemble de techniques liées à la spatialisation sonore. Il s’agit de restituer, lors d’une écoute, la sensation d’espace sonore, c’est-à-dire des variations d’intensité et de contenu sonore selon les directions. L’enregistrement stéréo est un exemple classique de manipulation du son dans ce but — il existe des variantes plus complexes, telles que la quadriphonie. La panoramique sonore est, dans ce contexte, la répartition des sons entres les différentes voies de diffusion du contenu sonore. Projecteur sonore : source physique (par opposition à la source virtuelle). On pourra également parler de diffuseur sonore.
Quadriphonie : La quadriphonie est une technique d’ingénierie du son qui permet la restitution des musiques et effets sonores avec une impression d’espace accentuée, grâce à l’usage de quatre voies indépendantes, généralement avant-droite, avant-gauche, arrière-droite et arrière-gauche. Spatialisation sonore : Action de distribuer et de localiser un objet sonore dans un espace de diffusion. Stéréophonie : Le terme stéréophonie vient du grec stereo « spatial, solide » et phono « ton, le son » ; il concerne tous les programmes sonores utilisant deux canaux. On entend par son stéréophonique un son enregistré ou reproduit à l’aide de deux canaux séparés, généralement, gauche et droite. Surround : Le son multicanal englobe un éventail de techniques d’enregistrement, de mixage et de reproduction dit « surround » (« cerner », « encercler », « entourer », « environner »), c’est-à-dire, tout système de reproduction qui n’est ni monophonique ni stéréophonique. Trajectoire : Ici représente la course d’un objet sonore dans l’espace par rapport au temps pour décrire des impressions de mouvements. X, Y, Z : Représentent les trois coordonnées cartésiennes utilisées pour organiser des dispositifs de projection ou localiser des sources sonores dans l’espace.
ORIENTATION BIBLIOGRAPHIQUE 1. Livres BAYLE (François), Musique acousmatique : propositions… …positions, Buchet/Chastel, coll. « Musique », 1993, 269 p. CHATWIN (Bruce), The Songlines, Vintage, 1998, 304 p. CHION (Michel), Guides des objets sonores : Pierre Schaeffer et la recherche musicale, Buchet/Chastel, coll. « Musique », 1995, 188 p. COTT (Jonathan), Conversation avec Stockhausen, Lattès, 1979. DE MEAUX (Charles), L’art au temps des expositions universelles, Les presses du réel, 2012, 110 p. MURRAY SCHAFER (Raymond), Le paysage sonore : La musique du monde, Wildproject Éditions, coll. « Domaine sauvage », 2010, 328 p. RUSSOLO (Luigi), L’art des bruits, Allia Éditions, 2003, 40 p. SCHAEFFER (Pierre), Traité des objets musicaux, Seuil, coll. « Pierres vives », 1966, 713 p. VARÈSE (Edgar), Écrits, Christian Bourgois, coll. « Musique, passé, présent », 1993, 215 p. VINET (Hugues) et DELALANDE (François), Interfaces hommes-machine et création musicale, Hermès Sciences Publications, 2000, 236 p. XENAKIS (Iannis), Les Polytopes, Balland, 1975, 135 p. XENAKIS (Iannis), Musique. Architecture, Casterman, coll. « Mutations-Orentations », 1976, 237 p. XENAKIS (Iannis), Musiques formelles : Nouveaux principes formels de composition musicale, Stock, coll. « Musique », 1981, 260 p.
2. Articles ASCIONE (Patrick), « La polyphonie spatiale », L’Espace du son, n° 2, 1991, p. 17-22. RAYLEIGH (Lord), « On our perception of sound direction », Philosophical magazine, n° 13, 1907, p. 214-232. MURRAY SCHAFER (Raymond), « Acoustic space », L’Espace du son, n° 2, 1991, p. 6874. SANTANA (Helena), « Terretektorh: Space and Timbre, Timbre and Space », Ex tempore, n° 9, 1998, p. 14-35. ZVONAR (Richard), « A History Of Spatial Music: Historical antecedents from Renaissance antiphony to Strings in the Wings », eContact!, n° 7.4, 2005.
3. Publications CAHEN (Roland), Sound design for navigation in topophonies, ENSCI - Les Ateliers, 2008, 6 p. DELERUE (Olivier) et PACHET (François), MidiSpace, un spatialisateur Midi interactif, Sony CSL, 1998, 11 p. DELERUE (Olivier), Spatialisation du son et programmation par contraintes : le système MusicSpace, Paris 6, 2004, 163 p. ENGEL (Rémi), Audio - Vision : une évolution des systèmes de correspondances entre l’auditif et le visuel, ENSAD, 2008, 86 p. GONOT (Antoine), Conception et évaluation d’interfaces de navigation dans les environnements sonores 3D, CNAM, 2008, 388 p. JACQUEMIN (Guillaume), CODUYS (Thierry) et RANC (Matthieu), IanniX 0.8, 2012, 9 p. PETERS (Nils), Sweet [re]production: Developing sound spatialization tools for musical application with emphasis on sweet spot and off-center perception, McGill University, 2010, 305 p. RICHARD (Gaël), Spatialisation des sons (Binaural / transaural), INT-Evry, 2004, 39 p.
SCHUMACHER (Marlon) et BRESSON (Jean), Spatial Sound Synthesis in Computer-Aided Composition, 2010, 19 p. STERKEN (Sven), Iannis Xenakis, Ingénieur et Architecte, Universiteit Gent, 2004, 549 p.
4. Sites Internet Acousmodules, (page consultée le 28 février 2013), [en ligne]. http://acousmodules.free.fr L’Acousmonium | INA - GRM, (page consultée le 28 février 2013), [en ligne] http://www.inagrm.com/accueil/concerts/lacousmonium CSTB - Salle immersive Le Corbusier, (page consultée le 28 février 2013), [en ligne]. http://salle-immersive.cstb.fr/webzine/preview.asp?id_une=38 Flux:: sound and picture development, (page consultée le 28 février 2013), [en ligne]. http://www.fluxhome.com/products/plug_ins/ircam_spat IOSONO | the future of spatial audio, (page consultée le 28 février 2013), [en ligne]. http://www.iosono-sound.com Multiphonie, (page consultée le 28 février 2013), [en ligne]. http://multiphonie.free.fr Topophonie : Modèles, interfaces et rendus audiographiques granulaires navigables, (page consultée le 28 février 2013), [en ligne]. http://www.topophonie.fr
ANNEXES Interview de Guillaume Jacquemin, développeur de IanniX à propos de la conception de l’œuvre Yeosu 2012 de Charles de Meaux « Lorsque la Corée a été sélectionnée pour recevoir l’Expo internationale, elle a choisi une petite ville au sud, à Yeosu pour installer tout le dispositif, l’architecture, les pavillons. Les architectes sur place ont imaginé une sorte de canopée de 200 mètres par 40 où il y avait un écran de LED gigantesque et avaient un problème, choisir des contenus qui allaient être diffusés sur cet écran. Pour ça, ils ont fait appel à divers artistes coréens et à un artiste international, plus particulièrement français, Charles de Meaux qui est un réalisateur et dont les films ont du succès en Corée. Partant de là, Charles de Meaux, voyant ce que les autres artistes avaient proposé, qui étaient des images assez animées, qui avaient vraiment exploité les 200 mètres par 40 de cet écran, lui a juste profité du format de l’écran qui est finalement un très très large 16/9. Là-dessus, il a proposé quelque chose qui allait être une image à cadrage fixe, par contre le son lui allait être animé. Il a commencé à étudier la situation, à voir ce qu’il allait pouvoir proposer, et pour ça il a fait appel à Atelier 33, qui est une société qui gère les haut-parleurs, ceux qu’il utilise dans son studio à Paris. Il rentre donc en contact avec Michel Deluc, qui est l’acousticien phare d’Atelier 33, qui lui dit : « Évidemment c’est possible, voilà ce qu’on peut faire, en revanche moi je connais quelqu’un qui va pouvoir t’aider dans la création, c’est Thierry Coduys. » Thierry Coduys s’occupe souvent de concerts spatialisés de Stockhausen, de Berio, de tout un tas de grands artistes contemporains et il travaille très souvent à la Cité de la Musique, c’est l’homme des configurations improbables, c’est-à-dire des haut-parleurs dans tous les sens, pas endessous de 40, etc. De là Thierry commence à rentrer dans la boucle du projet et vient me voir et me dit : « Bon écoute, j’ai un super projet avec 24 haut-parleurs en 3 dimensions, ce qui va me manquer c’est un outil pour écrire et cet outil j’aimerais bien que tu me fasses une application iPad qui me permette de contrôler des sons. » À ce moment-là on en discute un peu et je lui dis : « Mais pourquoi est-ce que t’utilises pas IanniX ? » IanniX qu’on venait tout juste de sortir, de sortir dans sa dernière mouture. Et donc, là on se dit qu’évidemment c’est l’outil qu’il fallait mais il y avait plusieurs soucis, plusieurs problèmes en tous les cas dans IanniX à ce moment-là.
Le problème c’est que IanniX, a été conçu dans un premier temps en 2 dimensions, avec une fausse 3D, c’est-à-dire qu’on pouvait gérer, déplacer des éléments dans l’espace 2 dimensions et gérer une élévation indépendante. Donc il y avait ce problème là de 3 dimensions qui n’était pas traitée, l’autre problème c’était comment Charles allait écrire ces partitions, comment il allait utiliser IanniX, est-ce qu’on allait le laisser seul sur l’outil ? Est-ce qu’on allait tout faire sur place ? Parce qu’évidemment tout allait dépendre du lieu, on nous n’avions pas de quoi répéter. Et un autre problème c’était quel outil on allait utiliser pour spatialiser avec 24 haut-parleurs standards et 8 caissons de basse. Pour l’aspect spatialiseur, ce n’était pas forcément très compliqué, on s’est basé sur une Ambisonie qui fonctionnait pour un cube et on a modifié l’algorithme pour qu’il puisse marcher dans des configurations un petit peu différentes, toujours symétriques quand même puisqu’on est là dans un polyèdre un peu spécial mais qui reste symétrique. L’aspect 3D on savait que ça fonctionnait mais il y a quand même très peu d’œuvres qui utilisent l’élévation, quelque chose qu’on ne maîtrise pas forcément bien. Pour l’aspect IanniX, je rentre dans le projet, on dégage un petit budget pour avancer dessus et je transforme tout IanniX 2D en Iannix 3D, ce qui n’est pas très compliqué à faire comme ça, c’est rajouter une coordonnée, cela rajoute par contre plein de problèmes conceptuels qu’on a résolus même après le projet, petit à petit. Et pour l’écriture, là on tombe sur un vrai problème, c’est que Charles a l’habitude d’écrire pour le cinéma, le cinéma c’est le 5.1, son ingé son c’est du 5.1 aussi ou un peu plus mais pas du 24.8. On arrive à trouver une méthode, la méthode plus simple avec les outils qu’il utilise d’habitude, c’est-à-dire ProTools et voir comment faire la passerelle avec IanniX. On se décide de ne pas lui faire utiliser IanniX directement parce que c’est un peu trop compliqué, la 3D ce n’est déjà pas évident de le faire conceptuellement, pour lui écrire une pièce en 3D c’est pas évident, et en plus dans les logiciels c’est rarement pratique. Pour ça on a imaginé un système de calques, une partition déjà en perspective, on a reproduit le volume, qu’on a légèrement incliné, on a fait de la fausse 3D, la perspective ce n’est pas tout à fait de la 3D, sur lequel il allait pouvoir dessiner grosso modo les trajectoires qu’il voulait avoir, « je veux qu’il y ait du vent qui parte du haut, qui continue tout le long de l’écran, ensuite je veux qu’il y ait un petit évènement musical qui arrive par là et qui part. » Il a écrit ça, cela nous donnait l’aspect spatial de la composition, il nous a donné l’aspect temporel, c’est-à-dire à quel moment il veut lancer les évènements. Il a utilisé ProTools, il a fait un montage classique en stéréo et nous avons récupéré via ce qu’on appelle l’EDL, une trace de tout ce qu’il a fait dans ProTools. Et donc on a mixé ces deux éléments-là avec un
petit script qu’on avait réalisé dans IanniX, et en mixant ces deux éléments-là, ces deux sources de travail, on a créé cette partition 3D dans IanniX. » Ensuite on a eu plusieurs phases de travail autour de la spatialisation en 3D, je le répète, ce n’est pas quelque chose de vraiment réalisé ou alors dans des contextes très spectaculaires, des effets 3D de Dolby, des choses comme ça mais sur du travail un peu plus fin en 3D, on n’a pas vraiment un état de l’art qui est fouillé. Alors on a fait une démonstration à l’équipe coréenne qui est venue à Paris de ce que donnait la 3D. On a écrit nos trajectoires dans IanniX, on a montré le logiciel, on a projeté la partition pour qu’il la voit. De là, ça les a convaincu donc c’était bon. Deuxième étape quelques mois après, c’était de tester le setup et de voir comment sur place on allait travailler parce que nous avions une dizaine de jours, gros maximum, et en 10 jours si nous avions un seul petit souci, il fallait qu’on puisse être efficace tout le temps. De là on a fait une petite expérimentation à Levallois avec 8 haut-parleurs et on s’est mis à la place de Charles de Meaux, « voilà comment on est, qu’est-ce qu’il faut comme outil pour travailler ? » On s’est rendu compte qu’il nous fallait en effet IanniX pour piloter les partitions, il nous fallait notre spatialisateur, qu’on a réalisé dans Max/MSP, et au-delà de ça, sur place, on allait être très loin de la régie sonore, à 50-100 mètres de l’endroit où il y avait les ordinateurs, donc il nous fallait des télécommandes. Ces télécommandes, on a choisi d’utiliser deux iPads, un iPad qui permet de suivre la temporalité du projet, par exemple : « dans 10 secondes il y a des mouettes qui vont arriver par en haut. » Ça nous aide vraiment à suivre le scénario et en parallèle de ça, un iPad pour contrôler IanniX et pour visualiser les sources. Ça allait nous servir pour pouvoir faire deux choses, de pouvoir faire le mixage spatial et de faire le mixage des niveaux, quand on sera dans l’espace à Yeosu, il va bien falloir se dire : « ce son là finalement il marche pas bien dans l’espace actuel » parce que ce sont des dimensions énormes, 60 mètres par 40 donc il y a peut-être des choses qui ne fonctionnent pas. On a peutêtre envie de se dire : « en fait ça va pas du tout comme ça, j’ai envie de permuter tout l’espace, faire une symétrie. » On a donc prévu tous ces outils-là sur iPads qui ne sont que des simples télécommandes, ce n’est pas une application, ce n’est pas IanniX sur iPad, c’est vraiment une petite télécommande en Wi-Fi. De là on a conçu tous ces outils pour travailler sur place. Après ces essais à Levallois, on s’est rendu compte d’une chose c’est que l’Ambisonie ça permet de placer des sources, ça reproduit finalement la position de capture avec des microphones, mais il manque une chose, ce qu’on appelle la divergence, c’est-à-dire par exemple du vent, ce n’est pas un point, ce n’est pas une source qui vient d’un endroit précis, c’est quelque chose qui s’étale dans l’es-
pace. Il fallait gérer cet étalement parce que Charles a voulu reconstituer des paysages sonores et évidemment il y a du vent, de la pluie, des évènements très larges contrairement par exemple au bruit d’une mouette, qu’il y a souvent dans ces tableaux, qui eux sont des objets très localisés. On a donc modifié le spatialisateur pour gérer ça mais il fallait qu’on le gère dans IanniX. Il ne fallait pas rester en 3 dimensions, il fallait passer en 6 dimensions, à savoir x, y, z pour la position de la source et ensuite l’étalement en x, l’étalement en y et l’étalement en z qui créé du volume. On est donc à 6 dimensions, on en a rajouté une septième qui était le niveau sonore, « est-ce que la source est intense ou pas ? » De manière plus générale, on a développé IanniX pour 9 dimensions, pour être large en cas de paramètres à rajouter. Même si c’est quelque chose d’assez invisible dans le logiciel, qui est un petit peu caché, IanniX gère jusqu’à 9 dimensions plus le temps. Le projet a démarré, on s’est rendus en Corée et on a suivi le processus assez classique d’une salle de concert sauf que c’est en plein air. On a d’abord calibré le système, ce qui est particulier en fait dans la spatialisation c’est que les ingénieurs du son ou les acousticiens donnent généralement du timbre aux hautparleurs, nous on veut la chose la plus plate puisque le timbre et toute la finesse on veut la faire avec le spatialisateur, c’est lui qui va dire : « ce son il arrive de très loin et il s’approche. » Il ne faut pas que le son soit dégradé par une coloration du haut-parleur. Donc on a fait vraiment quelque chose de très plat, quelque chose de très homogène, et surtout pas de délais ce qui est le chic des ingés son, c’est-àdire de dire : « on va compenser les délais naturels du son en en rajoutant de manière virtuelle dans le haut-parleur. » Ce genre de choses, il ne fallait surtout pas, il fallait le système le plus plat : des haut-parleurs, point. Deuxièmement, le problème en spatialisation c’est qu’il ne faut pas qu’on entende les haut-parleurs, si on visualise dans notre tête, si on voit que le son vient d’un haut-parleur, là la spatialisation ça ne marche pas. Il faut que le son ait l’air de venir d’un peu partout, ça c’est la particularité de l’Ambisonie, ça sonne très bien pour ça, on n’entend pas les haut-parleurs, on est vraiment dans un espace, après on ne localise peut-être pas très bien les sources au centimètre près, ce n’est pas ça l’objectif mais on se sent vraiment en immersion. Après cela, on a calibré quand même notre spatialisateur avec des sources basiques, on a fait des petites spirales qui montent, des sons qui descendent, des sons qui montent, on a essayé de calibrer nos coefficients puisqu’il y a quand même pas mal de choses à régler dans ce spatialisateur. On fait ça en 5 jours, on avait 5 jours pour faire le mixage spatial, déplacer les sources, ajuster les niveaux, « là il y a un peu trop de vent, un peu trop de mer à cet endroit, je n’entends pas bien le bruit des bateaux », tout ça on le corrige. Et on le corrige avec deux choses, la correction se fait soit dans l’espace, par exemple on se dit : « ce bateau là il est trop fort, en fait
il n’est pas trop fort, c’est qu’il est trop près, donc on le met plus loin et en le mettant plus loin il va être moins fort. » Et il y a quand même parfois des petits correctifs de niveau, par exemple le vent, c’est quelque chose qui est très divergeant, c’est-à-dire qui s’étale sur beaucoup de haut-parleurs, là l’idée ce n’est pas de le mettre plus loin c’est de le mettre moins intense, moins fort. » Le dernier jour on a enregistré tout ça, on a utilisé un enregistreur multipistes, on a couché sur bandes puisqu’on n’allait pas laisser tourner pendant 3 mois IanniX, Max/MSP avec tous les aléas qu’on peut avoir sur ordinateur. On a fait ce processus classique d’écriture, de mixage et d’enregistrement qu’on retrouve dans le cinéma, dans la musique, sauf que les outils étaient un petit peu particuliers. Un peu particulier parce qu’ils ne sont pas intégrés dans les outils traditionnels. On a fait notre mixage, qui n’était pas forcément un mixage de niveau comme d’habitude sur les consoles. Là c’était un mixage dans l’espace. L’écriture elle ne se faisait pas avec une partition conventionnelle avec une notation classique, elle se faisait avec des calques, avec de la 3D. Et l’enregistrement était plutôt classique, on utilisait du matériel audio qui fonctionne en multi-pistes. Ce qui était particulier dans ce projet c’est que la spatialisation, on en avait déjà fait avec IanniX, ce n’était pas tout nouveau, simplement on avait utilisé avant des motifs beaucoup plus abstraits, les compositeurs nous donnaient des motifs, des formes, des abstractions que l’on utilisait en musique, qu’on mettait dans l’espace, qu’on projetait dans l’espace. C’était là la première fois qu’on faisait quelque chose vraiment architecture - spatialisation. Appliqué quasiment de manière industrielle, « j’ai mon plan, mon Autocad, je place des sources dedans et je les déplace au centimètre près », car nous étions dans un système métrique dans IanniX. C’était complètement nouveau de s’intégrer dans une chaîne quasi industrielle de création. »
TABLE DES FIGURES Figure 1 :Pierre Henry et le potentiomètre d’espace...................................................16 Figure 2 : Partition graphique de spatialisation sur 4 canaux de Timbres-durées.......17 Figure 3 : Partition graphique de spatialisation sur 4 canaux de Timbres-durées.......17 Figure 4 : Fundamental spectra over seven basic durations (Mountain Panorama at Paspels)..........................................................................................................................18 Figure 5 : Le pavillon Philips..........................................................................................19 Figure 6 : Terrêtektorh : disposition de l’orchestre (Pour Royan)...............................20 Figure 7 : Plan général du Gmebaphone.......................................................................21 Figure 8 : François Bayle et l’Acousmonium ...............................................................22 Figure 9 : Détail d’un phonautogramme de 1859 ........................................................23 Figure 10 : Thomas Edison et son phonographe .........................................................23 Figure 11 : Schéma de l’installation du Théâtrophone................................................24 Figure 12 : Mickey Mouse dans la séquence de l’apprenti sorcier de Fantasia..........25 Figure 13 : Un film 16 mm avec piste sonore monophonique à droite.....................26 Figure 14 : Détail d’une pellicule 35 mm, à gauche en bleu apparait le SDDS, entre les deux encoches le Dolby Digital, les deux lignes verticale sont la piste analogique stéréo et tout à droite se trouve le DTS ................................................................27 Figure 15 : Le Cybernéphone sur scène.........................................................................29 Figure 16 : L’Acousmonium avec plusieurs haut-parleurs répartis dans le public..30 Figure 17 : Haut-parleurs les plus souvent utilisés pour les public address.............31 Figure 18 : Un line array .................................................................................................31 Figure 19 : Schéma de la perception du son en stéréophonie ....................................32 Figure 20 : Différences d’intensité transmise à chaque canal selon les paramètres du pan pot sous le logiciel Ableton Live ......................................................................32 Figure 21 : Schéma illustrant le mode de fonctionnement du VBAP........................33 Figure 22 : Capsule tétraédrique SoundField...............................................................34 Figure 23 : Schéma illustrant le principe de Huygens. ...............................................35 Figure 24 : Schéma illustrant le principe de la HRTF .................................................37 Figure 25 : Interface de Spat.oper..................................................................................38 Figure 26 : Espace de projection de l’IRCAM ..............................................................39 Figure 27 : Contrôle de l’angle des haut-parleurs virtuels sous l’application Parrot Audio Suite.......................................................................................................................42 Figure 28 : Contrôle de l’angle des haut-parleurs virtuels sous l’application Parrot Audio Suite.......................................................................................................................42 Figure 29 : Contrôle de la profondeur des haut-parleurs virtuels sous l’application Parrot Audio Suite...........................................................................................................42 Figure 30 : Une des « binaural heads » utilisées pour enregistrer Sound and Vision .43
Figure 31 : Disposition des musiciens autour de la scène, un des micros binauraux utilisés peut être aperçu suspendu au-dessus de la scène...........................................43 Figure 32 : Outil acoustique de simulations interactives de sites de chantier ........44 Figure 33 : Dispositif d’écoute 3D breveté de la salle immersive Le Corbusier ......44 Figure 34 : Interface de Spat.oper .................................................................................45 Figure 35 : Inteface de MidiSpace..................................................................................46 Figure 36 : Interface de la Spatial Audio Workstation de IOSONO.........................46 Figure 37 : Joystick contrôlant la position de sources sonores..................................47 Figure 38 : Iannis Xenakis et l’UPIC.............................................................................49 Figure 39 : Espace de travail vierge sous IanniX..........................................................51 Figure 40 : Espace défini et haut-parleurs placés dans une configuration 5.1 .........51 Figure 41 : 3 trajectoires de sources sonores dans un espace défini dans IanniX ...52 Figure 42 : 4 trajectoires de sons dans un espace composé de 10 haut-parleurs ....52 Figure 43 : Trajectoires de sons dans un cube 3D sous IanniX .................................53 Figure 44 : Tests en studio du rendu sonore des trajectoires écrites sous IanniX .54 Figure 45 : Espace de l’installation, les points roses représentent l’emplacement des haut-parleurs.............................................................................................................54 Figure 46 : Exemple de partition sur calque ................................................................55 Figure 47 : iPads aidant au mixage spatial....................................................................56 Figure 48 : Une des partitions IanniX de Yeosu 2012 vue du dessus...........................57 Figure 49 : Une des partitions IanniX de Yeosu 2012 vue en biais..............................58 Figure 50 : IanniX utilisé pour simuler des déplacements de sources selon la position de voitures ...............................................................................................................59 Figure 51 : Exemple de gare vue du dessus...................................................................61 Figure 52 : Exemple de gare vue en biais .....................................................................62 Figure 53 : Exemple de gare vue de la perspective du piéton ....................................63
TABLES DES MATIÈRES AVANT-PROPOS........................................................9 INTRODUCTION ......................................................13 HISTORIQUE DE LA SPATIALISATION SONORE..........15 Musique ................................................................15 1. Des temps anciens au XIXe siècle, l’utilisation de l’antiphonie......15 2. Le XXe siècle, vers une évolution des techniques.............................16
Industrie / Technique .........................................23 1. La fin du XIXe siècle, les grandes révolutions industrielles............23 2. Le XXe siècle, du cinéma au particulier.............................................25
Conclusion ..........................................................28 LES OUTILS ET LEURS CHAMPS D’APPLICATION .....29 1. Les systèmes de diffusion....................................................................29 Le Cybernéphone .................................................................................................30 L’Acousmonium ...................................................................................................30 Les systèmes de sonorisation..............................................................................30 a. Les public address ..................................................................................................................30 b. Le line array ............................................................................................................................31
Conclusion.............................................................................................................31
2. Les systèmes de spatialisation virtuelle.............................................32 Le pan pot et la stéréophonie..............................................................................32 Le VBAP .................................................................................................................33 Ambisonics ............................................................................................................33 a. Principe ......................................................................................................................33 b. Fonctionnement ..........................................................................................................33 c. Inconvénient...............................................................................................................34
La WFS ...................................................................................................................35 a. Principe ......................................................................................................................35 b. Fonctionnement ..........................................................................................................35 c. Inconvénient ..............................................................................................................36
La HRTF.................................................................................................................36
a. Principe......................................................................................................................36 b. Fonctionnement..........................................................................................................36 c. Inconvénient ...............................................................................................................37
Spat, le spatialisateur de l’IRCAM ......................................................................37 Espace de projection de l’IRCAM .......................................................................38 Conclusion ............................................................................................................39
3. Les dispositifs de rendu.......................................................................40 MidiSpace..............................................................................................................40 Les stations de travail .........................................................................................40 Conclusion ............................................................................................................40
4. Champs d’application...........................................................................41 a. La recherche ................................................................................................................41 b. Le multimédia .............................................................................................................41 c. Le bâtiment.................................................................................................................44
CONSTAT ...............................................................45 Une difficulté de personnalisation et d’écriture...............................45 a. Le Spat........................................................................................................................45 b. MidiSpace...................................................................................................................46 c. La SAW IOSONO ........................................................................................................47 d. Conclusion..................................................................................................................48
SOLUTIONS ............................................................49 1. IanniX, un séquenceur graphique......................................................49 a. De l’UPIC à IanniX......................................................................................................49 b. Les objets fondamentaux .............................................................................................50 c. La polytemporalité......................................................................................................50 d. Les partitions génératives ............................................................................................50
2. Utilisé comme un éditeur indépendant.............................................50 a. Exemple de spatialisation .............................................................................................51 b. Analyse de l’œuvre Yeosu 2012, présentée lors d’exposition internationale 2012 ...........53
Conclusion ............................................................................................................56
3. Simulation et modélisation des espaces réels...................................59 a. Architecture................................................................................................................59 b. Urbanisme...................................................................................................................59
Conclusion ............................................................................................................60
CONCLUSION .........................................................65 NOTES....................................................................67 ORIENTATION BIBLIOGRAPHIQUE ..........................71 1. Livres ......................................................................................................71 2. Articles...................................................................................................72 3. Publications...........................................................................................72 4. Sites Internet.........................................................................................73
ANNEXES ................................................................75 Interview de Guillaume Jacquemin, développeur de IanniX à propos de la conception de l’œuvre Yeosu 2012 de Charles de Meaux ..............................................................................................75
TABLE DES FIGURES ................................................81 TABLES DES MATIÈRES ...........................................83