I maestri della Visual Music

Page 1

I maestri della Visual Music


Sommario

7

10 18 28 42 66 76

Introduzione I. Storia 1 Gli albori 2 La pittura del primo Novecento e la musica 3 Strumenti luminosi 4 Film astratti 5 La musica e l’arte astratta 6 Arte elettronica

90 106 124 136

II. Sviluppi contemporanei 7 Animazioni e video 8 Installazioni 9 Performance 10 Linguaggio

142

Appendice Sinestesia

150 156 168 175

Apparati Bibliografia Webgrafia Indice dei nomi Crediti fotografici


Introduzione

sulla base di precise corrispondenze fra il mondo visivo e quello sonoro, e a volte tramite libere associazioni. Infine la Visual Music può anche assumere le sembianze di un’espressione astratta non accompagnata da suoni di alcun genere ma posta in relazione a concetti musicali. I capitoli qui di seguito riflettono le differenti tecniche di realizzazione e presentazione delle opere, ripercorrendo il pensiero dei protagonisti e i risultati della loro ricerca artistica. I maestri della Visual Music è composto da due sezioni: storia e sviluppi contemporanei. La prima parte illustra l’evoluzione della musica visiva, dagli esperimenti dei secoli passati fino ai lavori elettronici degli anni Settanta. La seconda invece propone una panoramica delle nuove tendenze dell’arte audiovisiva e termina con un capitolo dedicato ai vari aspetti inerenti il suo linguaggio. Esiste poi una prospettiva scientifica del legame immagini-musica: la sinestesia. L’appendice tratta proprio di questo fenomeno neurologico bizzarro e multiforme.

L’associazione fra immagini e musica è di lunga data e ha destato la curiosità di molti artisti e ricercatori del passato, ha stimolato la creazione artistica nel corso del Novecento e continua a suscitare interesse anche adesso. Questo libro vuole fare il punto della situazione, ora che l’arte audiovisiva astratta, ormai giunta alla maturità, sta vivendo una nuova stagione di rinnovato vigore. La tecnologia elettronica, analogica ma soprattutto digitale, ha infatti favorito il moltiplicarsi di questo tipo d’arte, rendendo possibile una grande varietà di soluzioni, dagli schermi sottili, alle proiezioni di dimensioni colossali, alle immagini stereoscopiche, ai suoni spazializzati, all’interattività in tempo reale, e così via. Esistono varie interpretazioni della Visual Music: una prima che considera esclusivamente l’invenzione contemporanea di musica e immagini astratte da una radice comune. In una seconda modalità, la musica o le immagini sono create per prime, mentre l’altra forma d’arte è realizzata a volte

7


dovevano quindi seguire lo stesso principio. Dato che rosso, blu e giallo facevano sicuramente parte della scala, sarebbe bastato trovare i colori intermedi fra queste tinte per creare una scala cromatica. In breve, egli riuscì a immaginare una scala di dodici colori. Tuttavia Padre Castel non seguì l’analogia con la musica fino alle sue estreme conseguenze: non creò due modalità, una maggiore e una minore, come in musica, ma si concentrò su una sola scala assoluta. Inoltre stabilì che la tonica corrispondeva al blu, l’intervallo di terza al giallo e quello di quinta al rosso. La ragione della corrispondenza fra tonica e blu era, secondo il gesuita, che il blu era il colore fondamentale del mondo, come il cielo dimostrava. Castel poi utilizzò i diversi gradi di luminosità di ogni colore per creare un parallelo con le varie ottave musicali, per cui ogni colore doveva avere dodici gradazioni diverse. Di conseguenza il

Castel estese tali concetti a tutti i sensi, per cui ipotizzò una “musica” dei profumi, dei gusti e del tatto: un vero precursore della multimedialità più estesa. Sostenne anche la possibilità di creare un prisma sonoro, in grado di suddividere un accordo nelle sue singole note, che cercò di costruire senza successo. L’idea di Padre Castel di progettare un clavicembalo oculare fu accolta con entusiasmo nel “Mercure de France” da un tale Rondet, che gli diede anche dei suggerimenti riguardanti la sua realizzazione. Rondet pensava che si potessero creare delle piccole finestre illuminate da una luce posta all’interno del clavicembalo, ciascuna dotata di un piccolo schermo che si sollevava premendo un tasto dello strumento. Infine si potevano installare vari specchi al suo interno per migliorare il risultato. In realtà non è chiaro quanto Castel prendesse seriamente in considerazione l’idea di costruire lo strumento, che non avrebbe comunque voluto produrre in serie, come sarebbe concepibile ora. In seguito il gesuita cominciò a dubitare che il violetto potesse essere davvero il colore fondamentale della scala cromatica, in quanto era ottenuto dalla fusione del rosso e del blu. Quindi nel 1734 iniziò una serie di esperimenti sui colori, che furono poi resi noti sotto forma di una lettera al barone di Montesquieu, che lo aveva sollecitato a rendere pubbliche le sue idee. Castel osservava, considerando la similitudine fra suoni e colori in modo molto letterale, che fra due suoni distanti un’ottava esisteva un continuum di suoni, ma era possibile distinguere solo dodici note: i colori

Fig. 1.3 - Johann Gottlob Krüger, progetto di clavicembalo oculare. Da Miscellanea Berolinensia, 1743.

12


clavicembalo oculare avrebbe dovuto avere centoquarantaquattro tasti. Sempre nel 1734 il gesuita completò un primo prototipo che fu presentato a numerose personalità, fra cui lo stesso Montesquieu. Non si sa molto di esso, tranne il fatto che il suo autore sembra avesse optato per una sua versione audiovisiva, cioè uno strumento con capacità sia musicali sia cromatiche. Una lettera del compositore Georg Philipp Telemann, datata 1739, testimonia l’esistenza di questo strumento, che pare fosse assai gradito al musicista tedesco. Telemann infatti scrisse: “Premendo un tasto, si apre una valvola che produce la nota prescelta [...] La stessa azione attiva dei fili di ferro o di seta o delle leve di legno che scoprono scatole colorate, dipinti o lanterne colorate, per cui quando si ascolta un suono si vede anche un colore.”1 Sembra che una versione del 1755 fosse invece dotata di vetri colorati illuminati da cento candele e un’altra ancora utilizzasse dei nastri di varie tonalità. Purtroppo non esistono raffigurazioni di questo strumento, ma non si può fare a meno di sottolineare l’ingegnosità del padre gesuita. Nel 1743 Johann Gottlob Krüger scrisse un documento intitolato De novo musices, quo oculi delectantur, genere (Su di un nuovo tipo di musica, per il piacere degli occhi), in cui si sosteneva che, benché lo strumento di Castel fosse in grado di rendere cromaticamente una melodia, era però del tutto privo della possibilità di generare la versione visiva dell’armonia. Ancora più importante fu l’osservazione di Krüger che, per quanto potessero esistere delle analogie fra suono e luce, e per quanto il piacere che si provava nell’osservare un’armonia cromatica

fosse paragonabile a quello che si provava ascoltando un’armonia musicale, tale fenomeno era esclusivamente psicologico [Fig. 1.3]. Padre Castel quindi ricercò una presunta corrispondenza oggettiva tra i fenomeni fisici, mentre Krüger enfatizzò la dimensione percettiva e quindi soggettiva delle similarità di suoni e colori. Queste diverse concezioni furono poi riflesse negli approcci degli artisti a venire, sommariamente divisibili in assolutisti e relativisti. In questo senso è interessante il lavoro di Ernst Chladni, il quale, continuando gli esperimenti che Robert Hooke aveva condotto già nel XVII secolo, pubblicò nel 1787 i risultati della propria ricerca nel suo Entdeckungen über die Theorie des Klanges (Scoperte sulla teoria del suono). Chladni evidenziò che esisteva una relazione oggettiva fra i suoni ei pattern visivi che si formano su un piano di metallo cosparso di sabbia e messo in vibrazione. La frequenza di risonanza crea infatti un pattern visivo, visualizzato da granelli di sabbia che si dispongono sul piano secondo linee precise. In questo caso evidentemente si costituisce una relazione fra suono e forma, e non fra suono e colore [Fig. 1.4].

Fig. 1.4 - Ernst Chladni, pattern di suoni, 1787

13


a un concerto di musica atonale del compositore austriaco, egli dipinse Impression 3 (Konzert) (Impressione 3 [Concerto]) [Fig. 2.5]. A differenza di altri autori Kandinskij era quindi attratto dalla musica contemporanea, che supportava la sua ricerca nello spezzare i legami con il passato per creare una nuova frontiera artistica. La grandezza di quest’autore si rivelò pertanto anche nella volontà di affrancarsi radicalmente dai valori classici per confrontarsi con nuovi orizzonti. Intorno al 1910 František Kupka, che era certamente a conoscenza della sinestesia, mostrò un aperto interesse verso la musica e il dinamismo in pittura: “Usando una forma in varie dimensioni e organizzandola in termini di ritmo, raggiungerò una ‘sinfonia’ che si sviluppa nello spazio come una sinfonia si sviluppa nel tempo”5. Per Kupka “il pubblico ha certamente bisogno di aggiungere all’azione del nervo ottico quelle del nervo olfattivo, del nervo acustico e del nervo sensitivo”6. Al tempo stesso quest’autore era anche conscio delle differenze intrinseche esistenti fra la musica e le immagini e si espresse chiaramente per una interpretazione di alto livello della questione: “il cromatismo in musica e la musicalità dei colori hanno validità solo come metafore”7. In Italia, intanto, i futuristi Umberto Boccioni, Gino Severini e Luigi Russolo – quest’ultimo anche inventore di numerosi strumenti musicali per generare rumori – crearono fin dal 1911 dei quadri con espliciti riferimenti alla musica, come per esempio, rispettivamente, La strada entra nella casa, Ballerina ossessiva e La Musica. Di Giacomo Balla sono invece rilevanti Velocità d’automobile + luce + rumore (1913),

Fig. 2.5 - Vasilij Kandinskij, Impression 3 (Konzert) (Impressione 3 [Concerto] ), 1911

tromba, arancione per la viola o blu per il violoncello [Fig. 2.4]. Egli inoltre catalogò le composizioni pittoriche in melodiche e sinfoniche, secondo la complessità, a riprova di quanto musicale fosse il suo pensiero. Per l’artista russo l’universo, inteso in modo metafisico, era composto da vibrazioni che si manifestavano attraverso il colore e il suono: “Il colore, che da solo fornisce materiale per il contrappunto e contiene infinite possibilità, in combinazione con il disegno porterà al grande contrappunto pittorico, sulla base del quale anche la pittura raggiungerà la composizione e si metterà, come un’arte totalmente pura, al servizio del divino”4. In quegli anni Kandinskij ebbe contatti con il musicista e pittore Arnold Schönberg, del quale, oltre alla musica, apprezzava anche i ritratti. Nel 1911, dopo aver assistito

Fig. 2.6 - Anton Giulio Bragaglia, Dattilografa, 1911 Fig. 2.7 - Giacomo Balla, La mano del violinista – Ritmi del violinista, 1912

22


23


Pochi anni dopo Alexander Burnett Hector realizzò uno strumento audiovisivo costituito da un considerevole numero di lampadine immerse in anilina colorata per un totale di quarantamila watt, con il quale tenne diversi concerti in Australia. Vladimir Baranoff-Rossiné, artista appartenente all’avanguardia russa e autore di quadri astratti fin dal 1910, introdusse una variante originale: nei primi anni Venti egli inventò infatti uno strumento particolare, il Piano Optophonique, che “suonava” un disco di vetro colorato attraverso il quale era fatto passare un fascio di luce bianca, ulteriormente modulata da prismi, lenti e specchi. Il risultato era una proiezione di colori in perenne cambiamento, accompagnata da suoni [Figg. 3.1 e 3.2]. Per Baranoff-Rossiné questo era un punto di divergenza con gli autori di organi a colori: non si trattava di rappresentare delle note o dei suoni, ma di inventare un modo differente di fare arte, cioè di creare immagini astratte in movimento. Secondo BaranoffRossiné, infatti, non era opportuno stabilire

3 Strumenti luminosi Nel Novecento la Visual Music decolla e lo fa seguendo principalmente due strade: il cinema astratto, di cui si tratterà nel capitolo successivo, e i concerti audiovisivi, realizzati con strumenti che prolungavano idealmente i progetti degli organi a colori. L’evoluzione tecnologica consentì soluzioni più stimolanti rispetto al passato e anche il risultato artistico ne fu arricchito. In questo contesto esistevano due correnti di pensiero, che a volte si intersecavano: una che prediligeva l’espressione audiovisiva e un’altra che invece proponeva immagini astratte in movimento, senza alcun suono. Per gli artisti che sostenevano quest’ultima concezione la parte visiva era la musica e pertanto non era necessario aggiungere un’ulteriore parte sonora. Il pittore Morgan Russell tra il 1913 e il 1923 progettò la Kinetic-Light Machine, con la quale intendeva creare delle composizioni astratte che si evolvessero nel tempo in modo libero, senza corrispondenze di sorta. Secondo Russell le proiezioni dovevano essere accompagnate da musica lenta per esprimere i graduali cambiamenti della luce. Russell inoltre sosteneva che le due parti, musicale e visiva, avrebbero dovuto dialogare tra loro e non essere in totale sincronia – una posizione d’avanguardia condivisa anche da Man Ray e Hans Richter. Successivamente anche il suo amico e collega Stanton MacDonald-Wright creò un Synchrome Kineidoskope. Nel 1916 Charles F. Wilcox brevettò un metodo di composizione musicale basato sul colore e in particolare sulla relazione tra la vibrazione del suono e quella della luce.

Fig. 3.1 - Vladimir BaranoffRossiné, disco per Piano Optophonique, 1920-1924 circa

28


delle corrispondenze arbitrarie – anche perché i risultati di questo approccio non erano stati fino a quel momento in grado di trasmettere la componente emotiva della musica. Negli anni a seguire, fino al 1939, Baranoff-Rossiné diede numerosi concerti in Russia e in Francia, nei quali la costante reinterpretazione costituiva un altro elemento di analogia con la musica. Nel 1919 la pianista Mary HallockGreenewalt inventò uno strumento chiamato Sarabet, utilizzato insieme alla musica, che consisteva in un reostato scorrevole con il quale era possibile controllare la riflessione di sette luci colorate. Anche per HallockGreenewalt non era importante creare delle precise corrispondenze tra suoni e colori, poiché riteneva che le influenze personali fossero decisive e che quindi non sarebbe stato possibile elaborare un linguaggio universale. Hallock-Greenewalt, tra l’altro, fu la prima autrice a creare film dipinti a mano, realizzati non per essere proiettati ma per essere utilizzati con il Sarabet. Inoltre la pianista creò un sistema di notazione ad hoc. Nel 1945 scrisse un libro, Nourathar, The Fine Art of Light-Color Playing (Nourathar, l’arte del suonare luce e colore), a proposito della sua esperienza con l’arte audiovisiva, da lei denominata appunto nourathar, una parola composta dai termini arabi nour (luce) e athar (essenza). In questo testo Hallock-Greenewalt concluse che la sua arte era anche utile per migliorare la salute1. Nel 1920 il pittore Adrian Bernard Leopold Klein inventò uno strumento per proiettare luci colorate. Questo proiettore era attivato da una tastiera a due ottave e si basava sulla teoria del

Fig. 3.2 - Vladimir Baranoff-Rossiné, Piano Optophonique, 1922-1923

29


Fig. 4.24 - Stan Brakhage, The Dante Quartet (Il Quartetto Dante), 1987

62


(Il giardino segreto, 1988) o Psalm III: “Night of the Meek” (Salmo III: “Notte degli umili”, 2002), caratterizzati da uno stile molto personale. Del tutto diverso fu il metodo seguito da Peter Kubelka, un artista che realizzò numerosi film sperimentali e la cui personalità si è espressa nei modi più diversi, come la cucina, la musica, l’architettura e la parola. Nel 1958 Kubelka progettò Invisible Cinema, un locale insonorizzato composto di poltrone, pareti, pavimento e soffitto completamente neri, e da pannelli divisori fra gli spettatori per focalizzare maggiormente l’attenzione verso la proiezione. La sua opera è da rimarcare specialmente per quanto riguarda l’approccio originale a questo medium, denominato non a caso “film metrico”. Kubelka infatti misurava con precisione ogni parte del film in relazione alla sua durata complessiva ed era attento a come ogni parte

opere astratte e sperimentali, fra cui The Text of Light (Il testo della luce, 1974), della durata di 75 minuti, la serie Arabics (1980-1981), Nightmusic (Musica notturna, 1986), originariamente dipinto su pellicola IMAX, The Dante Quartet (1987 [Fig. 4.24]), Delicacies of Molten Horror Synapse (1991) e Black Ice (Ghiaccio nero, 1994), che utilizza anche un effetto di zoom molto efficace. Brakhage scrisse anche vari libri, fra cui Metaphors on Vision (Metafore sulla visione, 1963), A Moving Picture Giving and Taking Book (1971) e Telling Time: Essays of a Visionary Filmmaker (2003), pubblicato postumo. Più recentemente Brakhage ha realizzato dei film con Phil Solomon: Elementary Phrases (Frasi elementari, 1994), Concrescence (Concrescenza, 1996), Seasons… (Stagioni, 2002). Solomon a sua volta ha creato anche altri film, come per esempio The Secret Garden

Fig. 4.25 - Peter Kubelka, Arnulf Rainer, 1960

63


animati e non ripresi fotogramma per fotogramma. Nikolaij Voinov a sua volta creò il Nivotone, che a quanto pare era al tempo lo strumento più flessibile in termini di generazione sonora. Un’idea ancora differente fu seguita da Edwin Emil Welte con il suo Licht-Ton Orgel (1936 [Fig. 5.5]). Questo bizzarro strumento funzionava con dei dischi ottici e seguiva un principio in parte già esplorato nel 1927 da Pierre Toulon con il Cellulophone. Ogni disco conteneva diciotto forme d’onda e pertanto era possibile ottenere timbri diversi per ogni suono. Arnold Lesti e Frederick Sammis invece inventarono un Radio Organ of a Trillion Tones nei primi anni Trenta. Da segnalare poi la Singing Keyboard (1936) di Sammis, che poteva registrare le onde audio su pellicola 35 mm e successivamente attivarle e intonarle tramite tastiera. Anche Norman McLaren creò una serie di animazioni in cui il suono era realizzato tramite la sintesi ottica. In particolare i primi lavori in cui egli agì sulla traccia ottica della pellicola furono Allegro (1939), Rumba (1939), un film mai portato a termine, Dots (Punti, 1940) e Loops (Anelli, 1940). McLaren perfezionò questa tecnica in modo sistematico ed elaborò ulteriormente i metodi di Pfenninger, che ben conosceva, arrivando a combinare i disegni con mascherine che permettevano di ottenere non solo timbri diversi, ma anche portamento, glissandi, vibrati e persino microtoni. Tra i film realizzati con questa tecnica di produzione sonora si possono annoverare Now is the Time (Ora è il momento, 1951), che era anche stereoscopico, Neighbours (Vicini di casa,

Welttonsystem con cui Avraamov intendeva liberarsi dai canonici dodici semitoni. Avraamov utilizzò vari tipi di figure geometriche, fra cui rettangoli, triangoli, ovali ed ellissi. L’altezza dei suoni era controllata muovendo la cinepresa in avanti o indietro, mentre il volume cambiava variando l’esposizione. L’armonia e il contrappunto erano ottenuti con esposizioni multiple e altre tecniche più o meno complesse. Poco dopo Evgenij Sholpo sviluppò insieme al compositore Georgij Mikhajlovicˇ Rimskij-Korsakov, nipote del più noto Nikolaij, uno strumento musicale chiamato Variophone [Fig. 5.4], creato dopo avere analizzato dei suoni con un oscilloscopio. Il Variophone utilizzava un metodo leggermente differente rispetto ai precedenti sistemi: consisteva infatti in una serie di dischi di carta al cui interno erano presenti dei pattern geometrici. I dischi ruotavano in sincrono con la pellicola cinematografica e il risultato era una maggiore disponibilità di timbri rispetto al metodo usato da Avraamov. Più o meno contemporaneamente Boris Yankovskij inventò il Vibroexponator, basato sempre su disegni, ma questa volta

Fig. 5.4 - Evgenij Sholpo, dischi per Variophone, 1930 Fig. 5.5 - Edwin E. Welte, un disco per il Licht-Ton Orgel, 1936

70


1952), Two Bagatelles (Due bagatelle, 1952), Twirligig (1952), A Phantasy (Una fantasia, 1953) e soprattutto il già menzionato Synchromy (Sincromia, 1971 [Fig. 5.6]). John Whitney Sr. e suo fratello James concepirono a loro volta un sistema di produzione sonora davvero originale, fondato sulle oscillazioni di un pendolo [Fig. 5.7]. Le oscillazioni, sinusoidali per natura, erano registrate sulla traccia ottica, che una volta riprodotta generava dei suoni. I fratelli Whitney fecero molti esperimenti e misero a punto la loro tecnica fino ad arrivare a realizzare un continuum fra ritmo, altezza e timbro: un concetto fondamentale nella musica contemporanea. Altri artisti continuarono a generare suoni con l’ausilio di mezzi ottici. Kurt Kren nel 1957 creò Versuch mit synthetischem Ton(Test) (Esperimento di suono sintetico [Test]), realizzato grattando la traccia ottica della pellicola. Nel 1958 Evgenij Murzin sviluppò un sintetizzatore, chiamato ANS [Fig. 5.8], basato su cinque dischi ottici. Ogni disco conteneva centoquarantaquattro tracce, per cui era possibile ottenere suoni formati da settecentoventi componenti sinusoidali. Successivamente anche Barry Spinello si cimentò nella sperimentazione con suoni “ottici”. Seguendo e ampliando le tecniche dei suoi predecessori, fra il 1967 e il 1971 creò alcuni film senza cinepresa e senza tecnologia per il sonoro: Sonata For Pen, Brush, and Ruler (Sonata per penna, pennello e righello), Soundtrack (Colonna sonora [Fig. 5.9]) e Six Loop-Painting (Dipinto a sei anelli). Le tecniche utilizzate da Spinello erano sia il disegno sulla pellicola sia l’uso di nastri e acetati autoadesivi

Fig. 5.6 - Norman McLaren, Synchromy (Sincromia), 1971

71


suoni elettronici in un modo originale e spesso asincrono. Altre sue opere invece erano in relazione al linguaggio. L’arte elettronica negli anni Sessanta e Settanta ebbe un considerevole impulso, evolvendosi sempre più dal mondo analogico a quello digitale. Le limitazioni tecnologiche del tempo però non permettevano di visualizzare direttamente le animazioni digitali, che infatti si appoggiavano alla pellicola cinematografica per essere mostrate e quindi erano in verità ibride, a differenza delle immagini elettroniche analogiche. Fra i primi film astratti realizzati con il computer, oltre a quelli di John Whitney Sr., va annoverato il notevole Cibernetik 5.3 [Fig. 6.9], di John Stehura, prodotto fra il 1965 e il 1969. Le immagini digitali, unitamente ad altre

Spiegel poteva disegnare figure tramite una tavoletta grafica e contemporaneamente, mediante altri apparati, modificare vari parametri dell’immagine come grandezza, colore, texture, e poi registrarli. I mezzi che si potevano usare per l’audio, come filtri, riverberi e così via, erano utilizzati anche per le immagini e quindi quest’autrice ebbe a che fare con un vero strumento audiovisivo. In teoria era possibile generare al tempo stesso immagini e musica, ma la dislocazione fisica delle macchine impediva la reale attuazione di un tale progetto. Col tempo Spiegel abbandonò l’improvvisazione e ritornò alla composizione. Come Wiseman, anche Michael Scroggins studiò video con Paik e Abe, e fu membro di Single Wing Turquoise Bird. Le sue performance interattive e i suoi video astratti in ambienti immersivi sono stati presentati nei più importanti musei e centri internazionali. Study No. 6 (Studio n. 6, 1983), Power Spot (1989), e 1921 > 1989 (1989) sono fra i suoi lavori più rilevanti. Tra il 1974 e il 1979 Robert Watts, Bob Diamond e David Behrman crearono un’installazione audiovisiva chiamata Cloud Music (Musica delle nuvole). In questo lavoro una telecamera in bianco e nero riprendeva il cielo, un analizzatore video riconosceva il cambiamento di luminosità in sei punti dell’immagine e il relativo passaggio delle nuvole, mentre i suoni erano generati da un sintetizzatore appositamente realizzato. Ogni variazione di luminosità produceva un cambiamento armonico della musica. Nel 1977 Gary Hill realizzò Electronic Linguistic (Elettronico linguistico), un video in bianco e nero in cui l’autore visualizzava dei

Fig. 6.9 - John Stehura, Cibernetik 5.3, 1965-1969

84


ottenute fotograficamente, furono prima rese in bianco e nero e poi stampate a colori su pellicola, una per ogni colore primario. Il programma per la creazione delle immagini fu scritto con il linguaggio FORTRAN dallo stesso Stehura. Inizialmente l’autore avrebbe voluto usare gli stessi algoritmi anche per la produzione musicale, ma in seguito preferì avvalersi di Quatermass (1964), di Tod Dockstader. Anche Stan VanDerBeek fu attratto dai computer. Come altri autori, VanDerBeek collaborò con John Cage, Merce Cunningham, Allan Kaprow, Claes Oldenburg e Nam June Paik. Tra il 1963 e il 1965 VanDerBeek progettò e costruì Movie-Drome [Fig. 6.10], una semisfera per la proiezione di film, e immaginò l’utilizzo di varie forme di tecnologia nel mondo dell’arte. Per quest’autore i computer erano amplificatori dell’immaginazione umana, mentre le linee telefoniche erano un mezzo per realizzare opere artistiche a distanza, magari con la partecipazione del pubblico. In entrambi i casi si trattava di una visione ammirevole, preveggente dello sviluppo delle reti telematiche e delle sue implicazioni nel campo dell’interattività. Molti dei lavori di VanDerBeek però non appartenevano al repertorio astratto, ma piuttosto a quello surreale o dada. Tuttavia a partire dalla seconda metà degli anni Sessanta egli creò numerosi film astratti digitali: inizialmente Collideoscope (1966) e una serie di otto animazioni chiamata Poem Fields (Campi di poesia, 1967-1969), realizzata con il contributo di Ken Knowlton. I Poem Fields presentano lunghe sequenze, originariamente in bianco e nero e poi colorate tramite un processo ottico.

Fig. 6.10 - Stan VanDerBeek, il Movie-Drome, 1963-1965

Seguirono altri film, fra cui Man and His World (L’uomo e il suo mondo, 1967); Moirage (1967), uno studio sulle illusioni ottiche; Ad Infinitum, per tre schermi, con immagini sintetiche e microscopiche; Symmetricks (1972), un altro lavoro elettronico, in bianco e nero, accompagnato da musica indiana e realizzato durante un periodo presso il Center for Advanced Visual Studies del Massachusetts Institute of Technology; Who Ho Ray No. 1, sulle forme dei pattern sonori; ed Euclidean Illusions (Illusioni euclidee, 1980), creato con Richard Weinberg mentre era artist-inresidence alla NASA, con musica di Max VanDerBeek. Fin dalla fine degli anni Sessanta Lillian Schwartz ha collaborato con vari autori dell’avanguardia musicale quali Max Mathews, Jean-Claude Risset e Pierre Boulez, e ha fatto parte dell’organizzazione Experiments in Art and Technology. Schwartz è tuttora un’artista poliedrica che ha prodotto numerose opere d’arte basate sulle tecniche più diverse, spesso viste in 3D. A questo scopo ha infatti anche

85


Dopo avere collaborato con John Whitney Sr. per la creazione di Arabesque, Cuba si è segnalato con alcune animazioni: 3/78 (1978), Two Space (Due spazio, 1979 [Fig. 6.11]) e poi Calculated Movements (Movimenti calcolati, 1985), producendo la prima di queste con l’allora popolare linguaggio di programmazione GRASS, scritto da Tom DeFanti. A questo proposito vale la pena osservare come, unitamente all’apparizione di strumenti a basso costo, in questo periodo si resero sempre più disponibili sia linguaggi di programmazione ad alto livello, cioè simili ai linguaggi naturali, sia interfacce semplici da utilizzare, rendendo quindi molto più agevole l’utilizzo dei computer. 3/78 e Two Space furono create in bianco e nero ed erano basate su insiemi di punti che si distribuivano in uno spazio bidimensionale seguendo la coreografia dell’autore. Continuando la tradizione californiana dell’epoca, che prediligeva una chiara inclinazione verso le culture orientali, queste animazioni erano accompagnate da musica tradizionale rispettivamente giapponese e giavanese. Calculated

inventato una tecnica chiamata 2D/3D pixel shifting. Questa artista ha concepito diversi film astratti in 16 mm, accompagnati da musica elettronica per lo più digitale. Fra di essi Pixillation (1970), con musica di Gershon Kingsley, in cui sono utilizzate immagini digitali e tecniche più tradizionali; UFOs (1971), con la musica di Emmanuel Ghent; Apotheosis (Apoteosi, 1972), prodotto con immagini derivate da esami medici e con musica elettronica di F. Richard Moore; Mutations (Mutazioni, 1972), creato sulla musica composta da Jean-Claude Risset nel 1969 e ottenuto con riprese di cristalli in crescita, immagini digitali e laser; Papillons (Farfalle, 1973), realizzato con lo scienziato John Chambers e basato sulla visualizzazione di grafici. Fra le sue animazioni recenti si ricordano Before Before (Prima prima, 2012), EXALT (ESALTATO, 2013), e The Beauty of Excess (La bellezza dell’eccesso, 2013). I suoi film sono stati proiettati in tutto il mondo e hanno ricevuto numerosi premi. Fra i primi artisti che fecero uso di computer è da annoverare anche Larry Cuba, che nel 1974 realizzò l’animazione First Fig (Primo fico).

Fig. 6.11 - Larry Cuba, Two Space (Due spazio), 1979

86


Movements fu realizzato con un linguaggio differente, chiamato ZGrass, e una tecnica diversa basata sui volumi anziché sui punti. Inoltre utilizzava due tonalità di grigio, oltre al bianco e al nero, un passo avanti rispetto ai primi anni, nei quali la disponibilità di un’ampia gamma di colori era tutt’altro che scontata. Diverso era il caso se si poteva accedere a computer più potenti, come quelli dei centri di calcolo delle università. Un esempio di ciò si può ritrovare nel lavoro di Yoichiro Kawaguchi, che infatti seppe creare animazioni particolarmente sofisticate e colorate. Le animazioni di Kawaguchi introdussero anche un’altra caratteristica innovativa: la tridimensionalità. I lavori Growth (Crescita, 1982) e Morphogenesis (Morfogenesi, 1984) furono i primi di una serie continuata negli anni e costituirono un passo iniziale verso un nuovo genere, quello delle animazioni 3D, fondato sulla proiezione prospettica di un mondo virtuale generato seguendo le regole dello spazio euclideo. Kawaguchi creò immagini astratte complesse, simulando liquidi viscosi e blob in evoluzione. Da rilevare a questo proposito anche l’attenzione nei riguardi delle forme organiche e dell’interazione tra arte e biologia, che è tutt’ora uno dei filoni più stimolanti della ricerca contemporanea. Pioniere a vari livelli, Kawaguchi fu interessato anche al rapporto con la musica, pur se non in modo assoluto come altri autori, come dimostra il DVD Luminous Visions (Visioni luminose, 1998 [Fig. 6.12]), una produzione successiva di stampo psichedelico con musica creata dal gruppo Tangerine Dream.

Fig. 6.12 - Yoichiro Kawaguchi, immagini tratte da Luminous Visions (Visioni luminose), 1998

87


Fig. 7.3 - Brian O’Reilly, Half-life I (Emivita I), 1999

92


O’Reilly, che segue in parte la tradizione e le tecniche dei Vasulka, si è avvalso delle sue riprese, sapientemente manipolate e montate, per creare Half-life (Emivita, 1999 [Fig. 7.3]), Sculptor (Scultore, 2001), Volt air (2001-2003), Fluxon (2002), Nanomorphosis (Nanomorfosi, 2003) e Pictor alpha (2003). Roads e O’Reilly sono attivi anche come performer e più recentemente hanno proposto Flicker Tone Pulse (2009), una collezione di sette nuovi lavori audiovisivi. O’Reilly collabora anche con altri autori, fra cui Darren Moore, con il quale ha formato il duo Black Zenith. Black Zenith ha presentato le proprie performance e installazioni in numerose occasioni, principalmente nell’area del Pacifico: Sud-est asiatico, Giappone e Australia. Di BlackZenith si segnalano NOCTURNAL BLUE (BLU NOTTURNO, 2012) e Indefinite Divisibility (Divisibilità Indefinita, 2013). In precedenza O’Reilly ha creato octal_hatch (2003), con suoni sintetici generati attraverso il sistema UPIC inventato da Iannis Xenakis; Scan Processor Studies (2006-2007), realizzato su materiale creato da Woody Vasulka con il Rutt/Etra Scan Processor; Weather Mechanics (2007), una performance multischermo con il Sandin Image Processor; e Spectral Strands (Aspetti spettrali, 2007), una serie di video che nascono dalle performance del violista Garth Knox, con composizioni di Giacinto Scelsi, Gérard Grisey, Salvatore Sciarrino, Michael Edwards e Kaija Saariaho, che riconducono in qualche modo alle esperienze di Violin Power dei Vasulka; e ancora transient (for Koji Tano) (transitorio [per Koji Tano], 2012-2013), con suoni di Zbigniew Karkowski.

Fig. 7.4 - Jøran Rudi, When Timbre Comes Apart (Quando il timbro va a pezzi) da Routine Mapping (Mappatura ordinaria), 1992-1995

93


Fig. 7.18 - Marcel Wierckx, Zwarte Ruis Witte Stilte (Rumore nero silenzio bianco), 2006

104


(rumore stroboscopico~, 2009), information of decay~ (informazione del decadimento~, 2009), voidov~ (2012), 1=~a (2013), fino ad arrivare alla monumentale prospect of doom~ (prospettiva di sventura~, 2013), della durata di ben 108 minuti, con il suono multicanale di Tim Blechmann. Sono poi seguiti V (2013), monolith (monolite, 2015) e laws of reflection (leggi di riflessione, 2016), per vari compositori. Infine è da segnalare anche Martijn van Boven, autore sia di film sia di live cinema. Fra i primi si possono annoverare Interfield (Intercampo, 2007 [Fig. 7.19]), che mostra una struttura non sincronica fra la parte visiva e quella musicale, A Thousand Scapes (Un migliaio di vedute, 2009), entrambi in bianco e nero. Field Notes From a Mine (Taccuino da una miniera, 2012) è invece un video in cui le immagini e i suoni sono generati da dati raccolti in Africa. Del tutto diverso è Walzkörpersperre (2013), realizzato con Gert-Jan Prins, un muro di cemento verticale su cui sono proiettati fasci luminosi pilotati da suoni sintetici. Di van Boven sono anche le performance Point Line Cube Cloud (Punto Linea Cubo Nuvola, 2008), Shadow Optics (2011) e

On Growth And Data (Sulla crescita e sui dati, 2013), tutte in bianco e nero. Da menzionare poi è anche Black Smoking Mirror (Specchio nero fumante, 2014), una performance centrata sul principio della riflessione che tra l’altro si avvale di un schermo infiammabile marcato dalla combustione causata da un raggio laser. Black Smoking Mirror, Walzkörpersperre e il progetto sperimentale Deep Space Ceramics (Ceramica dello spazio profondo) fanno parte della trilogia Noise & Matter (Rumore & Materia). Altri autori da ricordare sono Rafael Balboa, Liubo Borissov, David Brody, Stephen Callear, Chris Casady, Alison Clifford, Phil Docken, Barbara Doser, Jeffers Egan, Jim Ellis, Brian Evans, Thorsten Fleisch, Harvey Goldman, Joe Gilmore e Paul Emery, Michel Gagné, Ian Helliwell, Andrew Hill, Eytan Ipeker, Hiromi Ishii, Wilfried Jentzsch, Elsa Justel, Jaroslaw Kapuscinski, Anne-Sarah Le Meur, Lia, Takashi Makino, Yoel Meranda, Bonnie Mitchell, Scott Nyerges, Simon Paine, Rey Parla, Richard Reeves, Billy Roisz, Tim Skinner, Vibeke Sorensen, George Stadnik, Marcelle Thirache, Shawn Towne, Chiaki Watanabe, Jennifer West, Andy Willy, Amy Yoes e Dmitry Zakharov.

Fig. 7.19 - Martijn van Boven, Interfield (Intercampo), 2007

105


Fig. 8.3 - Granular~Synthesis, FELD (CAMPO), 2000

Fig. 8.4 - Ulf Langheinrich, HEMISPHERE (SEMISFERA), 2006

108


luminescente. Hentschläger ha anche progettato alcune applicazioni dell’arte della luce all’architettura come LICHTWERK (OPERA LUMINOSA, 2001) e NATURE04 (NATURA04, 2004). Un ambiente virtuale stereoscopico del genere CAVE è Camera Musica (2000), di Gerhard Eckel, con suono spazializzato su otto canali e pavimento vibratile. In questo lavoro la musica è collegata ai movimenti dello spettatore mentre naviga attraverso dei cubi virtuali parzialmente trasparenti. Nel 2001 Eckel ha presentato l’installazione LISTEN (ASCOLTA). Interessanti anche le opere di Squidsoup: ad esempio la composizione audiovisiva stereoscopica Driftnet I (Rete derivante I, 2007 [Fig. 8.5]), che, continuando la ricerca iniziata nel 1999 con altzero, propone uno spazio tridimensionale navigabile nel quale è possibile volare muovendo le braccia come le ali di un uccello. Freq : 2 (2006) è una via di mezzo fra uno strumento musicale e una composizione, poiché le ombre degli spettatori sono visualizzate come forme d’onda sonore navigabili. The Stealth Project (2008) e Discontinuum (2009) sono basati entrambi su NOVA, un visualizzatore tridimensionale formato da LED, mentre Surface (Superficie, 2010) utilizza invece la tecnologia Ocean of Light per creare sculture interattive fondate ancora sulla luce e sul suono. Scapes (Paesaggi, 2011) è un lavoro in cinque movimenti con musiche d’ambiente di Alexander Rishaug: ogni movimento presenta delle rappresentazioni volumetriche del suono avvalendosi di un insieme di luci. Analogamente Volume 4096 (2012) propone un insieme immersivo di luci, mentre Submergence (Sommersione, 2013) è un ambiente ibrido dove il mondo virtuale e quello fisico coincidono. Nel 2014 Squidsoup ha realizzato Wavelight (Onda luminosa) e poi

Fig. 8.6 - Carsten Nicolai e Marko Peljhan, polarm [mirrored], 2010

109

Fig. 8.5 - Squidsoup, Driftnet I (Rete derivante I), 2007


Fig. 8.15 - Edwin van der Heide, Saltwater Pavilion (Padiglione acqua salata), 1997-2002

sorgenti sonore multicanale, con musiche ideate da vari autori. Fra i suoi numerosissimi lavori audiovisivi si possono menzionare Untitled (Senza titolo, 1994), Smoke Screen (Cortina fumogena, 1995), SWELL (1995), Double Take (1996), Blue Blow (Colpo blu, 1997), Happy Happy (Felice felice, 1997), A Sailor’s Life is a Life for Me (Una vita da marinaio è una vita per me, 1998), Sun Porch Cha-Cha-Cha (Veranda cha-cha-cha, 1998), The TV Room (La camera della tv, 1998 [Fig. 8.14]), Phase = Time (Fase = Tempo, 1999), Space Ghost (Fantasma dello spazio, 1999), Anything You Can Do (Qualunque cosa tu possa fare, 2000), Loop (Anello, 2000), Stiffs (2000), X-Room (Camera-X, 2000), One saw; the other saw (Uno vide; l’altro vide, 2001), sin(time) (sin[tempo], 2001), Starry Eyes (Occhi sognanti, 2002), che utilizza uno schermo LED di venti metri per dieci. Altre opere successive, come per esempio The Wreck of the Dumaru (Il naufragio della Dumaru, 2004), Sharpie (2009), Premature (Prematuro, 2010) o Pillow Flight (2014) sono invece senza suono. Water Pavilion (Padiglione d’acqua, 19972002) è un’installazione realizzata da Edwin van der Heide, in collaborazione con NOX, Lars Spuybroek, Oosterhuis Associates, Victor Wentink e Arjen van der Schoot, basata sull’interazione fra lo spazio esistente, luci, proiezioni e suoni. Diviso in Freshwater Pavilion (Padiglione acqua dolce) e Saltwater Pavilion (Padiglione acqua salata [Fig. 8.15]), questo lavoro presenta una disposizione di sessanta altoparlanti indipendenti che mira a ottenere un’architettura sonora invece che dei suoni disposti all’interno di uno spazio. La musica è di tipo generativo, non prefissata quindi, al fine di ottenere un’esperienza sempre differente. Da segnalare di van der Heide anche Laser / Sound Performance (Performance laser /

Fig. 8.16 - United Visual Artists, Volume, 2006

116


suono, 2004), DSLE -3- (2012), un ambiente immersivo audiovisivo, e la performance LSP (2012), pure basata su laser dove immagini e suoni sono ugualmente importanti, e l’ambiente audiovisivo multischermo DSLE -3- (2012). Il collettivo UVA (United Visual Artists) ha prodotto creazioni visive per vari gruppi pop, come U2, The Chemical Brothers o Massive Attack, e ha anche collaborato con il mondo della moda. Oltre a ciò ha realizzato numerose installazioni. Questo gruppo di artisti ha infatti creato Kabaret’s Prophecy (2004), un muro di luci LED interpretate ogni sera da differenti vj all’interno dell’omonimo nightclub di Londra. I pattern visivi formati dai LED costituiscono la sorgente luminosa principale del locale. Anche Interactive Installation Prototype (Prototipo d’installazione interattiva, 2006) si avvale di LED unitamente a una telecamera 3D utilizzata per riconoscere i gesti e i movimenti dell’utente, che a loro volta influenzano le immagini e i suoni. Volume (2006 [Fig. 8.16]) è invece un insieme di quarantotto colonne luminose e sonore realizzate con l’apporto musicale di Massive Attack e collocate per la prima volta nel giardino del Victoria and Albert Museum di Londra. Anche in questo caso i movimenti delle persone creano

una serie di eventi audiovisivi. Nel 2008 UVA ha prodotto Contact (Contatto), un pavimento sensibile che permette al pubblico di generare espressioni audiovisive in modo interattivo. In Chorus (Coro, 2009) una serie di pendoli agisce all’interno di uno spazio emettendo luci e suoni, e così facendo è al tempo stesso installazione, composizione e anche strumento musicale. Orchestrion (2011), realizzato con Mira Calix, è una struttura di sessantaquattro metri cubi che è contemporaneamente uno spazio per performance e scultura di suono e luce. Questo lavoro si è poi evoluto in Conductor, in cui forme luminose sono accostate ai suoni di Scanner, e poi ancora in Origin (2011). Momentum (2014) è un’installazione audiovisiva creata appositamente per la Barbican Curve Gallery di Londra. Lo spazio è tramutato in uno strumento spaziale in continua evoluzione nel quale dei pendoli proiettano luci e ombre nell’ambiente circostante. Great Animal Orchestra (Orchestra Grande Animale) è un’installazione immersiva del 2016 dedicata al lavoro di Bernie Krause, che nel corso degli anni ha registrato i suoni di più di quindicimila specie animali. Altre installazioni astratte, comunque interessanti, sono invece senza suono. Fra di esse si possono annoverare Canopy (Baldacchino,

Fig. 8.17 - Ryuichi Sakamoto e Shiro Takatani, LIFE - Fluid, Invisible, Inaudible... (VITA - Fluida, Invisibile, Inaudibile...), 2007

117


Un procedimento del genere è stato utilizzato anche da Guy Sherwin in Abrasion Loops (Anelli di abrasione, 2007), una performance per due proiettori 16 mm. Sherwin interpreta il proiettore come strumento, proprio per avvicinare la proiezione cinematografica alla condizione musicale intesa come evento live. Ken Jacobs è un altro autore di performance con proiettori, tuttavia le sue immagini non sono astratte. Fa eccezione Celestial Subway Lines/Salvaging Noise (Linee della metropolitana celeste/Rumore di salvataggio, 2005), un fantasmagorico spettacolo live, in collaborazione con i musicisti John Zorn e Ikue Mori, nel quale Jakobs si è avvalso di una versione modificata della lanterna magica. Nelle sue numerose performance André Gonçalves fa spesso ricorso a circuiti elettronici, motorini elettrici e vari strumenti di controllo. Tra di esse emerge soprattutto for Super 8 Projector and Analog Synthesizer (per proiettore Super 8 e sintetizzatore analogico, 2009 [Fig. 9.4]), una performance-installazione

nella quale un proiettore Super 8 è modificato in modo che l’ampiezza del segnale sonoro controlli l’intensità luminosa e la velocità di proiezione: ogni evento è diverso dall’altro ed è basato su un processo distruttivo della pellicola. Per lo più è però la tecnologia contemporanea a essere impiegata: gli esempi in questo senso sono molteplici. Uno dei capostipiti da questo punto di vista è Benton C Bainbridge, un artista che fin dagli anni Ottanta ha realizzato innumerevoli video, installazioni e performance avvalendosi di strumenti elettronici analogici, digitali e anche ottici, oltre che di software scritto appositamente per la gestione in tempo reale delle immagini. Spezzoni video sono così trattati e mixati in tempo reale, cogliendo le suggestioni della musica e dell’ambiente, al fine di creare un’opera visiva assolutamente coinvolgente. Con il suo gruppo THE POOOL, di cui facevano parte anche i videomaker Angie Eng e Nancy Meli Walker, nel 1998 ha realizzato le performance Parascape presso The Kitchen e is warm (è caldo) presso il Whitney Museum di New York. Fra le numerose performance degli anni successivi si ricordano anche NNeng (1999), live @ Test-Portal 2003, El Malogrado (Il perdente, 2004), per tre canali video, e live @ sickness (2004), realizzato con il Rutt/Etra Scan Processor. Dal 2007 fino ad ora ha contribuito come visual designer a One Step Beyond per il Museum of Natural History di New York, trasformando la hall del museo con proiezioni, specchi, luci e laser. Fra i numerosi lavori più recenti sono invece Rainbow Vomit (Vomito arcobaleno, 2010), con proiezioni su di una struttura di cubi progettata da MOS, Dialed In (2011), con il percussionista Bobby Previte, Daytime (Giorno, 2012), con V Owen Bush e Steve Nalepa, Contemporal Collage (v. 2) (2014

Fig. 9.4 - André Gonçalves, for Super 8 Projector and Analog Synthesizer (per proiettore Super 8 e sintetizzatore analogico), 2009

128


Fig. 9.5 - Benton C Bainbridge, Contemporal Collage (v. 2), 2014

[Fig. 9.5]), Horizon (Orizzonte, 2014) con Sofy Yuditskaya, Gems (Gemme, 2014), Ghost Komungobot (2014), con il musicista Jin Hi Kim, Moving Paintings (Quadri in movimento, 2015) e l’installazione generativa Observatory / Lisa Joy (2016). D-Fuse è un collettivo di artisti, fondato da Michael Faulkner nella metà degli anni Novanta, che pure ha creato numerose installazioni e performance. D-Fuse ha prodotto vari DVD fra cui D-Tonate (2003), che raccoglie i risultati di un progetto nel quale gli autori hanno realizzato varie tracce video e le

hanno inviate a diversi musicisti affinché le interpretassero. Light Turned Down (Luce abbassata, 2001), composto in collaborazione con Robin Rimbaud (noto anche come Scanner), è centrato sulla relazione fra luce e suono. Nel 2004 Scanner ha collaborato con Alter Ego Ensemble in un live remix dei lavori del compositore Salvatore Sciarrino. The Desert Music (La musica del deserto, 2006 [Fig. 9.6]) accompagna l’omonima composizione di Steve Reich, con proiezioni su doppio schermo, mentre Beck World Tour è stato ideato per i concerti del musicista Beck.

129


autocostruito, come del resto anche Dystopia (2014), che esplora territori satellitari naturali/ urbani in continua mutazione, Bleeding (2012), un’opera live di tipo sinestetico e sincronico per due schermi, uno dei quali trattato con pigmenti fosforescenti, e Punto Zero (2007-2014), una performance che propone un percorso che da corrispondenze inizialmente semplici arriva a raggiungere modalità complesse e strutturate, fino a definire una vera e propria grammatica sensoriale. Più recenti ancora sono Fields (Campi, 2015 [Fig. 9.8]), che investiga un universo di sfere metalliche aggregate da un campo magnetico, e Syn (2016), un percorso immaginario verso uno stato di coscienza trascendentale, Resilience (Elasticità, 2016) e Schism (2016), che elabora i pattern ritmici e gli effetti percettivi di due elementi grafici posti in relazione al suono spazializzato. Numerose performance, spesso caratterizzate da texture e masse sonore di particolare densità, sono state create dai fratelli Juha e Vesa Vehviläinen, che compongono il duo Pink Twins. Fra esse si segnalano Purple Drain (2002), Goth (2003), Splitter (2006), Pulse (Pulsazione, 2006), Goth (Smooth) (2006 [Fig. 9.9]), Pulse + (Impulso +, 2007), ora disponibile anche come app per dispositivi Apple, Appetite For Construction (Fame di costruzione, 2008), Module (Modulo, 2008), Defenestrator (2008) e i più recenti Amalgamator (2012), Miracle (Miracolo, 2012), Parametronomicon (2015-2016) e Overlook (Trascurare, 2017). Anche il duo formato da Boris (audio) e Brecht (video) Debackere si è cimentato in installazioni e performance, seguendo le linee del live cinema: Rotor (Rotore, 2005 [Fig. 9.10]), nel quale le convenzioni cinematografiche sono estrapolate e applicate alla produzione

Fig. 9.8 - Otolab (immagini sintetiche di Fabio Volpi), Fields (Campi), 2015

132


di immagini e musica, e Probe (Sonda, 2008), che si riferisce all’esperienza cinematografica per generare un viaggio audiovisivo. Analogamente Cory Metcalf e David Stout, che formano il duo NoiseFold, hanno proposto interessanti installazioni e performance di live cinema che fanno uso di sensori e altri strumenti. Fra le prime si annoverano Blue Plot (Trama blu, 2004), Three Tortures: Babel, Iriscan, Death by Image: a Sonic Execution (Tre torture: Babele, Iriscan, Morte per immagine: un’esecuzione sonora, 2007), i I i (2008), NADA (NIENTE, 2009), El Umbral (La soglia, 2011) e MELT (SCIOLTO, 2013). NoiseFold 2.0 (2009–2011), che continua la ricerca intrapresa con NoiseFold 1.0 (2006–2008) e Alchimia (2008), è probabilmente la performance più rilevante. Gli autori la definiscono una “macchina per partenogenesi” perché in grado di creare una serie di comportamenti e organismi audiovisivi che richiamano esotiche forme biologiche. NoiseFold 2.0 si avvale di un complesso sistema multimediale in grado di mixare dal vivo un’enorme quantità di sequenze animate dotate di vita propria. Le sequenze sono a loro volta modificate tramite sensori all’infrarosso, microfoni, pedali e superfici di controllo, e generano automaticamente dei suoni. Gli autori quindi interagiscono con le forme visive per far crescere e modellare il contenuto

Fig. 9.10 – Boris e Brecht Debackere, Rotor (Rotore), 2005

sonoro di ogni peformance. Il risultato, una struttura di vita artificiale in continua evoluzione, è proiettato su una serie di schermi che vanno a costituire una sorta di panorama visivo. Tra le perfomance è da segnalare anche Emanations (Emanazioni, 2012), con la partecipazione della violoncellista FrancesMarie Uitti. Pure interessante è il lavoro di Paul Prudence, che dal 2007 ha creato numerose opere live, per lo più attraverso software generativo: ryNTH[n1] (2007), dedicata ai labirinti, Structure-W (Struttura-W, 2007), un’architettura in evoluzione ispirata ai giroscopi e alla meccanica anti-gravità, Talysis II (2007-2009), con tassellazioni simmetriche e geometria iperbolica ottenute tramite feedback dei segnali, Fast Fourier Radials (2008), una visualizzazione spettrografica del suono in tre dimensioni, Rynth[n3] (2010), performance per cupola di planetario con forme basilari, Parhelia (2009-2010), a proposito di un fenomeno atmosferico, Bioacoustic

Fig. 9.9 - Pink Twins Live, 2014

133


Phenomena (Fenomeni bioacustici, 2010), entità cellulari che crescono in risposta a vibrazioni sonore, Structure-M11 (2012), derivata da suoni industriali, Sphaerae. Acoustic.Study (Studio sferoacustico, 2013), versione per cupola semisferica di Hydro Acoustic Study (Studio idroacustico, 2010), Arc. Cyclotone (2013), versione per schermo gigante di Cyclotone (2012), seguita poi da Cyclotone II (2015), Apeiron (2013), opera audiovisiva per il sistema di proiezione olografica Musion, Quanta (2014), sulla nota teoria fisica, ungear moi (2014), un’interpretazione di un pezzo di COH, e le colorate Parhelia (2010-2012), con forme geometriche in costante evoluzione, Chromophore (Cromoforo, 2013 [Fig. 9.11]), che usa un sistema di comunicazione bidirezionale fra le immagini e il suono, e le sue estensioni Lumophore (2013), realizzata per il planetario di Kaluga, in Russia, e Lumophore II (2015). Altri autori ancora non fanno invece

riferimento al mondo vj e seguono un tracciato indipendente. Fra questi si può annoverare Randy Jones, attivo in questo campo fin dagli anni ottanta. Jones ha a suo tempo sviluppato un dispositivo con cui poter controllare eventi audiovisivi. Più recentemente Jones ha utilizzato Jitter, un’estensione video e 3D dell’ambiente Max/MSP. Six Axioms (Sei assiomi, 2007) è probabilmente il suo lavoro più rappresentativo. Nel 1996 Pete Rice ha proposto un sistema interattivo per la produzione di suoni, chiamato Stretchable Music (Musica elastica, 1996), basato sulla creazione di oggetti sintetici bidimensionali, ognuno rappresentante un suono. I suoni possono poi essere trasformati in tempo reale tirando, comprimendo e modificando in vari modi le forme visive. Golan Levin, avvalendosi dell’esperienza di alcuni suoi precedenti lavori come Yellowtail (Codagialla, 1998) e Floccus (Lanuggine, 1998), ha a sua volta proposto l’Audiovisual Environment Suite (Suite per ambiente audiovisivo, 2000), un innovativo insieme di sette programmi che con l’ausilio di una tavoletta grafica, e quindi della gestualità, permette di generare animazioni astratte e suoni sintetici in tempo reale. Sempre nel 2000 Levin ha realizzato tramite questo strumento audiovisivo sintetico la notevole performance Scribble (Scarabocchio [Fig. 9.12]), con l’apporto di Gregory Shakar e Scott Gibbons, seguita da altre installazioni e ambienti interattivi, fra cui Messa di Voce (2003), presentata anche come performance. In questo contesto è da citare anche No Other Time (Nessun altro tempo, 2009), una performance di Richard Lainhart per

Fig. 9.11 – Paul Prudence, Chromophore (Cromoforo) [versione xCoAx], 2014

134


un grande spazio riverberante, musica elettronica e proiezioni di animazioni sintetiche ad alta risoluzione. Lainhart è anche autore di varie animazioni, fra cui Pneuma (2008), una sequenza di pattern prodotti con automi cellulari e musica improvvisata dal vivo. Nel 2004 Andrew Garton ha invece realizzato delle performance audiovisive utilizzando Unreal Engine, sviluppato da Epic Games dal 1998, cioè uno dei vari software che sono utilizzati per creare videogiochi. Ciò è particolarmente interessante perché i cosiddetti motori di rendering dei videogiochi consentono soluzioni tecnicamente complesse. Essi possono essere utilizzati per uscire dai canoni espressivi tipici di questa forma d’intrattenimento: per esempio per produrre performance dal vivo, oppure per creare animazioni chiamate machinima. Sempre rimanendo in questo ambito è da menzionare anche il videogioco Rez, realizzato con un intento sinestetico da Tetsuya Mizuguchi con United Game Artists e pubblicato da Sega nel 2001 per la propria piattaforma Dreamcast e per Sony PlayStation 2. Una versione in alta definizione per Microsoft Xbox è stata poi pubblicata nel 2008. Il trio S.S.S Sensors_Sonics_Sights, formato da Cécile Babiole, Laurent Dailleau e Atau Tanaka [Fig. 9.13], nei primi anni del millennio ha creato Visual Music in tempo reale utilizzando un theremin e sensori di vario genere, capaci di rilevare i movimenti delle braccia oppure la distanza fra il performer e uno strumento. L’obiettivo era d’instaurare una conversazione audiovisiva a tre voci fra i membri del gruppo. Similmente Camille

Barot e Kevin Carpentier nel 2010 hanno ideato Immersive Music Painter (Pittore musicale immersivo), un ambiente interattivo stereoscopico e suono sourround con il quale creare eventi audiovisivi in tempo reale. Altri autori pure da ricordare sono Katrin Bethge, Clinker, R. Luke DuBois, Ellen Fellmann, Al Griffin, Max Hattler, Ryo Ikeshiro, Adam Kendall, The Light Surgeons, Jarryd Lowder, Mia Makela, Olga Mink, Stefan Mylleager, Joshue Ott, Franz Rosati, Billy Roisz, Mark Rowan-Hull, Saul Saguatti, Ben Sheppee, Kurt Laurenz Theinert, Vello Virkhaus e Visual Systeemi.

Fig. 9.12 - Golan Levin, Scott Gibbons, Gregory Shakar, Scribble (Scarabocchio), 2000 Fig. 9.13 - Una performance di S.S.S Sensors_Sonics_Sights

135


le metafore sono mappature fra differenti domini, come appunto le immagini astratte e la musica. Le mappature delle metafore sono unidirezionali, cioè A → B, ma non B → A. Inoltre le mappature sono sempre parziali: non tutto A è mappato in B. In linea di massima le metafore servono a ricondurre in termini comprensibili eventi che altrimenti non lo sarebbero. Per esempio definire un suono come “freddo” (o brillante, secco, ecc.) è utile per riportare a qualcosa di conosciuto come il freddo un suono le cui caratteristiche sono complesse da descrivere. Quindi la metafora “questo suono è freddo” è una semplificazione e in quanto tale ha come conseguenza che molti suoni possono essere considerati “freddi”, anche se molto diversi fra loro. Il vantaggio è che così si facilita la concettualizzazione e la comunicazione, infatti in genere si concettualizza il non fisico in fisico, più vicino al mondo materiale e pertanto più semplice da afferrare. Sempre secondo Lakoff e Johnson le metafore sono state tradizionalmente viste come una questione di puro linguaggio, invece che un modo per strutturare il nostro pensiero e le attività di ogni giorno. È verosimile pensare che le parole da sole non possano modificare il mondo che ci circonda, ma i cambiamenti nel nostro sistema concettuale invece influenzano il modo in cui percepiamo il mondo. Inoltre Lakoff e Johnson sostengono che “L’esperienza del tempo è un tipo di esperienza naturale che è quasi interamente compresa in termini di metafore”5. E anche che “Parliamo seguendo un ordine lineare; in una frase pronunciamo delle parole prima di altre. Poiché parlare è correlato con il tempo e il tempo è

Fig. 10.1 - Nicholas Negroponte, Diversi tipi di film: personalizzato, conversazionale, navigazionale, sintetico. Da The Impact of Optical Videodiscs on Filmmaking (L’impatto dei videodischi ottici sulla cinematografia), 1979

138


metaforicamente concettualizzato in termini di spazio, è naturale per noi concettualizzare il linguaggio in termini di spazio”6. È quindi introdotto il tema della linearità del linguaggio nell’arte audiovisiva, cioè una forma con un inizio, uno sviluppo e una fine. In molti casi è stato semplicemente normale che molte opere audiovisive astratte seguissero questo genere di approccio, essendo stata la musica un punto di riferimento e un’arte per lo più a sviluppo lineare. Questo punto di vista ha però iniziato a essere messo in discussione, soprattutto a partire dalle prime installazioni – e non solo. Il suono infatti influenza la percezione dell’immagine in molti modi, per esempio modificando la percezione del movimento e della velocità, o vettorizzando il tempo, cioè creando una sequenza temporale precisa. Anche la predicibilità della musica influenza la percezione dell’immagine. Una composizione musicale è di solito una sorta di memoria congelata e ascoltarla è come rivivere e ripercorrere un ricordo, in maniera lineare. A volte però viene meno il principio di causalità che lega un evento a un altro, come già indicato da Umberto Eco all’inizio degli anni Sessanta. È interessante conoscere quanto asserito da Rudolf Arnheim a questo proposito: “Assieme, i media sequenziali e non sequenziali interpretano l’esistenza nel suo duplice aspetto della permanenza e del mutamento”7. In parte legata alla linearità o meno di un’opera è anche la tecnologia che la supporta. Nel 1979 Nicholas Negroponte ha pubblicato un documento intitolato The Impact of Optical Videodiscs on Filmmaking

R. Sekuler, R. Blake 1985, p. 104. When a photograph can be heard 2011. 3 S. MacDonald 2006, p. 55. 4 DVD CREATIVE PROCESS 1990, 1 2

(L’impatto dei videodischi ottici sulla cinematografia). I videodischi hanno portato un’importante novità rispetto alla pellicola cinematografica e al videotape, cioè l’accesso non sequenziale ai fotogrammi, individuabili su questo medium ottico in un tempo ragionevolmente breve. Ciò significava avere a disposizione uno strumento che permetteva di gestire un archivio d’immagini e di suoni in modo differente rispetto alla tradizione. Negroponte ha proposto quattro tipi di film interattivi basati su videodisco: personalizzato, conversazionale, navigazionale, sintetizzato [Fig.10.1]. Oggi è possibile gestire un’enorme quantità d’immagini e suoni digitali, archiviati in supporti ottici, magnetici ed elettronici anziché negli ormai obsoleti videodischi, ma il concetto rimane identico. Spesso gli autori di installazioni, i vj o i performer di live cinema si avvalgono proprio di architetture del genere per creare in tempo reale percorsi audiovisivi non preventivati. Questo tipo d’espressione artistica in genere non fa ricorso a strutture lineari, ma diventa più che altro l’esplorazione di un ambiente audiovisivo, a volte preordinato e a volte imprevedibile. Ciò naturalmente non significa che le forme audiovisive aperte, per usare la terminologia di Eco, siano migliori rispetto a quelle tradizionali: semplicemente sono diverse e implicano problematiche differenti. In altri termini si tratta di una serie di modi di comunicare che vanno ad arricchire le possibilità espressive e quindi aggiungono all’arsenale creativo maggiore varietà.

1:06:42 – 1:07:22. G. Lakoff, M. Johnson 1980, p. 118. 6 Ibid., p. 126. 7 R. Arnheim 1971, p. 308. 5

139


Fig. V - Wolfgang Köhler, Baluba e takete, Gestalt Psychology, 1929

dominante ed è trasmessa attraverso il cromosoma X. Al tempo stesso pare che la questione sia più complessa, poiché i soggetti sinestetici possono saltare le generazioni. Curiosamente coloro che manifestano questa caratteristica sono spesso mancine e dotate di un’ottima memoria. È anche importante rilevare che in qualche modo il concetto di senso è dipendente dalla cultura, anche se è innegabile la componente fisiologica. Per esempio i Desana della Colombia sono soliti descrivere gli odori in termini di colore e temperatura, come messo in evidenza da Constance Classen. In questo caso si può quindi ipotizzare una sorta di sinestesia culturale, non immaginabile da noi occidentali. D’altra parte sembrano esistere delle mappature quasi oggettive che sono riconosciute dalla stragrande maggioranza degli individui, indipendentemente dalle culture di appartenenza, come il noto esperimento di Wolfgang Köhler del 1929, secondo il quale le parole “baluba” e “takete” corrispondono a delle figure rispettivamente sinuose e angolate [Fig. V].

Lo stesso esperimento è stato poi ripreso da Ramachandran e Hubbard con le parole “kiki” e “bouba”. Il dato straordinario è che il novantacinque per cento dei soggetti da loro intervistati, non sinestetici, ha concordato sull’associazione fra parola e figura [Fig. VI]. Ramachandran e Hubbard attribuiscono questo fenomeno ai repentini cambiamenti della direzione delle linee nella figura di sinistra, che imitano le brusche modulazioni dei fonemi del suono kiki e la flessione della lingua sul palato. Si potrebbe anche sostenere che si tratta comunque di segnali, in questo caso suoni, che contengono un certo grado di rumore, maggiore in kiki e takete, e minore in baluba e bouba: le forme corrispondenti sarebbero quindi una rappresentazione del rumore. Inoltre anche la foggia delle lettere, ammesso che siano osservate, suggerisce una similitudine con i disegni in oggetto, infatti la lettera “k” presente in kiki e in takete è certamente più vicina a una forma spigolosa che a una tondeggiante. Un impulso notevole alla ricerca sulla sinestesia è stato dato dalle più recenti tecnologie, quali la tomografia a emissione di positroni e soprattutto la risonanza magnetica funzionale. In particolare gli studi di Riuma Takahashi e altri ricercatori si sono rivolti alla sinestesia suono → colore. Il risultato di questi esperimenti dimostra come la zona del cervello chiamata V4, che in prima istanza è responsabile della visione del colore, è attivata in condizioni di sinestesia, il che confermerebbe la teoria del crosswiring di Ramachandran e Hubbard. Inoltre, poiché la risposta nella zona V4 avviene in termini molto rapidi, si può escludere un processo

146


top-down, cioè cognitivo, e quindi si ribadisce come la sinestesia sia principalmente un fenomeno percettivo. La sinestesia suono → colore sembra quindi essere una tipica espressione cross-modal, cioè d’interazione fra varie aree del cervello. Nel 2006 Jamie Ward e colleghi hanno compiuto un esperimento con diversi timbri e diverse altezze. Essi sono giunti alla conclusione che la sinestesia suono → colore è probabilmente causata da un’esagerazione di meccanismi presenti normalmente, più che dalla presenza di speciali percorsi cerebrali propri esclusivamente dei soggetti sinestetici, il che non confermerebbe la tesi del pruning. Altre ricerche ancora dimostrano una correlazione fra sinestesia e orecchio assoluto, anche se sorprendentemente gli individui con questa caratteristica sono spesso meno coerenti nella scelta delle corrispondenze. Inoltre essi identificano le note distanti fra loro di un’ottava con la stessa tinta, anche se con gradi di luminosità diversi, cioè più è acuto ilsuono e più è chiaro il colore. Spesso infatti l’altezza di un suono è correlata alla luminosità. Un altro test ha invece fatto ricorso a delle diadi, cioè un accordo di due suoni, anziché a suoni singoli: in questo caso i soggetti hanno riportato due o più colori. In un altro esperimento ancora sono stati proposti dei glissandi fra due note anziché delle note fisse ed è risultato che sono stati associati i colori corrispondenti alle note intermedie. Un risultato analogo è stato riportato con i suoni microtonali, mentre dei suoni leggermente stonati sono stati percepiti come leggermente più scuri se la frequenza era inferiore rispetto alla nota intonata e più chiari

se la frequenza era superiore, confermando quindi una certa coerenza del fenomeno percettivo. Vale poi la pena citare lo studio svolto da William G. Collier e Timothy L. Hubbard su un campione di non sinesteti, nel quale sono state considerate le scale e i modi musicali e la corrispondente luminosità. È risultato che il modo minore armonico discendente è stato valutato come più cupo rispetto al modo minore melodico discendente. Inoltre le tonalità con una nota fondamentale più acuta sono state stimate come più brillanti rispetto a quelle con una tonica più grave. I dati suggeriscono che a influenzare il giudizio sulla brillantezza degli stimoli musicali siano aspetti più globali di altezza, distanza fra note successive e profilo melodico, cioè la direzione del movimento delle note, piuttosto che il modo o la tonalità. Sarebbe infine interessante condurre delle ricerche con suoni non appartenenti alla scala occidentale o comunque con un grado di complessità tale per cui non possano essere ricondotti a note di scale musicali di alcun genere, come quelli a volte ottenuti con tecnologie contemporanee. Un’idea per il futuro.

Fig. VI - da Vilayanur S. Ramachandran, Edward M.Hubbard, Kiki e bouba Synaesthesia - A Window Into Perception, Thought and Language, 2001

147


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.