PROGETTAZIONE PER VIDEOAMBIENTI INTERATTIVI -TOTAL PEOPLE SCANNING-
Università degli Studi di Firenze - Facoltà di Architettura Corso di Laurea in Disegno Industriale Curriculum Comunicazione Visiva Anno Accademico 2008/2009 tesi di Laurea di Marco Inglese, relatore Prof. Giuseppe Ridolfi, correlatore esterno Ing. Maurizio Baldini
Mailab.biz Il progetto Mailab è un laboratorio congiunto Università– Impresa per la realizzazione di gruppi di lavoro misti che riuniscano le competenze e le professionalità dei seguenti soggetti con specifiche esperienze, maturate nel corso di alcuni decenni, nei settori delle tecnologie digitali, della comunicazione e dell’automazione. Questa tesi nasce dunque con il supporto di Mailab che, istituzionalmente, tra i suoi obiettivi pone quello di supportare studenti
laureandi,
in
specialistica,
dottorati,
e/o
ricercatori, sulla base degli accordi e degli obiettivi sanciti dalla Convenzione tra l’Università degli Studi di Firenze e l’Associazione degli Industriali della Provincia di Firenze per la realizzazione di Laboratori congiunti Università–Impresa e gruppi di lavoro misti.
Dipartimento Tecnologie dell’Architettura e Design “Pierluigi Spadolini” Aida, Firenze High Tech Value, Firenze Idee Digitali Responsabile scentifico: prof. Giuseppe Ridolfi www2.mailab.biz 3
- ai miei genitori -
O I R A M - SOM
0. Premessa -Interaction design environment-
-9-
-Ricerca e analisi-
-12-
1. Estetica e composizione dello spazio -PotenzialitĂ di un dispositivo tecnologico-
-16-
-Cinetica e materia-
-32-
-Lo spazio scenico-
-40-
2. Il video -Immagini in movimento-
-56-
-VT is not TV-
-68-
-Videoambienti-
-78-
3. Arte elettronica -Ambienti sensibili-
-96-
-la scena digitale-
-106-
-Vjing e live media-
-114-
4. Strumenti -124-
-Piattaforme elettroniche-
-132-
-Motion capture-
-142-
-Programmazione visuale-
5. Progettazione -166-
-Concept-
-170-
-Sviluppo del progetto nello spazio-
-176-
-Editing multimediale-
-182-
-Sistemea interattivo integrato-
-186-
-Allestimento e conclusioni-
-194-
Osservazioni conclusive
-198-
Bibliografia
-199-
Filmografia
-200-
Webografia
0. Premessa
-Interaction design environmentL’interaction
design
è
principalmente
progettazione
dell’interazione tra uomo e macchina, un argomento troppo vasto e ambiguo per essere raccontato in questo paragrafo, tuttavia è bene svilupparne alcuni concetti, al fine di introdurre quella che è la mia filosofia d’approccio a tale disciplina, nonché il filo conduttore dei vari contenuti che seguiranno in questo testo. Il passaggio dall’analogico al digitale rappresenta una trasformazione tecnico-culturale che ha sconvolto l’utilizzo e la fruizione degli strumenti tecnologici, le quali possibilità vengono amplificate esponenzialmente, ma che rimandano sempre e comunque ad una matrice rintracciabile di 0 e 1.
Introduzione 9
Laurent Mignonneau & Corista Sommerer The living room, 2001
Introduzione 10
Quindi a un processo di virtualizzazione che si innesca non solo nel mezzo di comunicazione digitale, ma anche nell’utente stesso, il quale attraverso svariati strumenti d’interfaccia con il sistema, quali il mouse o la tastiera, per fare due esempi molto comuni, producono un’ulteriore virtualizzazione delle azioni proprie dell’utente stesso laddove un’eccessiva possibilità di programmazione digitale, si potrebbe amplificare sino all’ipertrofia. Pertanto è necessario uno studio delle tecniche digitali legate all’esigenza creativa e artistica allo scopo di facilitare le scelte più consoni e conformi alla propria aspettativa performativa, partendo dalle soluzioni offerte dal dispositivo per inventarne nuove forme d’uso. Nel caso dell’interaction design il comportamento del sistema non è fisso, ma legato agli input forniti dall’utentespettatore dell’opera, quindi è opportuno pianificare un metodo procedurale attraverso il quale porre il computer e gli strumenti tecnologici utilizzati al servizio dell’idea creativa: in questo caso, il campo d’indagine specifico è dunque la creazione di spazi che possano immergere lo spettatore in una dimensione sensoriale attraverso le ibridazioni e le contaminazioni tra l’arte, il video e la tecnologia digitale, di conseguenza, verranno prese in analisi le procedure e le tecnologie che consentono l’interazione con tale ambiente.
Introduzione 11
-Ricerca e analisiProgettare
un
ambiente
interattivo.
Questa
è
la
problematica principale di questa tesi, attorno alla quale si articola un dibattito ampio ed eterogeneo atto ad individuarne le linee guida per una corretta progettazione, sia tecnica che artistica. Il seguente percorso critico-progettuale, si sviluppa, dapprima attraverso un’analisi storico-artistica che ricalca l’estetica delle varie correnti artistiche del 900, attraversando trasversalmente vari campi quali l’architettura, l’arte, il teatro, il design, facendo attenzione a particolari esponenti ed opere, di cui i contributi hanno segnato una svolta nella nascita di questa nuova disciplina che è l’interaction design.1 Il passo successivo dunque sarà soffermarsi sulla scelta di un preciso canale di comunicazione tra i vari a disposizione ed approfondirne le capacità tecniche, quanto le possibilità artistiche che sono state sfruttate sin dalla nascita di tale mezzo, fino alle più recenti tendenze contemporanee: presa in considerazione la mia formazione universitaria, nonché l’utilizzo massivo di tale strumento, la mia scelta, non poteva che ricadere sul video2, in particolare per la sua capacità di comunicazione universale, che prescinde dalle differenze culturali e/o geografiche, quindi la possibilità di acquisire conoscenze per una progettazione specifica destinata ad un ambito generale con un ampio target. Come per la prima ricerca, occorre formulare un’analisi storico-artistica, esclusivamente relativa ad un determinato ambito quale il 1. L’interaction design è l’attività di progettazione dell’interazione che avviene tra esseri umani e sistemi meccanici e informatici. Scopo fondamentale della progettazione dell’interazione è rendere possibile e facilitare al massimo per un essere umano l’uso e l’interazione con macchine (meccaniche e digitali), e la fruizione di servizi e sistemi complessi in modo proficuo e soddisfacente. 2. Per “video” si intende il campo di ricerca, sperimentazione e pratica delle immagini in movimento elettroniche e digitali ad esclusione di quelli cinematografiche e televisive.
Introduzione 12
video, sulla nascita e sull’utilizzo del mezzo, confrontando le diverse soluzioni presentate dai vari artisti nel corso degli anni, in particolare sulle opere che pongono l’interazione come elemento imprescindibile per la fruizione dell’opera stessa
al fine di acquisire consapevolezza delle svariate
possibilità di comunicazione che offre il mezzo stesso e prenderne spunto per la formulazione di un progetto originale adatto alla commissione sottoposta. Terzo, ed ultimo quesito, riguarda la parte tecnologica, ovvero la ricerca delle possibilità che oggi il mercato offre nell’ambito dell’interaction design, nello specifico, sulle video-proiezioni bcome forma definitiva di attuazione del progetto. Quest’ultima, rappresenta la parte più innovativa ed interessante della tesi, in merito ad attualità dei contenuti, nonché alla mancanza di una precisa panoramica sull’argomento, tuttora in via di sviluppo, pertanto difficile da catalogare ed analizzare. Infine, una volta, determinata la panoramica generale, segue l’approfondimento relativo alle scelte effettuate in relazione al progetto da realizzare, entrando così nell’ambito puramente
progettuale
dove
ogni
produzione
viene
accompagnata da un accurato studio delle problematiche, quindi delle eventuali soluzioni, come supporto imprescindibile dalla realizzazione concreta del progetto.
Introduzione 13
1. Estetica e composizione dello spazio -Storia e tecniche-
Capitolo 1
15
-Potenzialità estetiche di un dispositivoIl
primo
connubio
tra
sperimentazione
tecnologica
e ricerca artistica che indubbiamente ha influenzato la
successiva
evoluzione
dell’interaction
design
risale
addirittura al decennio 1725-1735, anni in cui il gesuita LouisBertrand Castel, fisico e matematico francese, presentava il “clavicembalo oculare”, strumento in grado di interfacciare un rapporto audiovisivo sinestetico ben definito, dando vita alla cosiddetta “musica a colori”: ad ogni nota veniva quindi associata, secondo studi approfonditi dello stesso gesuita, un colore, il quale appariva proprio in corrispondenza dell’attivazione del suddetto tasto. La struttura si presentava con una cassa di 6 metri, costruita sopra la parte preesistente del clavicembalo, contenente 60 finestrelle con differenti pannelli di vetro colorato retroilluminati da delle candele, quest’ultime collegate mediante una carrucola a un tasto Capitolo 1
16
specifico dello stesso clavicembalo. La successiva evoluzione di tale strumento si ottiene più di un secolo dopo con l’organo a colore di Wallace Rimington del 1895, che riduceva la cassa
in alto da sinistra a destra Aleksandr Skrjabin Esempio di partitura visuale per Chromola
da 6 a 3 metri, grazie alla recente scoperta dell’elettricità,
Otolab
introducendo così un sistema di retroilluminazione ad arco
Partitura visuale per
elettrico in sostituzione delle candele.
“Quaretto.swf” , 2001
Un’altra figura importante nel settore fu Aleksandr Skrjabin ,che partendo dagli studi di Castel, nel 1915 definisce un primo standard della sinestesia tra suono e immagine con la “Chromola” (tastiera per luce), nella quale il sistema notale veniva replicato con un corrispondente sistema cromatico che durante gli spettacoli necessitava anch’esso di una vera e propria partitura come per quella musicale. I suoi spettacoli erano caratterizzati da delle proiezioni su schermi giganti di 6mx10m sospesi sopra l’orchestra con la particolare richiesta al pubblico di vestirsi di bianco affinché la luce riflessa dagli schermi potesse insinuarsi nella folla inglobandola nello spettacolo. Louis-Bertrand Castel L’optique des couleurs”, studio sulla sinstesia suono-colore, 1740
da sinitra a destra Wallace Rimington Organo a colore, 1895 Louis-Bertrand Castel Clavicembalo oculare,
Capitolo 1
17
Vladimir Baranoff Piano optofonico, 1920
La scoperta dell’elettricità e lo sviluppo dell’industria meccanica, hanno portato nel 1920 ad altre due invenzioni degne di nota in materia di musica a colori quali il “Clavilux” di Thomas Wilfred e il “Piano optofonico” di Vladimir Baranoff Rossinè. Entrambi seguono il principio della musica a colori, ma in dimensioni ridottissime grazie all’utilizzo di lenti per modellare un unico fascio di luce neutra a cui viene aggiunto il colore tramite dischi di vetro dipinti a mano che ruotando in continuazione creano pattern di luce. Caratteristica distintiva per il primo è la versione automatizzata, prodotta in box speciali contenenti una musica predefinita che produceva la relativa proiezione visuale, una sorta di antenato di Windows media player1, mentre il secondo si distinse per il sistema di controllo effettuato tramite celle fotoelettriche direttamente collegate ad ogni singolo oscillatore del pianoforte che regolavano intensità e filtri colore delle proiezioni luminose. Questo sistema dei dischi trasparenti retroilluminati è stato recentemente ripreso dalla performance audiovisiva “Circo ipnotico” di Otlab, che ha brevettato il proprio strumento con il nome di “Pepposcopio”. Thomas Wilfred Clavilux, 1920
Capitolo 1
18
1 Windows media player è un programma software sviluppato da Microsoft per riprodurre file multimediali audio e video, dotato di un generatore grafico interattivo, interfacciato con la traccia audio in esecuzione.
Pepposcopio Il pepposcopio (dall’autore Peppolasagna), consiste in un disco trasparente retroilluminato da quattro batterie di led RGB programmabili. La performance si ottiene dipingendo direttamente sulla superficie del disco, oppure applicando diverse maschere di cartoncino nero che muodulano il flusso luminoso giocando sui tempi di rotazione anch’essi programmabili.
Otolab Circo ipnotico live media performance, 2008
Capitolo 1
19
Bauhaus veduta della sede di Dessau, 1928
Analizzando dunque l’interaction design come pratica e studio affine a diverse discipline, tra cui arte e architettura, viene spontaneo sottolineare quello che è stato il prezioso contributo della Bauhaus2, in merito all’approccio progettuale e alla capacità di riunire arte e tecnica al servizio della società. L’eredità permanente che ha lasciato la scuola e che anche attualmente influenza l’insegnamento, soprattutto dell’industrial
design,
sono
le
innovazioni
didattiche.
L’organizzazione dei corsi subì molte modifiche durante la vita della scuola, ma alcuni aspetti sono peculiari e universalmente collegati al Bauhaus. Inizialmente, uno dei principali obiettivi della scuola fu di unificare arte, artigianato e tecnologia, perciò da questa finalità, possiamo dire che presso il Bauhaus 2 Letteralmente, “casa delle costruzioni”, fondata da Walter Gropius a Weimar nel 1919, dalla fusione della Scuola Granducale di Arti Plastiche (Accademia di Belle arti) e della Kunstgewerbeschule (Scuola di artigianato artistico). Questa origine esemplifica il programma della nuova scuola che vuol riunire arte applicata e architettura.
Capitolo 1
20
assistiamo alla nascita della disciplina del design intesa come unione di tecnica e arte, uno dei concetti principali dell’ideologia gropiusiana. A tal proposito vennero chiamati come docenti fondatori artisti del calibro di Vasilij Kandinskij e Paul Klee e inoltre, veniva addirittura prevista una doppia direzione per quanto riguarda i laboratori che dovevano essere diretti da un artista e da un maestro artigiano. Un’altra innovazione importante fu il Vorkurs cioè il corso preliminare: tale attività didattica, svolta prima da Itten (che insegnava a liberare l’energia creativa e a indirizzarla verso la meta di una forma energetica e gestuale) e poi da Moholy-Nagy, corrisponde al moderno corso di basic design ed è tuttora uno dei corsi fondamentali in molte scuole di architettura e industrial design nel mondo. Lo studente doveva seguire un corso preliminare di sei mesi, durante i quali studiava le caratteristiche dei materiali, dei colori, delle forme naturali e composizioni geometriche, ma anche le leggi della percezione visiva. Ne seguiva la seconda fase, che durava tre anni, consisteva in attività di laboratorio (falegnameria, metalli, tessitura, stamperia, scultura, ceramica) dove si sperimentavano le caratteristiche tecniche e di lavorazione dei materiali, di conseguenza la terza fase consisteva in un tirocinio in cantieri edili e prevedeva lo studio della progettazione e della costruzione architettonica. Non c’era insegnamento di storia nella scuola, perché si supponeva che tutto venisse disegnato e creato come se fosse la prima volta, piuttosto che pensando ai precedenti: la macchina veniva considerata un elemento positivo e quindi il design industriale e del prodotto ne erano componenti importanti.
Capitolo 1
21
Tra i vari studi praticati durante gli anni di attività
della Bauhaus, di particolare interesse per questa ricerca, risultano gli esperimenti effettuati sull’utilizzo della luce come strumento di comunicazione, praticati sulla base del concetto delle possibilità estetiche di un dispositivo. La luce fu, peraltro, l’elemento principale dello sviluppo dell’arte moderna, quindi di tutte le avanguardie, a partire dal contributo essenziale che diede l’impressionismo nella pittura con un utilizzo della luce in forma autonoma, indipendente dalla rappresentazione dell’oggetto, per farsi portavoce di un’espressione artistica personale. L’interesse della Bauhaus in quest’ambito nasce proprio da questa problematica, con l’obbiettivo finale di creare, attraverso un innovativo uso della luce, un genere artistico più completo che forte di un’elevata azione psico-fisica, riesca a rendere in movimenti reali quelle forme che nei dipinti creano, attraverso i loro reciproci rapporti, l’illusione di movimenti e tensioni. I primi esperimenti della Bauhaus, furono eseguiti a Weimar nell’estate del 1922, in seguito a delle conversazioni tenute tra il maestro artigiano Josef Hartwing3 con gli assistenti Kurt Schwertdfeger e Ludwig Hirschfeld-Mack, dando vita negli anni successivi a delle vere e proprie tournee che toccarono numerose località4. L’idea fondamentale ed il procedimento che stava alla base dei “giochi di luce con riflettori” erano molto semplici: diverse sagome, precedentemente preparate, venivano spostate avanti e indietro, a volte sovrapposte davanti ad un riflettore, dunque proiettate sulla faccia posteriore di un telo di lino trasparente cosicché sulla faccia anteriore, rivolta verso il pubblico, apparivano una serie di figure astratte in movimento. Attraverso schermature applicate sulle sorgenti 3 Josef Hartwig fu membro del Bauhaus dal 1921 al 1925 in qualità di maestro artigiano responsabile per la parte tecnica dell’officina di scultura. 4 Tra le varie apparizioni, da segnalare: Maggio 1924 “matinée cinematografica” alla Volksbühne di Berlino; Settembre 1924 “festival della musica e teatro” di Vienna.
Capitolo 1
22
Ludwig Hirschfeld-Mack Cabina di proiezione dei giochi di luce, 1924
Capitolo 1
23
Ludwig Hirschfeld-Mack Cabina di proiezione dei giochi di luce, 1924
di luce e l’inserimento di resistenze era possibile controllare l’intensità luminosa sia delle singole forme che dei complessi di forme, dove l’improvvisa comparsa e scomparsa delle varie parti della composizione veniva regolata tramite interruttori. Gli elementi formali di figurazione erano prevalentemente il punto colorato in movimento, la linea e la superficie. Ognuno di questi poteva essere mosso con qualsiasi velocità ed in qualsiasi direzione, ingrandito o rimpicciolito, sdoppiato o addirittura sovrapposto ad altri elementi, formandone così di terzi dalle tonalità cromatiche frutto della mescolanza di due o più sorgenti luminose colorate5. Questi giochi di luce furono studiati e brevettati per accompagnare performance musicali tramite un rapporto simbiotico tra le due forme di comunicazione, cosicché l’articolazione temporale veniva resa più chiaramente percepibile grazie al ritmo acustico mentre i vari fenomeni ottici venivano
5 La struttura era composta da campi mobili di luce gialla, rossa, verde e azzurra, con una serie di gradazioni organiche che vanno dalla oscurità alla luce più viva.
Capitolo 1
24
Ludwig Hirschfeld-Mack Partitura sonora e visuale per uno spettacolo di luce, 1924
sottolineati ed esaltati dalla musica. Si rese necessaria così, una specie di partitura per i tecnici delle luci che, come in un’orchestra, seguivano istruzioni scritte per regolare azioni che diventano indispensabili in un determinato tempo e in un determinato luogo nel corso della rappresentazione. Un ulteriore peculiarità di queste sperimentazioni era proprio la rappresentazione, in quanto le partiture, ovvero i movimenti delle sagome e le regolazioni delle luci, non erano fissati una volta per tutte meccanicamente, bensì ricreati ex novo ad ogni nuova rappresentazione, lasciando ampio margine all’improvvisazione, pertanto si possono definire come precursori delle odierne performance di vjing. Un altro campo fertile sulla sperimentazione artistica della luce nella Bauhaus, fu la fotografia, che seppur introdotta come insegnamento solo dopo il 29, vede molto prima come suo maggiore esponente Lazlo Moholy Nagy, alla cui base degli insegnamenti vige il concetto di creatività posta al servizio della performance. I suoi esperimenti, risalgono già all’inizio degli anni venti, concentrandosi proprio sulla fotografia al Capitolo 1
25
fine di liberarla dalla sua mera rappresentazione meccanica, spinto da un desiderio di una figurazione visiva autonoma, priva delle limitazioni della corrispondenza illustrativa col reale, come nella pittura delle avanguardie. Tuttavia, una nuova tecnica deve creare una nuova forma adeguata ai propri mezzi: la fotografia è essenzialmente una composizione di valori luministici, pertanto nella fotografia di Moholy-Nagy, i mezzi tecnico-meccanici devono incidere su ciò che sarà la composizione della figurazione, allo scopo di generare effetti espressivi ed astratti. Riflettori, proiettori, smalti, gelatine ed altri materiali simili consentono un’azione sulla Lazlo Moholy-Nagy Fotogramma, 1923 Fotogramma, 1923
luce priva di strutturazione pigmentale, quindi immateriale, producendo un arricchimento della visone (l’artista la chiamerà “Nuova visione”), che non si avvede di alcun riferimento a canoni universali o storici. Nella ricerca che Moholy-Nagy applica alla fotografia, è di particolare rilievo l’utilizzo della tecnica off-camera6, i fotomontaggi realizzati direttamente in camera oscura senza alcun uso del collage, tipico quest’ultimo, della precedente ricerca dadaista e di altre correnti artistiche. Attraverso l’utilizzo di modulatori di luce ed altri tecnicismi come le esposizioni multiple, le sovrapposizioni di stampa, il negativo, l’artista riesce a far condividere immagini fotografiche con elementi grafici e geometrici, dando luogo a delle composizioni complesse ed espressive. Forte di questa “nuova visione”, negli anni 26-27, MoholyNagy portò in giro per l’Europa un suo spettacolo con un organo a colore riadattato per le proiezioni filmiche a cui collaborò un altro artista del cinema astratto quale Osca Fishinger, divenuto famoso per ricreare immagini astratte filmiche di grande complessità. 6 Per fotografia “off-camera”, si intende la fotografia che viene sottoposta ad elaborazione e composizione creativa nel passaggio in camera oscura, dunque a camera spenta.
Capitolo 1
26
da sinistra a destra Marie Ellen Bute
Un’ulteriore figura proveniente dal cinema astratto che ha
Synchronomy n$, 1939
sperimentato nuove forme artistiche dallo studio di dispositivi
A color rapshody, 1951
tecnologici, fu Mary Ellen Bute, la quale, concentrandosi nel suo caso su tecnologie scientifiche, collaborò con molti scienziati, tra i quali Joseph Schillinger, autore di una teoria sulla struttura musicale come prodotto di una serie di formule matematiche, quindi appropriatasi di tale principio, riuscì negli anni 50 a ricreare dei pattern grafici attraverso la diretta manipolazione di un oscilloscopio7. Analogamente alla ricerca di Mary Ellen Bute, un nome degno di nota è Mikomikona, gruppo artistico le cui performance audiovisive sono frutto della proiezione di lavagne luminose dotate di dispositivi analogici autocostruiti che leggono
Mikomikona Faurier tranzformation I+II, 2003
e trasformano in segnali audio le stratificazioni di composizioni optical8 disegnate su fogli lucidi. Questo viene reso possibile secondo il fenomeno conosciuto come sintesi ottica del suono per la quale ogni suono è rappresentabile secondo una forma precisa forma d’onda determinata. 7 L’oscilloscopio è uno strumento di misura elettronico che consente di visualizzare graficamente l’andameto temporale dei segnali elettrici 8 da optical art, composizioni di immagini che creano illusioni ottiche di movimento
Capitolo 1
27
Concludendo quindi sul rapporto tra arte e scienza, troviamo una serie di artisti contemporanei che hanno portato avanti questa ricerca audiovisiva, analizzando il comportamento dei materiali e di specifici fenomeni naturali, nel tentativo di associarne o addirittura produrre un evento audiovisivo. Tra questi artisti si distinguono Carsten Nicolai, autore di diverse installazione e/o oggetti sonori e audiovisivi, il gruppo Semiconductor, che si appoggia alla NASA9 per la ricezione di fenomeni sonori e uditivi particolari provenienti dallo spazio, giocando quindi sulle loro possibili visualizzazioni, per finire con Evelina Domnitch e Dimitri Gelfand, i cui progetti sono caratterizzati da uno studio estetico di fenomeni chimico-fisici, dunque dei veri e propri esperimenti scientifici, solitamente legati a fattori sonori, sfruttati per costruire la loro performance audiovisiva, come nell’opera “Camera lucida” del 2004, che mette in evidenza la
correlazione
audiovisiva
legata
al
fenomeno
della
sonoluminescenza10, inviando un suono all’interno di una camera ad alta pressione satura di un gas raro, provocando così delle microesplosioni luminose. 9 National Areonautics and Space Administration, è l’agenzia governativa responsabile per il programma spaziale degli Stati Uniti d’America. 10 La sonoluminescenza è un processo fisico in cui l’energia sonora viee trasformata in luce.
Evelina Domnitch e Dimitri Gelfand
Capitolo 1
28
strumentazione per la performance Camera lucida
Semiconductor Nanowebbers, 2001 - Brillant noise, 2006 Live media performance
Evelina Domnitch e Dimitri Gelfand Camera lucida, 2004 - 10.000 Peackock acid, 2008 Live media performance
Carsten Nicolai Mikro makro, 1996 - color Polar, 2000 - Spray, 2004 Installazioni audio e video interattive
Capitolo 1
29
RISORSE HANS M. WINGLER, Il Bauhaus, traduzione italiana a cura di Libero Sosio, Feltrinelli, Milano 1987 Dispense workshop OTOLAB, Marzo 2010 http://www.zuviel.tv/mikomikona.html http://www.carstennicolai.de/ http://portablepalace.com/
Capitolo 1
31
-Cinetica e materiaSecondo il connubio tra arte e tecnica, una breve parentesi merita di essere aperta riguardo ad una delle tendenze dell’arte contemporanea negli anni successivi alla seconda guerra mondiale, per quanto riguarda l’ingresso della cinetica nelle varie discipline artistiche. Lo sviluppo della società moderna industriale e consumista, si è riflessa in un’inevitabile interdipendenza tra arte ed industria, che ha generato una nuova “arte materica” definita dalla presenza di materiali insoliti (lamiere di ferro, cocci di vetro, fili d’acciaio, colla), talvolta ignoti alle correnti artistiche precedenti (plexiglas, materie plastiche). La caratteristica comune
nell’utilizzo
di
questi
materiali
provenienti
dall’industria, si riscontra prevalentemente nella scelta di materie allo stato grezzo, piuttosto che lavorate, dove
Capitolo 1
32
trovano ampio spazio addirittura i rifiuti.
Questo nuovo
approccio dell’arte, trova campo fertile nella scultura, data la particolare natura tridimensionale di quest’arte, dove recuperando il concetto del ready-made1, introdotto dai dadaisti, si sviluppa una scuola basata sul detrito, ovvero sull’assemblaggio di pezzi recuperati da organismi meccanici preesistenti attraverso la tecnica della saldatura, pratica comunissima all’industria meccanica. “Ruota di bicicletta” (1913) di Duchamp, vede una ruota di bicicletta con la sua forcella inserita alla rovescia su uno sgabello, con un invito generico a toccarla. È la prima opera d’arte a far uso diretto del movimento fisico per esprimere il suo messaggio.
Sul concetto di movimento come mezzo di espressione
artistica, si è interessato Jean Tinguely, autore di macchinette fantasiose, assemblate con materiali di varia natura, quasi sempre rifiuti o pezzi di macchine in disuso. La sua arte è basata proprio sulla ruota e sul movimento rotatorio in un’eterna ripetizione e cambiamento: i meccanismi da lui creati sono deliberatamente difettosi, gli accoppiamenti mancano di precisione, i movimenti si bloccano e ripartono seguendo le regole del caso di un disordine meccanico. 1 Il termine ready-made (traducibile come “instantaneo”, “detto-fatto”...) è utilizzato per descrivere un’opera d’arte ottenuta da oggetti per lo più appartenenti alla realtà quotidiana. L’inventore del ready-made fu il dadaista Marcel Duchamp nei primi decenni del Novecento ed ancora oggi è una pratica molto usata (nelle sue varie evoluzioni) nell’arte contemporanea.
Capitolo 1
33
nella pagina successiva Jean Tinguely Pit stop, 1983
Tra le sue innumerevoli sculture in movimento, mi è sembrato opportuno citare un’opera di recente fattura, in cui Tinguely, per la prima ed unica volta inserisce il video, quindi una tecnologia non meccanica, nella composizione dell’opera. La scultura consiste nello smantellamento di un’autovettura della Formula 1, quindi riassemblata in simbiosi con una struttura a grandi braccia meccaniche che si muovono in direzioni diverse, che a loro volta reggono alcuni proiettori i quali rimandano immagini filmiche alle pareti intorno. Le riprese, sono relative ad un pit-stop (da cui il nome dell’opera) della vettura Renault di Alain Prost, durante la corsa all’autodromo di Zeltweg in Austria del 1983. Le pellicole sono state manipolate mediante sovrimpressione e rallentamenti, al fine di smorzare la tensione di un’azione frenetica e pericolosa, per sottolinearne la precisione dei movimenti. Come per molte delle opere di Tinguely, è presente un pulsante di azionamento dell’intero meccanismo, lasciato ad uso discrezionale da parte del pubblico, introducendo il fattore interattivo, seppur a livello basico.
Jean Tinguely Tinguely museum Basilea
Capitolo 1
34
Capitolo 1
35
Julien Maire Exploding camera, 2007 Live media performance
Julien Maire Diapositives , 1998 Live media performance
Capitolo 1
36
Julien Maire Demi pas, 2002 Live media performance
Una sperimentazione meccanica analoga a quella di Tinguely,
incentrata però non sulla materia stessa, ma sull’immagine e sul video, si trova nelle opere di Julien Maire , artista contemporanea, che nei primi anni del 2000 sperimenta una decostruzione e ricomposizione di media analogici tradizionali (proiettori, televisori, diapositive, filtri), utilizzandoli all’inerno di complesse strutture elettriche meccanicizzate spesso attivate in tempo reale dall’artista come per la performance “Diapositives” del 1998, dove animava delle diapositive tramite teatrini meccanici che giocavano su layer sovrapposti all’immagine statica.
Capitolo 1
37
RISORSE PONTUS HULTEN, JEAN TINGUELY, Una magia pi첫 forte della morte Bompiani, Milano 1987 Dispense workshop OTOLAB, Marzo 2010 http://julienmaire.ideenshop.net/
Capitolo 1
39
-Lo spazio scenicoUna volta approfondite le questioni “tecnica” e “materia”, non rimane che analizzare lo spazio, ovvero il luogo fisico dove prende vita l’opera o la performance vera e propria. Anche qui ci troviamo di fronte ad un argomento molto vasto e variopinto, da cui occorre selezionare le esperienze utili alla ricerca critica affine al progetto multimediale in questione.
Partendo proprio dal concetto di arte totale,
intesa come l’unione delle arti e delle discipline allo scopo di essere più vicini all’armonia della natura, concetto sviluppatosi nell’800 romantico, troviamo come maggiore esponente di questa corrente, il compositore tedesco Richard Wagner, il quale oltre ad essere un musicista, viene ricordato per il suo progetto “Gesamtkunstwerk”, ovvero un Capitolo 1
40
teatro appositamente studiato per immergere lo spettatore nell’opera. L’architettura del complesso prevedeva un palco estremamente profondo al fine di sollecitare una visione fortemente
tridimensionale,
l’orchestra,
invisibile
allo
spettatore, veniva posizionata all’interno di un tunnel sonoro in modo che funzionasse da cassa di risonanza, quindi una tribuna semicircolare era in grado di produrre un’acustica perfetta ed immersiva a prescindere dalla posizione dello spettatore. Questa concezione di opera teatrale intesa come insieme di eventi musicali, visivi e scenografici, introduce per la prima volta nella storia il concetto che oggi conosciamo
Richard Wagner
come multimedialità, che ha influenzato fortemente molte correnti artistiche del secolo a venire.
Richard Wagner Gesamtkuntwerk, 1850
Capitolo 1
41
Il teatro del Novecento ci viene incontro in questo senso,
nella pagina successiva Luigi Russolo
attraverso varie sperimentazioni applicate alla scenografia
Intonarumori, 1913
che vedono l’intrusione dei nuovi media come parte portante della progettazione, a partire dal contributo delle avanguardie ed il conseguente ritorno di ispirazione dal teatro alle stesse avanguardie: nasce così il concetto di “teatro totale” che
Intonarumori Famiglia di strumenti musicali composta acustici
da che
generatori permettevano
ha tra le sue finalità una maggiore compartecipazione del
di controllare la dinamica, il
pubblico allo spettacolo-evento dove anche la scenografia si
volume e la lunghezza d’onda
riscopre protagonista tramite l’apporto di effetti cinetico-
di diversi tipi di suono..
visuali. Un primo innovativo contributo, emerge dall’estetica promossa dal Futurismo e dai Balletti russi, con importanti artisti-scenografi come Balla, Depero e Bakst, per i quali la scena si trasforma in un processo dinamico sullo stretto coordinamento tra colore, suono e movimento, giungendo alla creazione di uno spazio scenico “polidimensionale”, abolendo le tradizionali forme orizzontale e cubica del palcoscenico e dell’arcoscenico1.
1 Arcoscenico, o boccascena è, nel teatro, lo spazio, in altezza e larghezza, che delimita il palcoscenico nei confronti della platea, ed è formato dall’insieme degli elementi che incorniciano la scena.
Giacomo Balla Scenografia di Feu d’artifice
Capitolo 1
42
Balletti russi, 1917
Leon Bakst, da parte sua, ebbe una rilevante impronta sul campo della moda, disegnando i costumi per i Balletti russi, i cui richiami esotici, influenzarono le successive correnti artistiche dei Fauves e dell’Art dÊco, tuttavia, restando in materia scenografica, Bakst viene ricordato per la sua profonda conoscenza delle combinazioni cromatiche e per un eccessivo uso del colore, il quale assumeva un valore altamente simbolico in ogni sua rappresentazione, concependo dunque la
scena
in
tre
Leon Bakst scena di Sheherazade, Opera di Parigi, 1910
dimensioni,
dilatandola attraverso simmetrie occulte,
ottica
spaziale
e
profonditĂ della scena, dentro cui lo spettatore doveva entrare in una dimensione onirica.
Leon Bakst bozzetto per la scenografia di Sheherazade, Opera di Parigi, 1910
Capitolo 1
43
Walter Gropius pianta per il progetto
Una ricerca analoga a quella del Futurismo, si ritrova
“Taeatro totale “, 1927
qualche anno più tardi nella scuola tedesca della Bauhaus, con i contributi di Gropius e Schlemmer. Il primo sviluppò un progetto architettonico (mai realizzato) di teatro totale sottoforma di teatro-macchina, dove la sua particolare forma ovale a conchiglia, permetteva una rotazione di 180 del palcoscenico e di parte della platea, consentendo uno scambio agile tra le due forme storiche del palcoscenico, ovvero la forma greca, con il palco al centro della platea e la forma classica, con il palco in opposizione alla platea. Il fine di questo progetto era di incentivare la partecipazione dello spettatore allo spettacolo, destandolo dalla sua apatia intellettuale manifestata durante la visione. I tentativi della Bauhaus di stabilire un collegamento tra l’elemento artistico e quello tecnico, si diffusero quindi anche nel settore del teatro, in particolare nella danza, dove si distinse l’operato di Oskar Schlemmer per i suoi peculiari costumi e scenografie che prendono ispirazione dall’estetica futurista. Il Balletto, diviene così, un balletto meccanizzato; L’uomo non è più al centro dell’attenzione, ma immerso tra
Capitolo 1
44
gli altri elementi dello spazio teatrale confondendosi tra le scenografie, quindi le stesse scenografie compenetrano la figura umana diventandone una parte effettiva, in uno spettacolo dove tutti i mezzi fisici e spirituali sono a disposizione della creazione artistica. Anche la musica subisce quest’azione meccanico-sensibile grazie alla precedente rivoluzione del Futurismo che introdusse i rumori come mezzo espressivo, quindi musicale, completando le improbabili figurazioni di Schlemmer attraverso un’ampia gamma di sonorità meccaniche. Sfondi neri, infine, accompagnano e sottolineano le azioni dei ballerini che si fondono con le forme meccaniche al fine di esaltare e vivere lo spazio con il corpo, rendendolo un’unità inscindibile dal contesto.
Oskar Schlemmer Danza spaziale, 1927
Oskar Schlemmer Oskar Schlemmer
Danza delle verghe, 1927
Treppenwitz, 1926
Capitolo 1
45
I fondamentali impulsi di Futurismo e Bauhaus, spinsero la scenografia moderna verso l’uso di materiali desueti e successivamente all’abbandono dello spazio tradizionale del teatro a favore di altri luoghi, come fabbriche in disuso o esposizioni internazionali per esempio. Queste tendenze portarono il teatro e non solo a un linguaggio contemporaneo costantemente in aggiornamento, quindi alla comparsa di nuove tecnologie a favore della creazione artistica (neon, plastica, video, computer e laser). Si iniziò quindi ad indagare lo spazio come strumento, come per il “cinema espanso”, figlio del cinema sperimentale astratto, ma caratterizzato da una forte componente spaziale. Un chiaro esempio di cinema espanso furono i “Vortex concert” di Jordan Belson (videoartista) e
Henry Jacobs (compositore) del 1957,
concerti di musica elettronica distribuita su 50 altoparlanti, accompagnati da proiezioni non più su un supporto di tipo schermo, ma direttamente sulla cupola di un planetario grazie all’utilizzo 30 proiettori, con il risultato globale di un’immerisività totale da parte dello spettatore, anticipando di gran lunga le moderne installazioni di videoambienti. Contemporaneamente ai Vortex concert, sempre indagando le possibilità immersive dello spazio architettonico, troviamo due esperienze artistiche di due architetti famosissimi
Capitolo 1
46
Jordan Belson Henry Jacobs Vortex concert, 1957
Le Courbesier Padiglione Philips, 1958
all’epoca quali Le Courbesier e Van Der Beek, l primo con il progetto del padiglione Philips per la expo di Bruxelles del 1958 dove, con la collaborazione di Edgar Varese e Iannis Xenakis, fu costruita una struttura complessa in cui era disposto un sistema di 425 altoparlanti attraverso un sistema di 11 canali, mentre al secondo si deve il progetto “Movie Drome” del 1963, in cui l’artista ebbe l’idea di creare un teatro sferico dove le persone potessero sdraiarsi e godere di suoni e immagini tutt’attorno.
Stan Van Der Beek Moviedrome , 1963
Capitolo 1
47
Josef Svoboda, disegno per Polyécran , 1958
Un’ulteriore figura importante nella sperimentazione “scenotecnica”,
è
sicuramente
Josef
Svoboda,
autore
di oltre 700 scenografie, nonché di alcune invenzioni tecnologiche tra cui i proiettori per il controluce, chiamati anche proiettori Svoboda. La ricerca dell’artista ceco, si caratterizza da un uso virtuosistico della luce e di impianti audiovisivi, arricchiti da laser e specchi per accentuarne l’effetto. Un esempio importante è il “Polyécran”, un sistema di multischermo presentato per la prima volta alla Expo di Bruxelles del 1958, dove l’idea creativa maturata da Svoboda consisteva nella creazione di uno spazio per mezzo di proiezioni cinematografiche su una serie di schermi collocati sul palcoscenico: otto schermi per la proiezione in forma trapezoidale e quadrata situati in uno spazio nero in uno spettacolo senza attori che si compone esclusivamente di musica registrata e di immagini che provengono da sette proiettori
cinematografici
ed
otto
diaproiettori2.
Tale
soluzione tecnica prevede inoltre la sincronizzazione dei media attraverso la messa a punto di un circuito elettronico con una memoria che dirigesse tutte le funzioni.3 2 Proiettori per dipositive. 3 Il circuito elettronico, fu realizzato da Miroslav Pflug.
Capitolo 1
48
Josef Svoboda
Il passo successivo dell’applicazione multimediale di
Polyécran , 1958
Svoboda alle arti scenografiche, lo realizza per l’allestimento di “Intolleranza” di Luigi Nono, presentato a Venezia nel 1961, che però viene censurato a causa dei suoi contenuti dichiaratamente politici, pertanto verrà ripresentato in versione integrale all’Opera Group di Boston nel 1965. La particolarità di questo allestimento, oltre alla ormai consueta presenza di sistemi di proiezione, eidofori4 in questo caso, risiede nel tentativo di costruire lo spettacolo come
un “happening”5 controllato tramite una regia. Sul
palcoscenico si svolge l’azione principale, mentre il coro, realizza la propria performance in uno studio televisivo a 10km dal teatro, messo
a disposizione per la diretta da
trasmettere sugli eidofori. Un ulteriore studio viene allestito
4 L’eidoforo è un apparecchio per proiezioni televisive dal vivo su grandi schermi 5 L’happening è una forma di teatro in cui diversi elementi a-logici, compresa l’azione scenica priva di matrice, sono montati deliberatamente insieme ed organizzati in una struttura a compartimenti.
Capitolo 1
49
all’interno del teatro per quanto riguarda la produzione grafica, quindi in tutti gli ambienti vengono posizionati monitor di preview che consentono a ciascun partecipante di guardare la performance degli altri in tempo reale. Tutte le immagini sono controllate da una cabina di regia in cui vengono montate in tempo reale o registrate per essere poi proiettate al momento opportuno. La consulenza tecnica è affidata al MIT6, lo schema progettuale, prevede la disposizione di tre grandi schermi, due per proiezione degli eidofori e uno per le proiezioni cinematografiche, mentre altri schermi più piccoli vengono posizionati in alto per la proiezione di diapositive. Il risultato è un collage di diverse fonti video Josef Svoboda schema progettuale per Intolleranza, 1967
montate su un flusso sonoro, in un contesto spettacolare, esattamente come accade oggi per le performance di vjing. Nello stesso anno, per lo spettacolo “La creazione del mondo” di Radok, Svoboda ritorna sul sistema Polyecran, ma con la variante dell’uso esclusivo di diapositive, da cui il nome “Polydiaecran”. Tale sistema è composto da 112 moduli quadrati costituiti da un tubo chiuso da uno schermo, ogni modulo è servito da due diaproiettori, che possono funzionare in dissolvenza, per un totale di 240 caricatori di diapositive che consentono, in retroproiezione, di far muovere l’immagine da un lato all’altro dello schermo modulare in sequenza. In ogni quadrato si possono effettuare 160 cambiamenti d’immagine ed ogni tubo giace su una slitta che consente di avanzare o retrocedere di un metro, offrendo l’effetto di continua variazione della superficie del maxi-schermo modulare fino a due metri di profondità. Lo spettacolo durava 10 minuti e considerando l’intera struttura, si aveva a che fare con una quantità di immagini impressionante per l’epoca, controllate da un dispositivo analogico per la gestione di oltre nove milioni di inputs. 6 Massachusetts Institute of Technology (MIT), è l’instituto di tecnologia applicata della Harvard University.
Capitolo 1
50
Josef Svoboda Intolleranza , 1967
Va
fatta
infine
menzione,
dello
spettacolo
multimediale audiovisivo “Polyvision”, allestito da Svoboda per l’Expo del 1967 a Montreal, con proiezioni dirette su forme tridimensionali (cubi, prismi, sfere e cilindri), disposte in uno spazio scenico di 30 metri di larghezza e capaci di ricevere proiezioni su tre facce, o la possibilità di ruotare sul proprio asse per quanto riguarda le forme sferiche e cilindriche. In particolare, all’interno dei cubi sono presenti tre diaproiettori per le rispettive tre facce, mentre alla faccia rivolta verso il pubblico, sono destinate le proiezioni cinematografiche. Ogni elemento presente sulla scena, ha la possibilità di muoversi lungo gli assi verticale ed orizzontale, mentre l’intero spazio scenico è tagliato da due specchi
da sinistra a destra
semitrasparenti disposti diagonalmente, per offrire illusioni
Josef Svoboda
ottiche e giochi di riflessione tra gli elementi scenici e la parete di fondo.
Polyvision, 1967 La creazione del mondo, 1967
Capitolo 1
51
RISORSE HANS M. WINGLER, Il Bauhaus traduzione italiana a cura di Libero Sosio, Feltrinelli, Milano 1987 FRANCO PERELLI, Storia della scenografia Carocci, Urbino 2006 JOSEF SVOBODA, I segreti dello spazio teatrale Ubulibri, Milano 1997 Dispense workshop OTOLAB, Marzo 2010
Capitolo 1
53
2. Il video -Tracce-
Capitolo 2
55
-Immagini in movimentoFotografia, cinema e televisione rappresentano tre momenti di una rivoluzione radicale nel mondo della comunicazione visiva. Tutte e tre, a partire dalla fotografia, nascono dalla ricerca tecnologica protesa a costruire macchine capaci di fornire una riproduzione del visibile prospetticamente fedele e puntuale rispetto a quella reale, tuttavia sviluppando autonomi modelli linguistici di comunicazione per ciascun dispositivo. L’immagine in movimento dunque come tale diventa protagonista, soprattutto con l’avvento del cinema che seppur considerata un’arte a sé, non può sottrarsi dalle contaminazioni delle più antiche e collaudate arti visuali: tale relazione si sviluppa in due direzioni. Da una parte vi Capitolo 2
56
è un gioco di influenze reciproche tra particolari correnti artistiche verso il cinema (da qui i vari cinema espressionista, futurista, cubista, surrealista, ecc.), dall’altra invece il cinema come ricerca visuale, dove un cinema sperimentale esplora continuamente le possibilità del nuovo mezzo svincolandolo dalla soggezione al classico codice narrativo. Il cinema narrativo classico, pone al centro del suo linguaggio il montaggio, strumento attraverso il quale produrre continuità spazio-temporale sulla quale si sviluppa la narrazione
George Méliès L’homme à la tête en cahoutchouc 1901
secondo la concatenazione di cause ed effetti, quindi è proprio su questa struttura che opera la ricerca del cinema sperimentale nel tentativo di sovvertirne le convenzioni. I primi esperimenti artistici in campo cinematografico
Man Ray fotogrammi di Emak Bakia, 1926
risalgono già alle origini, con gli esordi di Gorge Méliès, riconosciuto come il secondo padre del cinema (dopo i Fratelli Lumière), viene ricordato in particolare come inventore del montaggio e degli effetti speciali, grazie all’uso di abili trucchi tecnico-scenici1 in qualità di illusionista ancor prima che regista per la produzione del primo cinema di finzione (che filma mondi diversi dalla realtà). Tuttavia la sperimentazione di maggior interesse per questo testo risiede nel sistema narrativo, da lui scomposto nei cosiddetti “quadri”, ovvero scene che si svolgono all’interno di una singola inquadratura fissa che comprende un intero episodio distaccato e senza legami spazio-temporali con gli altri, dove i vari episodi, erano legati tra loro non da una continuità di azione, ma da una continuità di soggetto. Anche dal punto di vista tecnico si sperimentano soluzioni lontane dalle prospettive classiche, come nel caso di Man Ray in “Emak Bakia” del 1926, dove sono raccolti frammenti di realtà di contesti metropolitani e bucolici, che vengono alterati in camera di sviluppo e in sala montaggio mescolandosi con immagini astratte in movimento, sviluppate tramite la 1 Tra le varie tecniche utilizzate per la prima volta da Méliès, sono da citare, la dissolvenza, l’utilizzo del colore, dipinto direttamente sulla pellicola e la esposizione multipla, che permetteva la sovrapposizione di diverse immagini in movimento nella stessa inquadratura.
Capitolo 2
57
da sinistra a destra
tecnica delle rayographs2 o della solarizzazione3, alla ricerca
Walter Ruttmann Opus I, Opus II, 1921
di un effetto di prevalsa sensoriale sulla visione dell’opera da parte dello spettatore. Il cinema astratto e il successivo cinema diretto hanno prodotto le maggiori sperimentazioni in questo ambito, a cominciare da Walter Ruttmann, che nel 1921 con “Opus I”, proiettava un film composto di sole forme e colori in movimento creati grazie ad una serie di piatti di vetro dipinti posizionati su un supporto in movimento, il tutto ripreso da una cinepresa che rimandava la registrazione direttamente in proiezione. Parallelamente a Ruttman, con tecniche di realizzazione analoghe, sono famose anche le opere di Oskar Fishinger e Hans Richter, quest’ultimo fa ente parte del Blue Reiter dove collaborò con Wassily Kandinsky sulla ricerca sinestetica tra musica ed immagini. Una particolare evoluzione del cinema astratto si vide con il cosiddetto “cinema diretto”, in quanto la produzione di forme ed animazioni grafiche venivano effettuate intervenendo direttamente sulla pellicola senza l’utilizzo di una cinepresa di registrazione. L’australiano
Oskar Fischinger Studium series, 1935
2 La rayografia consiste in una tecnica di sviluppo della pellicola, dove la carta sensibile alla luce viene impressionata poggiandovi degli oggetti con una certa pressione. 3 La solarizzazione è un’inversione tonale che si manifesta durante lo sviluppo di materiale sensibile che è stato soggetto a una sovraesposizione.
Capitolo 2
58
Len Lye, a cavallo tra gli anni 30 e 60, fu il primo esponente di questa particolare corrente manipolando la celluloide della pellicola tramite varie tecniche quali la pittura, il footage 4, sotto/sovraesposizione o addirittura danneggiandola tramite graffi, incisioni o corrosioni per mezzo di acidi. Tecniche
Hans richter Rythm 21, 1921
sperimentate tra gli anni 40 e 70 anche da Norman Mc Laren, che intervenne sulla striscia della pellicola dedicata al suono, creando così alterazioni dell’audio che, per ovvie questioni di struttura fisica della pellicola, risultano perfettamente
da sinistra a destra Mc Laren
sincronizzate con gli interventi sulla parte video, ponendosi così di fatto alle origini della musica di sintesi. 4 Film realizzato interamente o parzialmente di metraggio preesistente, riassemblato in nuovo contesto
Dots, 1940 Sinchronomy, 1965 in basso Len Lye A colour box, 1935 Free radicals, 1958
Capitolo 2
59
Tornando in ambito figurativo, questa ricerca delle possibilità artistiche del cinematografo, trova ampio spazio a partire dalle pratiche delle avanguardie russe, in particolare nel lungometraggio di Dziga Vertov, “L’uomo con la macchina da presa”, del 1929. Già i titoli di testa del film sono significativi riguardo alle teorie cinematografiche del regista russo, nonché profetici per le successive sperimentazioni della videoarte: “ATTENZIONE SPETTATORI: questo film è un esperimento di comunicazione cinematografica di eventi reali senza l’ausilio di didascalie, senza l’aiuto di una storia, senza l’ausilio del teatro. Questo lavoro sperimentale aspira alla creazione di un linguaggio universale del cinema, basato sulla assoluta separazione dal linguaggio del teatro e della letteratura”.
Con questo film Vertov scompagina la grammatica cinematografica, proponendo il cinema non solo come strumento narrativo, ma come occhio curioso che indaga la realtà tramite blocchi d’immagini come unità di un linguaggio
Dziga Vertov
Capitolo 2
60
L’uomo con la macchina da presa, 1929
Andy Warhol Sleep, 1963
universale, comprensibile da tutti senza la conoscenza di un contesto specifico. Un’indagine della città in questo caso, intesa come vita umana e meccanica e non come semplice luogo fisico, da qui la nascita delle “clips”, ovvero brevi riprese con ambienti e soggetti totalmente differenti senza alcuna referenza apparente se non implicata a un abile utilizzo del montaggio come creatore del senso, pratica utilizzata da molti videoartisti moderni e in particolare nell’ambito Vjing. Il primo cinema d’artista dunque non è documentaristico, né illustrativo e né didattico, ma un oggetto da investigare per comprenderne le possibilità poetiche. Nel 1933 Fernand Léger immaginava un film (“24 ore”) nel quale una coppia qualunque che fa un mestiere qualunque, viene inquisita dal “cine occhio”5 per l’intera durata del giorno. Trent’anni più tardi, Andy Wharol , realizza alla lettera le intenzioni di Léger, con il film “Sleep” del 1963, che mostra le otto ore di sonno di un uomo. Negli stessi anni, si distingue il movimento Fluxus, gruppo dichiaratamente neo dadaista che nasce nel 1961, il quale intende stravolgere le abitudini della comunicazione quotidiana, sbarrando o deviando il flusso della visione convenzionale.
5 <<qualsiasi cosa che con gli occhi del quotidiano è banale e scontata, se guardata con l’occhio del cinema e del montaggio diventa qualcosa di nuovo, straniero, che genera sorpresa e meraviglia.>>, Vertov, “Cine occhio” 1925
Capitolo 2
61
Dziga Vertov Lâ&#x20AC;&#x2122;uomo con la macchina da presa, 1929
Tony Conrad The flicker, 1966
Fluxus è un termine latino che significa flusso, quindi sta ad indicare un fenomeno in continuo mutamento, che non ha forma né luogo. Rifacendosi all’happening americano, Fluxus teorizza un modo di fare arte che è un fluire ininterrotto di situazioni, percezioni e molteplici esperienze estetiche e sperimentali. La caratteristica di Fluxus è l’intedisciplinarietà dei suoi eventi, che al suo interno possono contenere e inglobare svariate correnti artistiche, come per esempio la musica sperimentale, il noveau realism, la videoart, l’arte povera, il minimalismo e l’arte concettuale. Il procedimento che impiega questo movimento nel cinema sperimentale consiste nel raccogliere immagini quotidiane sviluppate per sequenze, senza obbligo di svolgimento narrativo e distorcerle nel tempo accelerando o rallentando sino alle soglie della percezione del movimento, producendo una temporalità artificiale che induce ad una nuova visione. Da questo proposito, si sviluppano tutte le successive sperimentazioni volte alla spontaneità e simultaneità del video, dove il tempo sarà il fattore d’indagine principale, liberando il video dai vincoli cinematografici, aprendo così di fatto le porte alla nascita della videoarte.
Capitolo 2
64
Un’ultima parentesi merita di essere aperta riguardo alle sperimentazioni cinematografiche sul rapporto temporale nella percezione delle informazioni visive. A tal proposito il primo esperimento si deve a Tony Conrad con la sua opera “The flicker” del 1966, in cui una serie di fotogrammi bianchi e neri, si alternano aritmicamente per creare appunto il cosiddetto effetto di flicker6 (in realtà i fotogrammi erano 5, due di apertura, una scheda di avvertimento, uno bianco e uno nero). La prima volta che il film venne proiettato, molti spettatori ebbero attacchi epilettici e disturbi percettivi a causa dei rapidi flash che producevano una sollecitazione eccessiva della retina. La versione contemporanea di quest’opera è stata realizzata da Kurt Hentschlager con “Feed” nel 2008, opera che gioca appunto sul già sperimentato effetto flicker, aggiungendoci la saturazione dello spazio per mezzo di fumo sintetico che provoca volutamente la perdita delle consuete coordinate fisico-spaziali, al fine di ottenere una sollecitazione retinica e sensoriale estrema che manda letteralmente in tilt il sistema nervoso, generando autonomamente per ogni singolo soggetto, dei pattern visivi 2D e 3D, in stretto rapporto con specifiche aree del cervello. 6 Effetto di sfarfallio causato dalla repentina variazione della luminosità.
Kurt Hentschlager Feed, 2008
Capitolo 2
65
RISORSE SANDRO BERNARDI, L’avventura del cinematografo Marsilio, Venezia 2007 Dispense workshop OTOLAB, Marzo 2010
TONY CONRAD, The flicker, 1966 OSKAR FISCHINGER, Studium series, 1935 LEN LYE, A colour box, 1935 , Free radicals, 1958 MAN RAY, Emak Bakia, 1926 McLAREN , Dots, 1940 , Sinchronomy, 1965 GEORGE MELIES, L’homme à la tête en cahoutchouc, 1901 HANS RICHTER, Rythm 21, 1921 WALTER RUTTMANN, Opus I, Opus II, 1921 DZIGA VERTOV, L’uomo con la macchina da presa, 1929 ANDY WARHOL, Sleep, 1963
http://www.hentschlager.info/
Capitolo 2
67
-Vt is not TVIl video, è per gli artisti uno strumento di ricerca più che un codice di un nuovo genere o disciplina, tuttavia non può esimersi da contaminazioni da parte dei media che hanno fatto la storia prima di lui. Oltre al cinema e la fotografia, per analizzare la poetica e gli obbiettivi della videoarte non si può non parlare di televisione. Quest’ultima, nata come evoluzione tecnica e linguistica della radio, ne conserva le caratteristiche principali di dominanza del sonoro ed inamovibile valore del tempo reale, producendo immagini allo scopo di costruire standard di modelli comunicativi a scarsa definizione e a larghissimo accesso, vincolata ad un canone di una temporalità ed una spazialità unidimensionali.
Capitolo 2
68
La videoarte nasce proprio in opposizione a questo potere suadente al quale è impossibile opporsi, tuttavia utilizzandone gli stessi procedimenti e talvolta le stesse immagini, seppur distorte per ribaltare il senso del messaggio di ritorno alla tv. Le prime forme di videoarte si sviluppano nell’ambito di Fluxus, in particolare attraverso le sperimentazioni di Wolf Vostell, Nam June Paik, in contemporanea con “The kitchen”, collettivo fondato dai fratelli Vasulka. Vostell, fu il primo ad esporre le sue sperimentazioni sul mezzo televisivo benchè i suoi interventi erano più mirati al dispositivo in sé, più che al medium video. Già nel 1958 nell’istallazione “Schwarzes Zimmer”, inserisce un televisore tra le memorie e i lacerti dei campi di sterminio nazisti, mentre nelle esposizioni successive agisce direttamente sul dispositivo tecnologico: manomesso, rotto, alterato nella ricezione, imbrattato o addirittura segato in due, il televisore viene spesso accostato a materiali effimeri, rifiuti industriali, simbolo di una condizione sociale aberrante, come nel caso di “Endogene depression” del 1975 dove i televisori, spenti, sono semiseppelliti nel cemento.
Wolf Vostell Endogene depression, 1975
Capitolo 2
69
Nam June Paik, invece, agiva più in profondità attraverso la manipolazione del video nella sua anima di strumento mediatico. Passato alla storia come il padre della videoarte, nel 1963, inaugura una mostra dal titolo “Exposition of Music - Electronic Television”, dove allestisce una sala con dodici Nam June Paik
televisori elaborati e modificati per interagire con altri media.
Exposition of Music
Giradischi, mangianastri, registratori su nastro magnetico,
Electronic Television, 1963
pianoforti elaborati, Paik interviene elettronicamente sulle immagini televisive collegando questi strumenti al televisore e facendo si che il segnale audio trasmesso da quest’ultimi agisca sul segnale RGB del monitor della tv: le immagini risultano tagliate, spezzate da righe e disturbi mentre il pubblico aziona pedali e tasti di pianoforte appositamente preparati per ottenere una performance multimediale interattiva. Il processo di manipolazione elettronico delle trasmissioni e delle registrazioni è dunque alla base delle invenzioni di Paik, il quale mira a far interagire diversi campi
Nam June Paik Video Flag, 1985
Capitolo 2
70
Nam June Paik Electronic superhighway, 1995
di sperimentazione quali, la musica1, la scultura, la pittura ed il cinema astratto, intrecciando la specificità formale dell’immagine elettronica con la molteplicità dei linguaggi artistici contemporanei. Viene ricordato inoltre per il suo uso
Nam June Paik The More The Better 1988
massiccio di videowall nella costruzione delle sue opere. 1 Presenterà tra l’altro i primi eventi basati sulla musica elettronica.
Nam June Paik Cello TV, 1971
Capitolo 2
71
Woody, Steina Vasulka Matrix I, 1970
Woody Vasulka Noisefield, 1974
AI Fratelli Woody e Steina Vasulka, infine si deve la fondazione di â&#x20AC;&#x153;The kitchenâ&#x20AC;?, il collettivo artistico e spazio privilegiato per sperimentazioni legate al video e alla musica dâ&#x20AC;&#x2122;avanguardia creata a New York nel 1971. La sua programmazione spaziava dal multimediale alla performance, dai concerti alla letteratura, offrendo un variegato panorama Woodye, Steina Vasulka Artifacts, 1980
Capitolo 2
72
delle nuove tendenze. La loro intuizione migliore, fu nel rendere esteticamente produttivo il principio fisico, secondo il quale, una stessa frequenza elettromagnetica (un segnale) può essere espressa come un suono ma anche come un’immagine e viceversa. Questo permise ai Vasulka di costruire delle opere audiovisive effettivamente unitarie, accompagnate dall’invenzione di nuovi dispositivi, strumenti ed effetti di distorsione di varia natura, facendo rientrare il segnale video nel mixer audio per vederne l’effetto di disturbo e di moltiplicazione oppure esattamente l’opposto quando vedeva il suono provocare le modifiche nel segnale video, come in “Violin Power” del 1978. Dagli anni 80 i Vasulka si cimentarono con il digitale producendo opere come “Artifacts” del 1980, che rappresenta il primo esempio Steina Vasulka Violin Power, 1978
di conversione analogica-digitale in tempo reale, processo ottenuto mediante uno strumento da loro stessi inventato chiamato Digital Image Articulator. Capitolo 2
73
Da queste prime esperienze, ne deriva un nuovo parametro linguistico sviluppato sulla mescolanza delle immagini, detto anche video-mixage. Questa mescolanza avviene per mezzo di tre procedimenti particolari, la scovraimpressione, i giochi di finestre e l’incrostazione: il primo vede la stratificazione di immagini in giochi di trasparenze, il secondo permette la composizione di frammenti di piani distinti all’interno della stessa immagine-quadro, mentre il terzo consiste nella famigerata tecnica del chroma-key2 o luma-key3. Il concetto cinematografico di fuoricampo viene abolito, tutto viene virtualizzato all’interno del video, scompare dunque la nozione di inquadratura, quindi il compito del videoartista diventa quello di comporre l’immagine-quadro: allo spazio unitario e omogeneo della fotografia, del cinema e della tv, si sostituisce lo spazio moltiplicabile ed eterogeneo dellaimmagine in movimento come composizione. 2 Il Chroma key (letteralmente chiave cromatica, ma un termine italiano più preciso è intarsio a chiave colore) è una delle tecniche usate per realizzare i cosiddetti “effetti di Keying”, effetti speciali usati soprattutto in ambito televisivo, ad esempio per le previsioni del tempo. Il segnale video elettronico possiede due componenti, “luminanza” (b/n) e “crominanza” (RGB). Attraverso l’utilizzo di un colore chiave (blue o green di solito) è possibile la cancellazione questo colore al posto del quale può essere inserita una nuova immagina video.
E Emshwiller Crossing and meeting, 1974
Capitolo 2
74
3 Letteralmente chiave di luminanza, segue il medesimo principio del chromakey, ma operando sulla luminanza dei video.
Accanto alla composizione dell’immagine, la videoarte si dedica anche alla fruizione dell’opera in materia di tempo. Nella sua estetica, il tempo è spesso soggetto a manipolazioni che ne demoliscono la linearità per magnificare gli aspetti percettivi dell’opera, le tecniche peculiari utilizzate in questo ambito sono il rallentamento, l’accellerazione, il fuori-sincrono e la reiterazione delle immagini, attraverso il riciclo (loop) continuo delle clips e/o delle composizioni
Capitolo 2
75
RISORSE BORDINI SILVIA, Arte Elettronica Giunti, Milano 2004 VITTORIO FAGONE, Lâ&#x20AC;&#x2122;immagine video Feltrinelli, Milano 1990 SANDRA LISCHI, Visioni elettroniche Marsilio, Venezia 2001
Dispense workshop OTOLAB, Marzo 2010
Capitolo 2
77
-VideoambientiL’arte elettronica, come abbiamo visto nasce da una complessità di orientamenti che negli anni sessanta, si confrontano con le ricerche artistiche che premevano nella direzione di “uscita dal quadro” e della partecipazione attiva del pubblico. L’opera quindi non consiste più nell’identificarsi in un solo oggetto compiuto e immodificabile, ma con un’azione-reazione nello spazio e nel tempo, che coinvolge l’autore quanto lo spettatore. La videoarte appunto, si fa portavoce di queste tendenze, evolvendo la sua struttura ed il suo linguaggio a diverse soluzioni, distaccandosi dall’originale intento di critica ed opposizione alla televisione.Il termine videoarte, designa oggi tutte le utilizzazioni interne alla
Capitolo 2
78
produzione artistica del mezzo video, pertanto la sua prima evoluzione vede l’immagine condotta attraverso diversi monitor, spesso accorpati, per una più larga strutturazione visiva
che
finisce
inevitabilmente
per
l’ambiente circostante (video-ambiente).
interagire
con
Nascono così le
prime videoinstallazioni, che inseriscono la componente temporale del videotape nella ristrutturazione plastica e percorribile dello spazio: il fattore che regola questa dialettica tra spazio e video si trova nell’elemento luce, il quale conferisce al video un “carattere corporeo” capace di regolare l’ordinamento spaziale percepito dallo spettatore. La struttura dell’immagine ha una sua metrica ed un suo proprio ritmo che ne definisce la temporalità, pertanto l’interezza della spazialità luminosa (l’ambiente illuminato) si ridefinisce ogni volta che vi è un rinnovamento dell’immagine video, ridefinendo a sua volta una nuova valutazione dello spazio da parte dello spettatore.
Capitolo 2
79
Un esempio concreto di questo rapporto video-spazio è perfettamente riconoscibile nell’installazione di Studio Azzurro, “Il nuotatore va troppo spesso a Heidelberg” (1984), composto da dodici telecamere a pelo d’acqua che sincronizzano in altrettanti schermi le bracciate di un nuotatore che passa da un monitor al successivo in un evento che si svolge in quell’istante e che non sarà mai uguale a se stesso.
Studio Azzurro Il nuotatore va troppo spesso a Heidelberg, 1984
Capitolo 2
80
Doug Aitken New Ocean, 2001
Gary Hill
In seguito, questo carattere spaziale del video è sfociato nella
Up against Down, 2009
propria fuoriuscita dai confini del monitor, per incrostarsi nella realtà di spazi ed oggetti che compongono l’ambiente. Soluzioni installative che trovano un successo immediato sia per il maggiore impatto visivo, sia per la capacità di adattarsi a qualsiasi situazione di mostra delle opere.
Bruce Naumann One hundred live and die, 1984
Capitolo 2
81
Tony Oursler Hello?, 1996
Tony Oursler è tra i primi a liberarsi del monitor del televisore, proiettando le immagini direttamente su pupazzi di stoffa inseriti tra oggetti comuni, mentre altri esponenti illustri, tra cui Bill Viola, Doug Aitken, Fabrizio Plessi, Gary Hill, Bruce Naumann adottano soluzioni piĂš scenografiche, sfruttando le stesse pareti, il suolo, o lâ&#x20AC;&#x2122;intero complesso architettonico a disposizione. Bill Viola Passage, 1987L
Bill Viola
Capitolo 2
82
Veiling, 1995
Fabrizio Plessi Waterfire, 2001
Capitolo 2
83
Granular Synthesis Pol, 1998
Proprio sulla sperimentazione spaziale di queste opere si basano gli artisti contemporanei che recentemente abbiamo avuto modo di vedere in esposizioni sempre piĂš interessanti che miravano appunto allo sconvolgimento degli ordini spaziali e architettonici tramite la luce: dai Granular Synthesis, primo gruppo artistico digitale, che lavora sullâ&#x20AC;&#x2122;utilizzo del video come strumento musicale in installazioni fortemente immersive come â&#x20AC;&#x153;360â&#x20AC;? del 1995, passando per le applicazioni scenografiche di Claudio Sinatti, quindi passando quindi al progetto Mangrovia (Visomat e Errorsmith), un live audovisivo
Capitolo 2
84
Claudio Sinatti Claudio Sinatti
Milano love fashion, 2009
Live video ensemble, 2008
Granular Synthesis Feld, 2000
Granular Synthesis Model 5, 1995
Capitolo 2
85
Capitolo 2
86
Granular Synthesis 360째, 2002
Capitolo 2
87
Pablo Valbuena Entramado, 2007
Pablo Valbuena The haque city hall, 2008
Capitolo 2
88
Pablo Valbuena Augumented sculpture, 2007
Mangrovia Visomat/Errorsmith, 2006
incentrato sulla riorganizzazione sinestetica delle superfici di uno schermo costituto da prismi, per finire a Pablo Valbuena, che con il suo progetto “Augmented Sculptures” (scultura aumentata) è probabilmente lo sperimentatore più interessante in questo campo. Sincronia, sinestesia, ribaltamento dei pregiudizi dello spettatore riguardo a bidimensionalità e tridimensionalità sono gli elementi chiave del lavoro di Valbuena, per il quale il design estremamente raffinato non è un fine (sterile) ma uno strumento per giocare con le percezioni riguardo allo spazio ed al tempo. Tecnicamente si avvale di software specifici che consentono il mapping1 dell’area scelta come soggetto, da cui è possibile giocare andando a modificare tramite proiezioni video quelle che sono le ombre e le luci delle forme preesistenti. Ovviamente per realizzare tali effetti visivi sulle forme esistenti è necessaria una precisione di proiezione ottimale. 1 Termine generico per identificare un meccanismo di corrispondenza tra due oggetti. In quest’ambito si riferisce alla rilevazione metrica di un oggetto o di un’area su cui si vuole proiettare
Capitolo 2
89
Capitolo 2
90
Lab[au] Dexia tower, 2008
Concludendo sul tema architettonico ed introducendo il prossimo capito che tratterà di video-interattività, è da menzionare il progetto “Spectraum” del 2005 di Lab[Au], realizzato sulla struttura delle Dexia Tower di Bruxelles, dove la componente visiva consisteva nella sequenza di illuminazioni in movimento sulla facciata dei palazzi, ottenuta intervenendo sul sistema di illuminazione esterno tramite software appositi. La peculiarità di questa installazione risiede nel fatto che le combinazioni luminose ed il relativo visual erano controllate in tempo reale tramite uno schermo touch screen che ne permetteva la modellazione.
Capitolo 2
91
RISORSE BORDINI SILVIA, Arte Elettronica Giunti, Milano 2004 BRUNO DI MARINO, Tracce, sguardi e altri pensieri Feltrinelli, Milano 2008 SANDRA LISCHI, Visioni elettroniche Marsilio, Venezia 2001 Dispense workshop OTOLAB, Marzo 2010
http://www.studioazzurro.com/ http://www.granularsynthesis.info http://www.claudiosinatti.com http://www.pablovalbuena.com/ http://lab-au.com/
Capitolo 2
93
3. Arte elettronica -Temi e modelli-
Capitolo 3
95
-Ambienti sensibiliL’ultima oggetto
evoluzione
principale
di
delle
videoinstallazioni,
questa
tesi
è
nonché
l’introduzione
dell’interattività, che trasforma le opere di videoarte in vere e proprie performance virtuali. Sfruttando la caratteristica peculiare del computer di reagire in tempo reale, immagini e suoni vengono manipolati in relazione alla presenza e l’agire degli spettatori, i quali diventano intermediari attivi, talvolta coautori, tra strumento, artista ed opera. Il precedente rapporto visivo, mentale ed emotivo che caratterizza la dimensione estetica, viene così dotato di una
Capitolo 3
96
Bruce Nauman Live-taped video corridor, 1969
nuova dimensione fisica, dall’occhi al corpo, che produce un coinvolgimento inevitabile attraverso gli effetti immersivi di scenografie virtuali. I primi segni di questa partecipazione attiva alle videoinstallazioni si ritrova già a negli anni settanta, ancor prima dell’avvento dei computer, dove la variante di estensione performativa del video, è costituita da semplici installazioni con strumenti di videoregistrazione a circuito chiuso. Bruce Nauman è tra i primi a portare avanti questo tipo di ricerca in cui il comportamento del pubblico è chiamato in causa senza particolari interventi che ne conducano il comportamento. Nel dettaglio, le installazioni di Nauman, i famosi “Corridors”, consistono in lunghi e stretti percorsi alla cui estremità, un sistema di telecamere e monitor, si rimandano reciprocamente la visione frontale o quella di schiena di chi transita nel corridoio stesso, inseguendo la propria immagine senza mai raggiungerla. Un opera dunque basata sull’ambiguità della percezione dove il procedimento del feedback1, produce uno scollamento tra presente e passato, che spersonalizza il soggetto e l’immagine nel momento stesso in cui entrambi sono la condizione indispensabile dell’esistenza dell’opera stessa. 1 La retroazione (feedback in inglese, ma usato spesso anche in italiano) è la capacità dei sistemi dinamici di tenere conto dei risultati del sistema per modificare le caratteristiche del sistema stesso. In questo caso si riferisce alla presenza di una telecamera che riprende lo spettatore che può riguardarsi sul monitor.
Capitolo 3
97
da sinistra a destra
L’introduzione del computer nell’arte, quindi di tutta la tecnologia
Jeffery Shaw The legible city, 1989-91
che ne deriva, persegue questo tentativo di simbiosi tra pubblico e opera, moltiplicandone infinitamente le possibilità creative. Alcuni
Laurent Mignonneau & Corista Sommerer Life writer, 2006
esempi li troviamo con Corista Sommerei e Laurent Mignonneau che fanno crescere e manipolare su uno schermo una flora virtuale quando i visitatori toccano delle piante reali (“Interactive plant growing”), oppure con Jeffery Shaw, che fa dello spettatore che pedala e sterza su una bicicletta, l’interfaccia vivente per navigare su un grande schermo in una realtà virtuale appositamente creata di scritte gigantesche (“The legible city”).
Laurent Mignonneau & Corista Sommerer Life writer, 2006
Capitolo 3
98
da sinistra a destra Studio Azzurro Tavoli, 1995 Studio Azzurro Coro, 1995
In Italia, Studio Azzurro si fa portavoce di questa corrente, sviluppando un particolare orientamento attento all’interazione tra immagine elettronica e ambiente circostante al fine di rendere completamente invisibile il supporto tecnologico, creando “interfacce naturali” 2 per degli ambienti interattivi che gli spettatori sono invitati a scoprire. La ricerca tecnico-artistica di Studio Azzurro, è il risultato di diverse componenti di tempo, spazio, artista, spettatore, immagini e suono, che trovano l’interazione nella dimensione del gioco, ovvero la fruizione dell’opera attraverso una metodologia ludica che esprime la volontà del gruppo ad opacizzare e umanizzare quella stessa tecnologia di cui si avvale. Ecco quindi che abbiamo figure immateriali che si animano (in virtù del controllo di dispositivi informatici) quando sono toccati (“Tavoli”, 1995), calpestati (“Coro”, 1995), quando reagiscono ai rumori (“totale della battaglia”, 1996) o in relazione alla presenza ed ai movimenti degli spettatori (“Il soffio sull’angelo”, 1997). 2 “interfacce naturali”, è un espressione coniata dagli stessi autori di Studio Azzurro, per indicare il controllo dei video o degli oggetti in questione, attraverso i gesti liberi delle persone ed i loro comportamenti, grazie a dispositivi informatici che permettono di registrarli e convertirli in segnali elettronici.
Capitolo 3
99
Capitolo 3
100
Studio Azzurro Il soffio sull’angelo, 1997 schema per installazione
Il coinvolgimento di queste forme d’arte interattiva sviluppa nuovi parametri sia per quanto riguarda l’esperienza, sia per la valutazione critica dell’opera: la realtà virtuale elimina la distanza tra il fatto artistico ed il suo pubblico, mettendone in discussione l’autonomia di entrambi, quindi il fattore ludico che trasforma le videoinstallazioni in luoghi socializzanti dove è possibile comparare la propria esperienza con quella degli altri3. Ne consegue il successo di questa forma d’arte che trova ampi risvolti sociali nel momento in cui esce dal museo e dalla mostra per essere presentata in spazi pubblici accessibili a tutti. 3 da qui la definizione di “ambienti sensibili”
nella pagina precedente Studio Azzurro Il soffio sull’angelo, 1997
Capitolo 3
101
Studio Azzurro Il gorgo (nessun mare è troppo profondo), 1998
nella pagina successiva, dall’alto in basso Studio Azzurro Galileo (stui per l’inferno), 2006 Studio Azzurro Museo audiovisivo della resistenza, 2000
Capitolo 3
102
Capitolo 3
103
RISORSE ANDREA BALZOLA, ANNA MARIA MONTEVERDI, Le arti multimediali digitali Garzanti, 2004 BORDINI SILVIA, Arte Elettronica Giunti, Milano 2004 FABIO CIRIFINO, PAOLO ROSA, STEFANO ROVEDA, LEONARDO SANGIORGI, Ambienti sensibili Electa,, Milano 1999 SANDRA LISCHI, Visioni elettroniche Marsilio, Venezia 2001 LAURENT MIGNONNEAU, CORISTA SOMMERER, Interactive art research Springer Verlag, New York 200
http://www.studioazzurro.com/ http://www.interface.ufg.ac.at
Capitolo 3
105
-La scena digitaleL’avvento del digitale e la rapida maturazione della tecnologia negli ultimi anni, hanno rivoluzionato e stanno rivoluzionando i processi di creazione dell’arte. Danza e teatro, arti che per eccellenza si fondano sulla tradizione orale e compresenza, si stanno anch’esse affacciando su questo mondo, dove si sta delineando una visione in cui queste tecnologie permettano l’estensione delle facoltà percettive e motorie del corpo umano, allo scopo di esplorarne nuovi linguaggi espressivi. Le premesse di tali tendenze nascono innanzitutto dalla doppia constatazione
Capitolo 3
106
che i danzatori, coreografi, scenografi, registi si interessano sempre più al digitale e alle nuove tecnologie informatiche, e che a loro volta, gli ingegneri informatici sono incuriositi e ispirati dalla produzione artistica, con particolare attenzione al movimento corporeo. Gli uni, quindi, guardano al digitale come strumento contemporaneo da utilizzare, mentre gli altri guardano all’arte come campo di sperimentazione. Alcuni artisti ampliano le potenzialità espressive dello spettacolo in scena impiegando dispositivi informatici e interattivi, altri si avvalgono della coreografia assistita al computer, mente altri ancora si rivolgono maggiormente agli ambienti virtuali ed all’interazione di persone reali con essi. Un esempio sono le recenti esperienze nell’ambito della videodanza, intesa come dematerializzazione e frammentazione del corpo mediante tecnologie di “motion capture”1 per riproporlo con i relativi movimenti sottoforma di immagine virtuale, come nel caso di “Hand drawn spaces” promosso da Riverbed, una società di artisti digitali tra cui Paul Kaiser e Merce Cunningham, due importanti esponenti della videodanza. Lo spettacolo consiste in una videoinstallazione di 8 minuti e mezzo (presentata per la prima volta alla Cooper Union di New York nel 1998), composta di 71 piccole sequenze catturate e rielaborate graficamente come un disegno a mano libera (da qui il nome). La selezione ed il montaggio di tutte le scene sono state eseguite grazie all’aiuto di Motion Flow editor, un nuovo software per l’animazione creato appositamente per il progetto: oltre ad editare le sequenze catturate, è possibile montare in successione, con continuità d’azione sequenze diverse, grazie a complessi algoritmi che permettono al
Paul Kaiser
software di calcolare la parte di azione mancante su basi
Hand drawn spaces, 1998
fisiche provenienti dalla robotica. 1 Cattura del movimento in italiano, indica un’area di ricerca, che studia appunto i meccanismi per la cattura del movimento, può essere inteso come il procedimento stesso di acquisizione del movimento.
Capitolo 3
107
Paul Kaiser Biped, 1999
Paul Kaiser Gostcatching, 1999
Capitolo 3
108
Contemporaneamente a queste sperimentazioni di cattura del movimento, Yacov Sharir sviluppava un prototipo “midi” 2 di tappeto sensibile alla pressione, al fine di cogliere non solo i movimenti del corpo del danzatore, ma i suoi spostamenti nelle tre dimensioni dello spazio scenico. Il tappeto è costituito da numerosi sensori che rilevano la pressione attaccati ad un pannello di plastica molto resistente e rivestito di spugna di polietilene. Ai vari pannelli, disposti in griglia sulla scena è attribuita una rete di dati connessa ad una scatola di tensione con interfaccia midi, la quale può essere programmata per convertire delle entrate-uscite di segnali analogici in segnali midi. 2 Il MIDI (Musical Instrument Digital Interface) è un’interfaccia hardware che consente il collegamento fisico tra vari strumenti, quindi anche un linguaggio informatico che permette la conversione di dati analogici in digitale.
Yacov sharir Studi per il motion capture
Capitolo 3
109
Klaus Obermaier Apparition, 2004
Mark Coniglio 16 [R]evolution, 2006
Mark Coniglio Future of memory, 2003
Capitolo 3
110
Klaus Obermaier Apparition, 2004
Queste tecniche si sono presto evolute e perfezionate in sistemi ottici di cattura del movimento, ovvero attraverso l’uso delle telecamere, quindi senza la necessita di sensori, fili o connettori da attaccare al danzatore. Ecco quindi il ritorno alla presenza fisica del corpo umano sulla scena, dove tutto diventa interattivo. Ogni componente della scena (audio, luci e proiezioni), può essere controllato dai movimenti dell’attore o danzatore che sia, creando una nuova forma di spettacolo in cui corpo e scenografia si fondono per creare una performance unica ed irripetibile, come per gli spettacoli di Klaus Obermaier o di Mark Coniglio, scenografo e programmatore informatico quest’ultimo, inventore tra l’altro di Isadora, un software per la programmazione visuale e l’interazione audio-video che utilizzerò nel mio progetto.
Capitolo 3
111
RISORSE ANDREA BALZOLA, ANNA MARIA MONTEVERDI, Le arti multimediali digitali Garzanti, 2004 ARMANDO MENICACCI, EMANUELE QUINZ, La scena digitale Marsilio editori, Venezia 2001 Dispense workshop OTOLAB, Marzo 2010
http://www.exile.at/ko/ http://www.troikaranch.org/
Capitolo 3
113
-Vjing e live mediaTra le tendenze che negli ultimi anni si affermano in campo video artistico, c’è sicuramente da annotare il Visual Jokeying, comunemente chiamato Vjing: trattasi di una performance videoartistica in tempo reale che unisce al flusso musicale di un contesto spettacolare, l’alternarsi di immagini in movimento come videoclip auto prodotti. Tale performance si avvale di tecnologia elettronica e digitale, sia attraverso l’uso di media analogici sia digitali. Il lavoro del VJ comincia dalla produzione delle clip video, spesso
Capitolo 3
114
tramite software dedicati1 o in altri casi tramite mixer video analogici con lettori di vario genere, di conseguenza le clip possono essere create originali, rielaborate o decontestualizzate per un determinato ambito performativo, oppure selezionate da un repertorio di immagini d’autore che consistono in immagini cinematografiche non commerciali da cui estrapolare dei dettagli delle inquadrature che siano esteticamente significativi. La durata media di queste clip si aggira tra uno e sette secondi, dove è molto importante il taglio delle immagini che deve tenere conto della dinamica del loop, in modo che il movimento finale sia armonico con quello iniziale, per evitare disturbi nello scorrimento del video o nella sua intera ripetizione. La natura real-time del Vjing rende affine questa pratica al concetto di performance teatrale, in qualità di evento che si svolge “qui ed ora”. Il tempo dunque è un fattore determinate della performance che deve cogliere i cambiamenti dell’ambiente che lo circonda accompagnando il flusso sonoro con immagini appropriate, dal sof-ambient, che predilige la figura astratta, alla percussione della musica elettronica, che predilige l’immagine figurativa in movimento. L’articolazione del re-mix dei video, che sia lasciata ad una automazione semi-controllata del computer o al controllo in tempo reale delle macchina analogiche2, non può escludere un qualsivoglia intervento da parte del VJ che grazie alla sua conoscenza del repertorio musicale che accompagnerà la performance, deve abilmente inserirsi sulla ritmica del flusso sonoro ambientale, quindi è necessaria una buona conoscenza dei tempi musicali che accompagnano i diversi generi, per una corretta sincronizzazione delle battute video-musicali. 1 Ogni clip viene trattata e/o post-prodotta con determinati software video di editing e composing fx dedicati, tra cui Premiere, Final cut, Avid per l’editing e After effect per il composing fx 2 Attraverso l’utilizzo di mixer video e controller analogici è possibile utilizzare le pulsantiere che dissolvono le immagini, come veri e propri strumenti di percussione.
Capitolo 3
115
Vjing performance
Un’altra considerazione a proposito della progettazione delle clip, riguarda la luminosità, in quanto esse vengono video-proiettate solitamente su grandi schermi o su altre superfici che ne sostituiscano la funzione, influendo non poco sulla quantità di luce presente nell’ambiente della performance. Si rende opportuno dunque lo studio preventivo della condizione illuminotecnica della location per apportare le giuste correzioni di luce e colore che consenta di mantenere la voluta percezione delle immagini proiettate. In quest’ambito, assume una particolare importanza la dissolvenza in nero, ovvero il buio, che diventa anch’esso portatore di significato che accompagna i momenti delle pause musicali oppure produce ritmi incalzanti se accompagnato da effetti stroboscopici3. Le ultime sperimentazioni sul campo, grazie all’introduzione di software generativi di sintesi musicale e di programmazione visuale 4, 3 Repentina trasformazione da dissolvenza piena in immagine a dissolvenza in nero. 4 Il mercato offre una vasta gamma di prodotti a riguardo, tuttavia i più noti e diffusi sono Ableton Live e Reason per la sintesi musicale, e Max asp/jitter per la programmazione visuale. Nei capitoli successivi di questo testo tratteremo nello specifico il software Isadora in relazione alla programmazione visuale.
Capitolo 3
116
sono dirette ad un controllo programmato che pone in totale simbiosi i due medium, video e musica, attraverso l’assegnazione di parametri definiti per entrambe le parti, quindi la possibilità di assegnare determinate clip a determinate frequenze musicali e viceversa, oppure la possibilità di intervenire su peculiari caratteristiche come la melodia, il colore o la luminosità in relazione a variazioni dell’ambiente in cui si svolge la performance grazie anche al supporto di strumentazioni di rilevamento ottico o sensoriale5. In questo caso, il ruolo del VJ non sarà più quello di controllare il flusso di immagini durante la performance, ormai automatizzata dai sistemi informatici, ma lo vedrà cimentarsi in una attenta programmazione del sistema visuale selezionando prima le immagini da proiettare e le loro possibili manipolazioni. 5 Sensori di varia natura (i sensori infrarossi sono solitamente i più utilizzati) accompagnati da piattaforme di interfaccia hardware (Arduino) e software (Eyes Web).
Capitolo 3
117
Basandosi sulle stesse metodologie tecnologiche del vjing, ma con strutture visive e comunicative profondamente diverse troviamo le cosiddette performance “live media”, ovvero dei veri e propri concerti di musica elettronica, solitamente orientati verso sonorità rumoristiche, in cui sia l’audio che il video sono modulati in tempo reale, basandosi però su strutture predefinite. Tale struttura, che sostiene lo sviluppo dell’intera performance, ha spesso come punto di partenza una tematica specifica e quindi un preciso fine comunicativo, tant’è che la modulazione in tempo reale si avvale spesso di una partitura anche per ciò riguarda l’aspetto narrativo visuale. Quindi, a differenza delle pratiche di vjing, nei live media ritroviamo un ritorno al rapporto stretto ed interattivo tra immagine e suono che diventa l’unico commento visivo possibile alla performance musicale, sfruttando come per i vj, le potenzialità di supporti diversi digitali e analogici. Otolab op7, 2008
Otolab Giardini neri, 2008
Capitolo 3
118
Otolab Nuke belly button, 2007
In questo campo merita menzione Otolab, un gruppo artistico contemporaneo abile nella progettazione e attuazione di queste live performance sulla ricerca di una traduzione visiva in termini grafici di differenti layout sonori giocando molto su effetti di profonditĂ visiva e sonora, che esaltano lâ&#x20AC;&#x2122;immerisivitĂ della performance.
Capitolo 3
119
RISORSE ANDREA BALZOLA, ANNA MARIA MONTEVERDI, Le arti multimediali digitali Garzanti, 2004
Dispense workshop OTOLAB, Marzo 2010
http://www.otolab.net/
Capitolo 3
121
4. Strumenti
-Tecnologia e risorse-
Capitolo 4
123
-Piattaforme elettronichePrima di ogni effetto audio o video, gli ambienti diventano interattivi grazie a sistemi elettronici adibiti alla ricezione, conversione e trasmissione dei dati da e verso appositi dispositivi che ricoprono determinati ruoli. Uno di questi dispositivi che ha avuto un enorme successo negli ultimi anni è Arduino, una piattaforma di prototipazione elettronica opensource in grado di interagire con lâ&#x20AC;&#x2122;ambiente in cui si trova ricevendo informazioni da una grande varietĂ di sensori, controllando luci, motori e altri attuatori. Ă&#x2C6; basato su una
Capitolo 4
124
semplicissima scheda di I/O1 e su un ambiente di sviluppo che usa una libreria Wiring per semplificare la scrittura di programmi in C e C++ da far girare sulla scheda. Arduino può essere utilizzato per lo sviluppo di oggetti interattivi stand-alone ma può anche interagire, tramite collegamento, con software residenti su computer, come Adobe Flash, Processing, Max/MSP, Pure Data,Quartz Composer, vvvv, Isoadora, ecc. Il progetto Arduino ha preso avvio a Ivrea, nel 2005, con lo scopo di rendere disponibile, per i progetti di Interaction design, un dispositivo per il controllo che fosse più economico rispetto ad altri sistemi disponibili precedentemente. 1 Input/output
Capitolo 4
125
SPECIFICHE HARDWARE Arduino consiste in un microcontroller2 a 8-bit prodotto dalla Atmel, con l’aggiunta di componenti complementari che ne facilitino l’incorporazione in altri circuiti. Molte schede includono un regolatore lineare di tensione a 5-volt e un oscillatore a cristallo a 16MHz (o un risonatore ceramico in alcune varianti), sebbene alcune implementazioni, come ad esempio LilyPad, girino a 8Mhz e facciano a meno dello stabilizzatore di voltaggio a causa delle specifiche restrizioni al fattore di forma. Inoltre, il controller Arduino è pre-programmato con un bootloader3 che semplifica il caricamento dei programmi nella memoria flash incorporata nel chip, rispetto ad altri dispositivi che richiedono, solitamente, un programmer esterno. A livello concettuale, tutte le schede sono programmate attraverso un porta seriale RS-232, ma il modo in cui questa funzionalità è implementata nell’hardware varia da versione a versione. Le schede seriali Arduino contengono un semplice circuito inverter4 che permette la conversione tra il livello della RS-232 e il livello dei segnali TTL. Le recenti versioni di Arduino (Diecimila e Duemilanove) vengono gestite via USB, grazie a un’implementazione che usa dei chip adattatori USB-seriale, tuttavia alcune varianti, come la Arduino Mini e la versione non ufficial Boarduino, usano una scheda o un cavo adattatore USB-to-serial staccabile. La Arduino esibisce molti dei connettori di Input/Output per microcontroller usati da altri circuiti. La Diecimila, ad esempio, ora soppiantata dalla Duemilanove, offre 14 connettori per l’I/O digitale, 6 dei quali
2 Un microcontrollore o microcontroller, detto anche computer single chip è un sistema completo, che integra in un solo chip processore, memoria permanente, memoria volatile ed input/output 3 Un boot loader è un programma che carica il kernel di un sistema operativo e ne permette l’avvio 4 Un inverter è un apparato elettronico in grado di convertire corrente continua in corrente alternata eventualmente a tensione diversa, oppure una corrente alternata in un’altra di differente frequenza.
Capitolo 4
126
Arduino Diecimila
possono produrre segnali PWM 5, mentre 6 sono dedicati a ingressi di segnali analogici. Questi pin sono disponibili sulla parte superiore della scheda, mediante connettori femmina da 0.1 pollici. Infine, sono disponibili commercialmente molte schede applicative plugin, note come “shields. Fino a oggi sono state commercializzate undici versioni dell’hardware Arduino, tuttavia la scheda, oltre ad essere acquistata già assemblata, può essere costruita: il software può essere scaricato gratuitamente, mentre i progetti di riferimento dell’hardware (file CAD) sono distribuiti con licenza open-source. 5 La modulazione di larghezza di impulso, dall’inglese pulse-width modulation o PWM, è un tipo di modulazione analogica in cui l’informazione è codificata sotto forma di durata nel tempo di ciascun impulso di un segnale.
Capitolo 4
127
SPECIFICHE SOFTWARE Lo IDE6 di Arduino è un’applicazione multipiattaforma (gira su Mac, Windows e Linux) scritta in Java, ed è derivata dallo IDE creato per il linguaggio di programmazione Processing e per il progetto Wiring. L’editor è concepito per introdurre alla programmazione artisti e altri neofiti, a digiuno di pratica nello sviluppo di software per permettere la stesura del codice sorgente ed è inoltre in grado di compilare e lanciare il programma eseguibile in una sola passata e con un singolo click. L’ambiente di sviluppo integrato di Arduino è fornito di una libreria software C/C++ chiamata “Wiring” (dall’omonimo progetto Wiring), che rende molto più semplice implementare via software le comuni operazioni input/output, infatti per poter creare un file eseguibile, all’utilizzatore non è chiesto altro se non definire due funzioni: setup() – una funzione invocata una sola volta all’inizio di un programma che può essere utilizzata per i settaggi iniziali loop() – una funzione chiamata ripetutamente fino a che la scheda non viene spenta.
6 Un integrated development environment (IDE), in italiano ambiente di sviluppo integrato, è un software che aiuta i programmatori nello sviluppo del codice.
Capitolo 4
128
Arduino Duemilanove
RISORSE http://www.arduino.cc
(download, manuale, forum, tutorial)
http://hacknmod.com/hack/arduino-tutorial-how-to-introduction-guide
(tutorial in inglese)
http://www.ladyada.net/learn/arduino (tutorial in inglese) Banzi, Massimom, â&#x20AC;&#x153;Getting Started with Arduinoâ&#x20AC;? (libro in inglese)
Capitolo 4
129
SENSORISTICA
-InfrarossiQuesti sensori utilizzano la luce infrarosso per misurare la distanza o per rilevare oggetti. Sono molto versatili, economici e compatti. Sono influenzati dalla luce ambientale, dal colore, dal tipo di superfice e dall’angolazione dell’oggetto da rilevare. Sebbene siano piu’ indicati per interni si dimostrano utili anche all’esterno. -ContattoI sensori di contatto sono meccanici, sebbene possano sembrare primitivi, sono indispensabili in applicazioni di sicurezza. Spesso i robot, anche se equipaggiati con sensori sofisticati, restano imprigionati da oggetti difficili da rilevare; i sensori di contatto in questo caso, se ben disposti sul perimetro del Robot sono infallibili. Spesso rappresentano la soluzione piu’ economica e semplice.
-GiroscopiI Giroscopi misurano la velocità angolare. Sono utili per rilevare rotazioni anche microscopiche. Si utilizzano in applicazioni avanzate che richiedono un feedback sullo spostamento di un corpo nello spazio.
-MagneticiI sensori magnetici sono spesso utilizzati per la misurazione/rilevamento del campo magnetico terrestre, in questo modo funzionano come delle vere e proprie bussole. Possono tuttavia avere altre applicazioni inerenti la misurazione di un campo magnetico.
Capitolo 4
130
-IMULa IMU (Inertia Measurement Unit) è una Piattaforma Inerziale, ovvero un dispositivo che combina vari tipi di sensori, principalmente Accelerometri e Giroscopi, ai quali spesso vengono aggiunti sensori utili a misurare altre grandezze come la temperatura, utili a compensare le misurazioni dei sensori principali. Questi dispositivi sono utilizzati in applicazioni avanzate in campo robotico, spaziale, aereonautico, missilistico, etc.
fonte: www.robot-italy.com
SENSORISTICA
-PosizioneQuesta categoria raggruppa tutti i sensori che restituiscono informazioni utili per determinare la posizione o il movimento del Robot nello spazio e non rientrano nelle altre categorie.
-GPS-
-AccelerometriGli Accelerometri misurano l’accelerazione. Le nuove tecnologie hanno creato sensori molto sensibili e sensori in grado di misurare accelerazioni molto forti. Alcuni sensori hanno funzionalità accessorie, come il rilevamento di un doppio tocco, oppure dei trigger, utili per attivare funzioni specifiche.
GPS misurano la posizione di un oggetto sulla superficie terrestre. Si servono di satelliti che trasmettono dei dati utili ad elaborare, tramite interpolazione di più satelliti, la posizione, l’altezza, etc. Oggi la tecnologia ci fornisce dei dispositivi GPS con una sensibilità fino a qualche anno fa inpensabile, con dimensioni e costi veramente contenuti. Sono abbastanza semplici da utilizzare, utilizzano un protocollo standard seriale.
Input -InfrarossiI sensori ad ultrasuoni sono molto precisi e raggiungono distanze anche di 10 metri, sono assolutamente insensibili alla luce ambientale e al colore dell’oggetto da rilevare. Possono misurare con buona accuratezza la distanza dell’oggetto rilevato. Hanno un ampio campo di lettura, questo a volte puo’ generare degli eco. Tuttavia facendo la media delle letture si ottiene comunque un dato molto preciso. Sono sicuramente i migliori sensori da esterni ma vanno altrettanto bene negli interni.
fonte: www.robot-italy.com
In questa categoria sono compresi tutti i sensori che rilevano un input, sia esso umano o meccanico. Troviamo quindi joystick, tastierini, etc.
Capitolo 4
131
-Motion captureEsistono numerosi sistemi di cattura del movimento, quali sistemi protesici, acustici, magnetici e ottici, tuttavia in questo paragrafo tratteremo esclusivamente il sistema magnetico e quello ottico, ovvero i due sistemi piĂš diffusi e utilizzati negli ultimi anni. La cattura magnetica del movimento implica lâ&#x20AC;&#x2122;uso di un trasmettitore posto in posizione centrale rispetto al campo dâ&#x20AC;&#x2122;azione, che emette un forte campo magnetico, quindi un apparato di sensori attaccate alle varie parti del corpo. Ognuno di questi sensori fornisce un flusso di dati corrispondente alle diverse posizioni e spostamenti nello spazio degli stessi sensori, in relazione al campo magnetico generato sulla scena. Alcuni di questi sensori sono collegati al sistema di ricezione ed elaborazione dei segnali (computer) attraverso dei cavi, mentre altri utilizzano dei trasmettitori e ricettori radio consentendo una maggiore mobilitĂ del Capitolo 4
132
soggetto nello spazio, seppur il maggior difetto di questo sistema risieda proprio nella limitazione del capo magnetico di cattura che può avere un diametro soltanto di qualche metro. Il sistema ottico di motion capture funziona sempre attraverso dei sensori o marcatori posizionati sul corpo, che riflettono il movimento in modo direzionale, quindi vi è la necessita dell’installazione di un minimo di 3 telecamere, spesso anche di più, per catturare i movimenti sui 3 assi x,y,z dello spazio tridimensionale. I sistemi ottici, offrono una totale libertà di movimento in quanto non necessitano di
alcun
cablaggio,
tuttavia
emerge
l’inconveniente
della cosiddetta “occlusione”, ovvero quando uno o più sensori riflettenti vengono persi o rimangono nascosti alla telecamera, provocando un interruzione del flusso di dati al quale però, software dedicati sopperiscono usando algoritmi che possono calcolare ed interpolare le sezioni mancanti del movimento. Al contrario dei sistemi magnetici, a causa dell’occlusione, quindi a problemi di calcolo da parte del computer, i sistemi ottici tenderebbero a non essere adatti alle performance in tempo reale, tuttavia la maggiore libertà di movimento e la maggiore praticità dal punto di vista tecnico ne hanno favorito il largo uso, promosso anche dalla maggiore accuratezza
Capitolo 4
133
nella cattura dei movimenti in relazione ad un ampio uso di sensori riflettenti. In entrambi i casi i dati raccolti dai sistemi di cattura del movimento sono perfettamente compatibili con i maggiori software per l’animazione 3D come Maya e 3D Studio Max. Le ultime ricerche nell’ambito della motion capture, vertono verso sistemi di cattura sempre più duttili ed economici per favorirne la diffusione sul mercato anche a livelli formativi nelle scuole di varie discipline. La telecamera sembra essere l’oggetto principale delle varie sperimentazioni, quindi l’analisi delle immagini catturate da quest’ultima, attraverso particolari algoritmi informatici che mirano a sviluppare software in grado di simulare la visione dell’occhio umano in quanto a percezione del movimento e della profondità secondo le conoscenze acquisite dalla fisiologia1. Un recente esempio di queste sperimentazioni 1 Per approfondire vedere “computer vision” o “visione artificiale”.
Capitolo 4
134
è un nuovo sistema di cattura sviluppato dalla ricerca congiunta dello Swiss Federal Institute of Technology, del MIT e del Mitsubishi Electric Research Laboratories che rileva i movimenti del corpo umano sfruttando giroscopi, accelerometri, emettitori di ultrasuoni e microfoni. Come detto precedentemente, quando si parla di motion capture ci si riferisce a una tecnologia che presenta degli elevati costi, ma principalmente si riferisce alla necessità di essere utilizzata solo in un ambiente “controllato”, in studio o in laboratorio. Convenzionalmente, questa tecnologia fa uso di punti riflettenti o piccoli LED attaccati in punti chiave sul busto, arti e testa di una persona: i movimenti di questi punti sono catturati da una serie di telecamere, permettendo agli animatori di creare uno scheletro del soggetto via computer, che poi potrà guidare i movimenti del soggetto rielaborato al computer2, il sistema progettato dal gruppo 2 I dati estrapolati dai sistemi di cattura del movimento possono essere acquisiti ed elaborati da software di animazione 3D. Maya e 3D Studio Max sono i due software più completi e diffusi.
Capitolo 4
135
di ricerca dei tre enti invece, consente un’applicazione anche “su strada”, permettendo di registrare e digitalizzare movimenti che in studio non sarebbero replicabili. Il singolo sensore, delle dimensioni di pochi centimetri e vincolato agli arti dell’individuo, è composto dunque da giroscopi ed accelerometri, che determinano velocità e direzione del movimento dell’arto, e da emettitori di ultrasuoni che, grazie ad un microfono posto in corrispondenza del plesso solare, permettono di stabilire la distanza precisa dei sensori dal corpo, similmente a quanto accade con un sonar. Tutti i sensori sono controllati e gestiti da un sistema portatile, che può essere facilmente trasportato in uno zaino. Proprio questa caratteristica di trasportabilità consente al sistema di essere impiegato anche nelle situazioni più difficili. In quanto a software per l’aquisizione e l’elaborazione dei dati provenienti dalla capture motion, un programma di recente successo è Eyesweb, sviluppato dal Laboratorio DIST di informatica musicale dell’università di Genova, il quale permette lo sviluppo di applicazioni multimediali in tempo reale, attraverso un’interfaccia grafica intuitiva di programmazione visuale. Si basa infatti su blocchi, ovvero moduli software pre-compilati che implementano funzioni di elaborazione di immagini e suoni, con la possibilità di creare
http://www.youtube.com/watch?v=V0yT8mwg9nc&feature=player_embedded, still dal video
Capitolo 4
136
Eyes Web, schermata
patches personalizzate o creare nuovi moduli seguendo le istruzioni di un software “wizard”3 che guida passo passo nell’inclusione di un nuovo algoritmo in un nuovo modulo. Insomma Eyesweb è stato sviluppato come alternativa ad altri software di programmazione visuale come Max asp/ jitter, tuttavia deve il suo successo al suo peculiare utilizzo nel campo della motion capture data la possibilità di catturare i movimenti attraverso la semplice ripresa video su cui poi progettare il rilevamento attraverso la sagomazione del soggetto e l’assegnazione di punti chiave della stessa sagoma. Dunque è possibile assegnare parametri di mobilità attraverso i quali si possono registrare i “comportamenti” del movimento. 3 Letteralmente “mago”, un programma wizard, consiste in un procedimento di un programma che aiuta a configurare lo stesso e/o a semplificare lo svolgimento di varie procedure complicate per utenti meno esperti.
Capitolo 4
137
Un’innovazione
importante
portata
da
Eyesweb
è
appunto la presenza di una particolare classe di moduli denominati “attivi”, che ricevono dati ma hanno una loro propria dinamica che li porta a generare i relativi dati in uscita in modo asincrono, relazionando i dati ricevuti con quelli pre-acquisiti, con modelli4 o in relazione con gli stessi dati in uscita, quindi reagire di conseguenza. Una forma di intelligenza artificiale questa, che mira non solo a catturare il movimento, ma a distinguerne i relativi comportamenti laddove una stessa azione in contesti diversi posso generare una reazione differente, ovvero la distinzione di “stili” di movimento attraverso la gestualità dei movimenti: velocità, accelerazione dei movimenti corporei, quanto e come viene occupato il volume sulla scena, simmetrie o meno nel movimento degli arti, differenze di movimento delle braccia rispetto alle gambe o di precise parti del corpo (polsi, caviglie,dita), ecc. La ricerca di Eyesweb verte pertanto verso l’interpretazione del movimento nel tentativo di percepire l’espressività del soggetto attraverso i suoi comportamenti (gestualità rigida o morbida per esempio), quindi l’assegnazione di significati differenti. La soluzione è di conseguenza determinare quali sono i parametri chiave per riconoscere tali differenze comportamentali. Il programma contiene infine deigli appositi moduli per la programmazione e la trasmissione dei dati registrati attraverso un’uscita midi, consentendone l’ultilizzo ad altri programmi. Da qui la pratica comune di un utilizzo congiunto con Max o altri programmi di programmazione visuale.
4 Eyesweb contiene delle librerie per l’analisi del movimento suddiviso in tre categorie: analisi dei movimenti corporei (motion) , analisi dei movimenti nello spazio (space) ed analisi delle traiettorie (trajectory).
Capitolo 4
138
Un esempio pratico dell’assegnazione di parametri comportamentali è l’immagine successiva dove è raffigurata una patch5 che prevede l’acquisizione del movimento da due telecamere b/n con funzioni per il filtraggio dello sfondo, quindi la sagomazione del soggetto a cui sono stati assegnati punti di interesse per il calcolo dei parametri di movimento. La mappatura di questi punti si modifica con i movimenti del soggetto producendo un flusso dati in relazione ai parametri assegnati, in questo caso immobilità e mobilità per gli spostamenti oppure implosione (chiusura del corpo verso il baricentro) e esplosione (espansione del corpo rispetto al baricentro), dove le piccole linee verdi rappresentano l’evoluzione degli stati nel tempo. Se si osserva l’andamento del parametro di implosione/ esplosione è alternato data la postura su un solo piede da parte del soggetto, la quale influisce sul baricentro rendendolo instabile.
5 Letteralmente “pezza”, in programmazione informatica, indica un file eseguibile creato per svolgere una determinata operazione
Eyes web, schermata
Capitolo 4
139
RISORSE MOTION CAPTURE
http://en.wikipedia.org/wiki/Motion_capture Phasespace http://www.phasespace.com Xsens http://www.xsens.com/ Vicon http://www.vicon.com ANIMAZIONE 3D 3D Studio Max, Maya
http://www.autodesk.com
PROGETTO EYESWEB
http://musart.dist.unige.it http://www.infomus.org http://biomobius.trilcentre.org/docs/EyesWeb%20GDE%20 Capitolo 4
141
-Programmazione visualeUn linguaggio di programmazione visuale, a differenza della maggior parte degli altri linguaggi basati sulla scrittura testuale dei programmi, si basa sulla composizione e relazione tra oggetti grafici. La scrittura di un programma (detto patch) consiste nella interconnessione dei vari moduli o oggetti (objects) attraverso cavi virtuali (patchcordos) che ne regolano le relazioni: l’interfaccia completamente grafica dei vari software di programmazione visuale, permette un utilizzo del tutto intuitivo delle varie funzioni attraverso la selezione dei moduli catalogati in librerie, ognuno dei quali creato per apposite funzioni di acquisizione e/o elaborazione dei dati. La sintassi risulta così estremamente semplificata rendendo accessibile l’utilizzo del software anche a chi non possiede particolari conoscenze e capacità di
programmazione
informatica,
tuttavia
la
si
rende
necessaria in caso di lavori più complessi, infatti, in quasi Capitolo 4
142
tutti i programmi è prevista la possibilità di modificare e/o di inserire nuovi moduli personalizzati inserendo direttamente gli algoritmi attraverso apposite procedure che variano da programma a programma. Questo ha permesso il fiorire di librerie di oggetti create da programmatori di terze parti, o addirittura indipendenti, che ampliano notevolmente il range di possibilità che ogni software in questione offre. Inoltre per favorire la diffusione e lo scambio di patches fra gli utenti, quasi tutti i software di programmazione visuale prevedono una doppia versione del programma, che oltre alla consueta versione completa, rilasciano una versione detta “runtime”, ovvero una versione demo scaricabile gratuitamente dai siti delle compagnie di produzione dei software, che possiede tutte le facoltà di esecuzione della versione completa, senza però la possibilità di editare patches al suo interno, concedendo da parte sua il libero utilizzo di patches esterne, in modo da facilitare l’utilizzo di un utente che sia interessato ad una singola patches senza avere l’obbligo di comprare il software completo. Queste librerie sono solitamente suddivise per tre categorie in relazione all’ambito di utilizzo, ovvero la categoria di oggetti dedicati al controllo MIDI, quella dedicata alla generazione ed elaborazione di audio digitale ed infine quella dedicata alla generazione ed elaborazione di segnali video. In ogni caso, tutte le tipologie di oggetti possono essere utilizzate contemporaneamente nella stessa patch rendendo possibile la creazione di complessi algoritmi di elaborazione in real-time. La vastità delle librerie e la capacità di relazione tra i vari oggetti, determinano quindi le potenzialità e le caratteristiche dei vari software presenti oggi sul mercato.
Capitolo 4
143
Max MSP/Jitter, schermata
Max MSP/Jitter Max è un ambiente di sviluppo grafico per la musica e la multimedialità ideato ed aggiornato dall’azienda di software Cycling ‘74, con base a San Francisco, California. È utilizzato da oltre quindici anni da compositori, esecutori, progettisti software, ricercatori e artisti interessati a creare software interattivo. Oltre alla tipica caratteristica di programmazione ad oggetti grafici, una API1 permette a terze parti lo sviluppo di nuove routines (chiamate external objects, oggetti esterni). Un’ulteriore caratteristica di Max è la possibilità di creare plug-ins e applicazioni stand-alone a partire da una patch, compatibili con tutti i formati esistenti, ossia VST, RTAS, MAS e nella versione per OSX anche AU. 1 Application Programming Interface (Interfaccia di Programmazione di un’Applicazione), sono ogni insieme di procedure disponibili al programmatore, di solito raggruppate a formare un set di strumenti specifici per un determinato compito
Capitolo 4
144
PREZZO Max MSP/Jitter 5, 699 $, Max MSP 5, 495 $, Max 5, 295 $ La possibilità di acquistare il software in diverse versioni relative alle librerie incluse, offre una soluzione adeguata a tutte le esigenze e possibilità di utilizzo da parte degli utenti, senza spese eccessive altrimenti inutili. Inoltre la possibilità tramite un software gratuito di creare moduli e patches personalizzate, mira a soddisfare le categorie di clienti più esigenti DIFFUSIONE Windows, Mac La vastità delle librerie, la possibilità di disporre di una versione run-time del software, di sviluppare applicazioni ha fatto di Max MSP/Jitter il software più utilizzato nella musica di ricerca, nell’elettronica, nonché punto di riferimento per la creazione di installazioni ed opere multimediali interattive. USABILITÀ Il principio di funzionamento è facilmente apprendibile tuttavia lo studi degli oggetti richiede più tempo e qualche lettura pesante. La vera difficoltà risiede nel memorizzare tutti gli oggetti (400 nella versione in commercio più altrettanti scaricabili dalla rete) e le possibilità che essi offrono, poiché come in tutti i linguaggi di programmazione, una cosa può essere realizzata in mille modi diversi, alcuni più efficienti degli altri.
Capitolo 4
145
Capitolo 4
146
RISORSE Essendo il software standard, quindi il piĂš diffuso in ambiti professionali, si avvale di una community molto vasta e preparata con una ottima reperibilitĂ di risorse (anche in italiano) di qualsiasi tipo come manuali, tutorial ed oggetti o patches scaricabili, a partire dallo stesso sito della casa di produzione del software. Innumerevoli anche le iniziative formative ed i workshop in giro per il mondo.
http://www.cycling74.com (download, manuale, forum, tutorial) http://www.maxobjects.com (dowload librerie) http://www.studiotoolz.net/ (dowload librerie) http://artsites.ucsc.edu/EMS/music/research/Lobjects.readme.html (dowload librerie) http://ppooll.klingt.org/index.php/Main_Page (dowload librerie) http://virtual-sound.com/vs/ (forum in italiano) MUSICA ELETTRONICA E SOUND DESIGN,Teoria e Pratica con Max-MSP, (libro)
Capitolo 4
147
Quartz Composer, schermata
Quartz Composer Quartz Composer è un linguaggio di programmazione visuale incluso degli Apple Developer Tools dedicati al sistema operativo MacOSX, indirizzato alla realizzazione di effetti visivi basati sull’utilizzo di componenti preconfezionati che vengono assemblati per realizzare le composizioni. Quartz Composer utilizza OpenGL, Core Image, Core Video e altre tecnologie incluse nel sistema operativo MacOSX coniugandolo con un paradigma di programmazione visuale. Le composizioni create con Quartz Composer possono essere eseguiti da ogni applicativo che integra la tecnologia QuickTime. Questi applicativi richiedono il MacOSX 10.4 o superiore dato che i componenti integrati da QuickTime sono disponibili da quella versione. Le composizioni possono essere integrate anche all’interno di classi Cocoa 2 o Carbon3. Dato che Quartz Composer fa un esteso uso di texture, accelerazione hardware e pixel shaker. 2 Cocoa è l’ambiente di programmazione orientato agli oggetti sviluppato da Apple per il sistema operativo Mac OSX 3 Carbon è il nome in codice dato da Apple alle API contenute nel sistema operativo Mac OSX che consentono ai programmi scritti per i sistemi della Apple precedenti a Mac OSX di funzionare sul nuovo sistema operativo tramite piccole modifiche.
Capitolo 4
148
PREZZO
gratuito
Quartz Composer viene installato con gli XCode Tools nella cartella /Developer/Application/Graphics Tools del sistema operativo Mac OSX 10.4 o superiore. DIFFUSIONE Mac Essendo un tools di un sistema operativo Apple, la diffusione è di conseguenza vincolata al sistema operativo Mac OSX, tuttavia una volta acquistato il computer con il relativo sistema operativo, non è più necessario reperire il software altrove. USABILITÀ L’interfaccia grafica è molto semplice ed intuitiva, quindi si addice agli utenti principianti che si affacciano alla programmazione visuale per la prima volta, in particolare se privi di ogni conoscenza ed abilità di programmazione informatica. Quartz Composer ha molte similarità con il
programma
Max/MSP/Jitter
sebbene
questo
venga
principalmente utilizzato per mostrare degli effetti visiva associati a un flusso audio. La capacità dei componenti di gestire sorgenti esterni come flussi audio o MIDI all’interno del player QuickTime o di altre applicazioni QuickTime compatibili, ha generato un grande interesse tra molti VJ che utilizzano Quartz Composer per generare effetti video durante il mixing dei pezzi audio.
Una libreria limitata di oggetti
che non permette lo sviluppo di applicazioni complesse è un punto a sfavore per Quartz, anche se le ultime versioni sono state arricchite di nuove possibilità nel tentativo di limare il gap con Max ed altri prodotti simili.
Capitolo 4
149
Capitolo 4
150
RISORSE Essendo un software vincolato all’ambiente mac, la prima conseguenza è quindi una limitazione non trascurabile del bacino d’utenza, tuttavia gran parte dei professionisti nell’ambito della programmazione visuale lavora appunto in ambiente mac, pertanto sulla rete è disponibile una discreta quantità di risorse. http://developer.apple.com/graphicsimaging/quartz/quartzcomposer.html(user guide) http://www.quartzcompositions.com (forum in inglese) http://quartzlab.blogspot.com (formu in italiano)
Capitolo 4
151
Isadora, schermata
Isadora Isadora è un software sviluppato da Mark Coniglio il quale, partendo dalla sua esperienza con il gruppo di teatrodanza multimediale Troika Ranch assieme Dawn Stoppiello, ha sviluppato una piattaforma estremamente intuitiva e flessibile. Dall’iniziale focus sull’interazione con performers tramite sensori e controllo di pacchetti MIDI, oggi Isadora (che il pubblico italiano ha visto all’opera nei lavori di Claudio Sinatti, Otolab e Softly Kicking) gestisce una quantità impressionante di proprietà, dai più tradizionali effetti video alla renderizzazione in tempo reale di file 3D complessi, permettendo la sincronizzazione multischermo e creando le premesse per un’interattività e una flessibilità che fino a qualche anno fa erano impensabili per chi non fosse pronto a cimentarsi con la programmazione “dura”.
Capitolo 4
152
PREZZO
350$ Mac version, 225 $ Windows version
V’è la possibilità di vari sconti in relazione alla quantità di licenze comprate, e molto importante è previsto uno sconto speciale in caso di acquisto della licenza per scopi formativi, in modo da favorire la diffusione del software in ambienti scolastici. DIFFUSIONE Mac, Windows Il fatto di avere una versione per entrambe le piattaforme principali di sistemi operativi in commercio è un fattore di notevole accessibilità e quindi di successo, tuttavia essendo un software di recente sviluppo ha ancora margini di espansione. È utilizzato in moltissime installazioni multimediali interattive ed ha anche un discreto successo per le VJing performance. USABILITÀ I software derivati da Max sono estremamente flessibili ma spesso orientati a un pubblico di programmatori, mentre software vj-oriented scontano i difetti di un’eccessiva limitazione nelle opzioni a disposizione. Isadora è il software che oggi probabilmente si trova a metà strada tra questi due estremi, risultando abbastanza facile imparare i primi passi, senza togliere la complessità desiderata da chi ha più esperienza. Questa combinazione di facilità d’uso e implementazioni per utenti esperti è la chiave del suo successo, essendo indicato anche per gli ambienti formativi scolastici e professionali.
Capitolo 4
153
Capitolo 4
154
RISORSE Essendo un software di recente sviluppo, non ha ancora conseguito una diffusione tale da avere una reperibilità di risorse all’altezza, tuttavia consideratone il successo, quest’ambito è tutt’ora in via di sviluppo, in crescendo naturalmente. La community non è molto vasta, ma è molto disponibile: lo stesso ideatore del software, Mark Coniglio, partecipa attivamene al forum del sito ufficiale, promuovendo e presenziando talvolta ad eventi, corsi e workshop che aumentano in continuazione. http://www.troikatronix.com/isadora.html (download, manuale, forum, tutorial) www.interno3.org/hof/luca%20ferro.pdf (tutorial in italiano)
Capitolo 4
155
vvvv, schermata
VVVV VVVV, Sviluppato da Sebastian Oschatz e Joreg Diessl della Meso, centro nevralgico indipendente e
non riccamente finanziato di
molta attività laboratoriale attorno a software e strumenti per la produzione mediale interattiva a livello artistico e professionale. VVVV è un software utile per la sintesi video in tempo reale ed il controllo di oggetti fisici tramite sensori, interfacce e controlli midi. Indicato soprattutto per creare installazioni ed esperimenti che generino grafica sintetica e possano interagire con diversi utenti, dispone di un ambiente di programmazione grafico che ne semplifica l’utilizzo, ed è evoluto da un tool interno per la progettazione di video, ad ambiente sufficientemente generico da poter essere utilizzato per diverse finalità, dal vjing fino all’arte elettronica.
Capitolo 4
156
PREZZO Full 500€, Noleggio 1 settimana 200€ La licenza è necessaria per tutte le applicazioni commerciali con possibilità di sconti in caso di acquisto di più licenze, tuttavia è disponibile una versione gratutita di valutazione per scopi non commerciali.
DIFFUSIONE Windows Essendo un prodotto compatibile solo con l’ambiente Windows, la diffusione è di conseguenza vincolata al sistema operativo. dopo le sue prime pubblicazioni nei primi anni 2000, ha perso visibilità a favore di altri programmi più recenti. USABILITÀ L’interfaccia grafica e la fruizione è simile a quella di Max ma è molto più limitato nelle librerie e nelle possibilità di programmazione. Ha un ottima qualità nella grafica generativa
pertanto
viene
usato
principalmente
nelle
performance Vjing.
Capitolo 4
157
Capitolo 4
158
RISORSE Considerata la sua discendente visibilità a favore di altri programmi più recenti, risulta più complicato reperire risorse adeguate all’apprendimento del software, tuttavia rimane una delle poche alternative ai molteplici software per gli ambienti Mac.
http://vvvv.org/ (download, manuale, forum, tutorial) http://node08.vvvv.org (forum) http://www.lanvideosource.net/fondamenti_di_vvvv.pdf (tutorial in italiano)
Capitolo 4
159
Altre alternative possono essere Processing e Pure Data, ma se per il primo si tratta di programmazione testuale, quindi implicando profonde conoscenze informatiche per utenti esperti, il secondo è semplicemente la versione open source 4 di Max, ma con una interfaccia grafica più scarna ed una libreria limitata, tuttavia per gli utenti più esperti c’è la possibilità di creare moduli e patch personalizzate equivalenti a quelle di Max, senza rinunciare ad alcuna funzione. Pure Data inoltre, possiede un alto livello di compatibilità tra patches prodotte in ambienti differenti (è disponibile anche per Linux oltre che per mac e Windows) e permette di utilizzare le sue patch anche su Max e viceversa. 4 In informatica, open source (termine inglese che significa sorgente aperta) indica un software i cui autori (più precisamente i detentori dei diritti) ne permettono, anzi ne favoriscono il libero studio e l’apporto di modifiche da parte di altri programmatori indipendenti.
RISORSE http://processing.org/ (download, manuale, forum, tutorial) http://puredata.info/ (download, manuale, forum, tutorial) http://www.puredata.it/ (download, manuale, forum, tutorial in italiano)
Capitolo 4
160
Pure Data, schermata
Capitolo 4
161
Concludendo,
preso
per
certo
che
MAX
MSP/Jitter
rappresenta attualmente, nel bene e nel male, lo standard di fatto per lo sviluppo di ambienti interattivi multimediali, le alternative non mancano, ognuna con le sue caratteristiche e con i suoi orientamenti. Come detto, VVVV è stato uno dei primi ad entrare in campo ed ha avuto un discreto successo nell’ambito Vjing per piattaforma Windows. è gratis e viene utilizzato per una buona produzione di grafica generativa. Quartz Composer, su piattaforma Mac, invece è una novità relativamente recente ed anche’esso viene prevalentemente utilizzato dai vj per la grafica generativa e per gli effetti video durante il mixing audio, finendo con Isadora, l’ultimo nato che ha ancora ampi margini di miglioramento, ma utilizzato da moltissimi artisti contemporanei, riesce a coniugare la semplicità d’uso a possibilità più avanzate oltre ad essere reperibile sia per Mac (consigliato) che per Windows. Ha una discreta gestione anche di file pesanti e sta trovando un ottimo successo nelle pratiche di mapping per le proiezioni architettoniche.
RISORSE http://www.ableton.com
Capitolo 4
162
(download, manuale, forum, tutorial)
http://www.abletonlivedj.com
(forum inglese)
http://www.noise collective.net
(forum italiano)
Queste considerazioni sono chiaramente orientate alla parte prettamente visuale, quindi all’interazione video, dunque per approfondire queste conoscenze anche in materia audio segnalo Ableton live, un programma per il sound design che deve il suo successo ad un interfaccia amichevole e molto intuitiva, permettendo di editare ogni genere di suono anche senza determinate capacità musicali. Ableton live, offre inoltre la possibilità di allacciarsi a dei controller esterni ed interfacciarsi con altri programmi come Isadora per collegare un evento audio ad un’azione specifica. Ecco infine tre siti italiani relativi a tre community molto attente alle novità in uscita, nonché ottimi strumenti per la reperibilità di risorse di ogni tipo per quanto riguarda il vjing in particolare. RISORSE http://www.soundesign.info/ http://www.virtual-sound.com/sv/ http://www.vjcentral.it/
Ableton Live, schermata
Capitolo 4
163
5. Progettazione
-Total people scanning-
Capitolo 5
165
-ConceptIl concept di questa installazione audiovisiva interattiva, muove in primo luogo, dall’idea di poter raccontare eventi di attualità attraverso media e tecnologie non convenzionali. Ci troviamo nel Gennaio 2010, tra le varie notizie di cronaca, imperversa il dibattito sull’utilizzo dei body scanner negli aeroporti, un dibattito dove i dubbi sulla reale utilità (e infallibilità) di queste apparecchiature si incrociano con i timori per la violazione della privacy e per i possibili danni alla salute. In Italia i primi scanner per la sicurezza aeroportuale sono stati provati nel 2009 allo scalo di Ciampino. Il sistema è semplice: il passeggero entra in una cabina a braccia e gambe divaricate. Trenta secondi, qualcuno in più per i sistemi a raggi x, e un software trasforma i segnali ricevuti in un’immagine, quindi il monitor su cui appare una sorta di fotografia in negativo è posizionato in una sala diversa rispetto a quella dove sta il passeggero. L’agente che visiona Capitolo 5
166
l’immagine è collegato a quello che controlla attraverso un auricolare. L’immagine non viene memorizzata ma subito cancellata, mentre chi non vuole sottoporsi all’esame dello scanner può richiedere un’ispezione manuale accurata. Tuttavia le polemiche più accese riguardano la questione della privacy, parzialmente smorzate con la soluzione di opacizzazione della figura in modo da rendere irriconoscibili i particolari anatomici quali il volto e gli organi genitali, oggetti principali delle proteste. Dal punto di vista tecnologico esistono due tipologie di body scanner: quelli a raggi x, evoluzione delle tecnologie mediche, e quelli a onde radio, più recenti e di derivazione militare. La prima tecnologia si chiama Backscatter x-Ray e utilizza raggi x che non penetrano l’oggetto (come quelli più potenti per le radiografie) ma usano le radiazioni di ritorno del corpo. Forniscono immagini a due dimensioni e in bianco e nero. La seconda tecnologia, la Millimeter wave scanner, usa onde radio cortissime (come i raggi T) e a elevata frequenza. Fornisce una foto del corpo tridimensionale. Concludendo sulla questione salute, l’esposizione alle onde radio durante il controllo sarebbe 10 mila volte minore a quella di una trasmissione col cellulare,
Capitolo 5
167
mentre quella ai raggi x equivalente a due minuti di volo, tuttavia non si conoscono ancora gli effetti a lungo termine, pertanto esistendo un rischio probabilistico, per i bambini è preferibile l’ispezione manuale. Da qui l’installazione in chiave multimediale, sulla diffidenza, il controllo e la paura. Body scanners, sistemi di controllo/vigilanza, segnali di allarme; sequenze di effetti personali ispezionati, multi processati, magnificati, remixati (di fatto) alienati, sono alcuni dei simboli in cui lo spettatore si immerge, con cui interagisce, gioca e “inattualizza” la contemporaneità.
Il tutto viene
presentato in chiave ironica e satirica laddove la scansione delle persone che passano dallo scanner, riporta visivamente l’individuazione di oggetti normalmente considerati innocui, che in questo caso vengono indicati come oggetti pericolosi, quindi decontestualizzati e riproposti da un punto di vista assurdo che richiama alla riflessione e ai significati delle tematiche sopracitate.
Non più bombe, pistole o coltelli,
ma prosciutti, padelle e vibratori che dissociandosi talvolta da un senso logico, invadono prepotentemente la nostra privacy in nome della sicurezza come scherno alla paura e alla diffidenza.
Bodyscanner
Capitolo 5
168
Capitolo 5
169
-Analisi e sviluppo del progetto nello spazioTotal people scanning è un’installazione audiovisiva interattiva, ideata e curata dal
prof. Giuseppe Ridolfi in
collaborazione con Aida, allestita in occasione dell’evento “Le Murate” del 16 Gennaio 2010. Trattasi dell’inaugurazione di un nuovo spazio urbano recuperato da uno stabile in disuso situato nel pieno centro storico di Firenze: il complesso (quattrocentesco) era il monastero intitolato alla Santissima Annunziata e a Santa Caterina, dove abitavano le monache di clausura dette “murate”, in seguito, per circa cento anni, dal 1883 al 1985 è stato il carcere di Firenze.
Capitolo 5
170
L’evento era suddiviso in diverse aree tematiche su musica, arte, architettura e design, ognuna con le relative esposizioni. Total people scanning si colloca quindi nella sezione A, “walkin on the architectural border”, spazio espositivo della Facoltà di Architettura dell’Università degli Studi di Firenze, dove attraverso 8 “stazioni” di proiezione video e/o interattive si presentano alcune sperimentazioni/esplorazioni dei confini dell’achitettura e del design, in particolare nell’interazione con le tecnologie dell’informazione.
Capitolo 5
171
Flussi L’ingresso fungeva anche da uscita, quindi i flussi di movimento erano bidirezionali, tuttavia il flusso maggiore di pubblico che visitava lo spazio espositivo proveniva da l cortile, quindi tendenzialmente in entrata per poi uscire dall’altro ingresso della sala.
La location risulta particolarmente importante come punto di partenza nell’ideazione e progettazione dell’installazione. Il nostro spazio, infatti era situato in corrispondenza di uno dei due ingressi del locale espositivo, ovvero un punto di passaggio obbligatorio, quindi in una posizione ideale per la simulazione di un body scanner, risolvendo così anche le problematiche relative all’incentivazione del pubblico alla partecipazione.
M TA N A -PI
A
NE O I Z STA E NIF
Capitolo 5
172
-FLUSSI DI MOVIMENTO-
-PROIEZIONI-
Lo spazio a disposizione era di circa 12m2 (6mx2m), nel dettaglio, l’installazione era composta da tre elementi in relazione tra loro attraverso diversi sistemi interattivi. Come accennato precedentemente, in corrispondenza dell’ingresso era
stato
progettato
uno
scanner
fittizio,
composto
essenzialmente da due pile di schermi per videowall, quindi uno schermo di posto sulla parete opposta all’entrata visualizzava il video della scansione. Infine un’ulteriore schermo di 4mx3m posto sulla parete alla destra dell’ingresso era adibito alla visualizzazione di un altro video interattivo.
Capitolo 5
173
Videocamera per
rendere
la
simulazione
dello
scanner
più
scenografica, abbiamo posto una videocamera puntata direttamente su uno degli schermi, ricreando un effetto di ritorno del segnale, generando così effetti visivi i quali vengono visualizzati in tutti gli altri schermi.
Assonometria
Tra le due pile di schermi video, era posta un’asse di legno (di color nero) come architrave, sulla quale erano posizionati il sistema a fotocellula per il rilevamento del movimento e il proiettore per il video relativo alla “scansione”. Sulla parete opposta all’ingresso, veniva quindi proiettato il video corrispondente alla scansione della persona che attraversando lo scanner faceva scattare la fotocellula, mentre sulla parete alla destra della porta, veniva montato un grande schermo
Capitolo 5
174
Schema tecnologico
4mx3m su cui era proiettato un secondo video scenografico controllato da un sistema interattivo collegato ad una webcam che riprendeva il passaggio delle medesime persone all’interno del nostro spazio espositivo. La presenza di questi due sistemi di interazione quali la scansione e il video controllato dalla webcam, implica l’utilizzo di due pc per la relativa gestione: uno controlla dunque l’attivazione delle scansioni attraverso l’apposita programmazione in Flash, mentre l’altro è adibito al controllo del secondo video tramite la programmazione in Isadora. I due sistemi sono totalmente indipendenti e ininfluenti tra loro dal punto di vista tecnologico, sebbene in seguito al passaggio dallo scanner, il pubblico è costretto a passare dallo spazio soggetto alla ripresa della webcam per ovvie ragioni di passaggi obbligatori, pertanto si è creata un’interazione tra i due sistemi semplicemente attraverso la disposizione nello spazio degli stessi.
Capitolo 5
175
-Editing multimedialeIn questo paragrafo tratterò nello specifico i singoli elementi visivi e tecnologici che caratterizzano lâ&#x20AC;&#x2122;allestimento dello scanner, elemento principale dellâ&#x20AC;&#x2122;installazione. Dal punto di vista tecnologico, oltre alla struttura in stile videowall per la simulazione di un body-scanner, descritta nel paragrafo precedente, prende particolare interesse il sistema di rilevamento del movimento tramite fotocellula, che a sua volta aziona la proiezione del video sulla parete opposta. Secondo una corretta procedura nella costruzione di questo sistema interattivo, si renderebbe necessaria e
Capitolo 5
176
consigliabile l’utilizzo un’interfaccia midi hardware e software come Arduino, per interfacciare appunto il segnale analogico proveniente dalla fotocellula con il programma digitale che regola la proiezione del video (Adobe Flash in questo caso), tuttavia, per la mancanza di tali mezzi e relative competenze, considerando anche il budget economico pari a zero che non ci ha concesso l’acquisto di strumenti al di fuori di quelli già messi a disposizione da AIDA, abbiamo dovuto aggirare il problema con un piccolo trucco hardware che consiste in una specifica saldatura tra il cavo proveniente dalla fotocellula e un comunissimo mouse per pc. Ne consegue la riduzione dell’interfacciamento software per il controllo del segnale, alla semplice assegnazione di un tasto specifico in corrispondenza del clic del mouse modificato, tasto a cui è assegnato a sua volta il controllo della proiezione con il programma software di controllo del video (Flash).
Capitolo 5
177
Audio Ogni elemento e la relativa animazione è accompagnata da un preciso evento sonoro studiato per esaltarne l’espressività, come nell’animazione finale di individuazione dell’oggetto pericoloso dove alla scritta intermittente “warning” che ne segnala la pericolosità, corrisponde una sirena sincronizzata all’intermittenza che ne amplifica l’effetto.
In merito all’editing multimediale è stato effettuato un accurato lavoro a livello video per rappresentare le scansioni delle persone attraverso il trattamento di immagini fotografiche dapprima su Photoshop, per poi essere montate ed animate con l’ausilio di elementi grafici su Flash. Il visual è dunque composto dal disegno di una sagoma stilizzata ed offuscata che rappresenta l’immagine di un corpo umano privato di qualsiasi tratto di riconoscibilità o distinzione sessuale, ovviamente utilizzato come riferimento standardizzato per l’immagine corporea delle persone che si sottopongono alla scansione, a prescindere dalle loro caratteristiche fisiche. Una serie di elementi grafici disegnati appositamente per simulare la scansione, giocano sulle maschere di livello che alla fine del processo ne svelano l’oggetto pericoloso evidenziato dal colore rosso, da sempre colore relativo a segnali di attenzione e/o pericolo, scelto anche perchè in contrasto con le tonalità cianotiche del resto della composizione per una corretta e immediata visualizzazione e percezione da parte del pubblico. I restanti elementi grafici di contorno quali la griglia di fondo e i parametri numerici a lato dell’immagine corporea non sono semplicemente elementi scenografici inseriti allo scopo di aumentare l’impatto visivo del visual.
Capitolo 5
178
Capitolo 5
179
ActionScript 1 Funzione che genera un numero in base alla data che viene utilizzato per forzare il caricamento (Refresh) dellâ&#x20AC;&#x2122;XML
ActionScript 2 Funzione principale che carica il documento XML creato dallo script ASP con i dati prelevati dal Data Base
Per quanto riguarda la programmazione per la gestione delle immagini è stata realizzata sempre con lâ&#x20AC;&#x2122;utilizzo di Flash, creando dapprima uno stage contenente le immagini statiche degli elementi scenografici del visual, per assicurare un visual attivo anche in corrispondenza dello stato di riposo del sistema, il quale, una volta attivato il segnale proveniente Capitolo 5
180
ActionScript 3 Funzione che prende i dati XML e li mette in degli array e funzione che estrae un elemento casuale dallâ&#x20AC;&#x2122;array dei files
Stato di riposo
Stato attivo
dalla fotocellula, richiama in un contenitore vuoto (un clip filmato) gli swf esterni contenenti le animazioni preelaborate delle scansioni. Le animazioni vengono selezionate secondo un criterio casuale, attraverso degli appositi script che selezionano i video da un file esterno xml, contenete lâ&#x20AC;&#x2122;elenco dei file a disposizione. Capitolo 5
181
-Programmazione in IsadoraIl secondo sistema interattivo dell’installazione è quello relativo al controllo video attraverso il rilevamento del movimento nella sala tramite l’utilizzo di una webcam. Questo sistema è stato realizzato grazie ad Isadora, un software di programmazione grafica a oggetti visuali. Un software per la programmazione è essenzialmete un software che permette di creare altri software secondo le esigenze del fruitore, pertanto l’utilizzo di Isadora si deve alla necessità di creare un’interfaccia per il controllo dei dati provenienti dal sistema di rilevamento, la webcam in questo caso.
Capitolo 5
182
Ovviamente l’utilizzo del software di programmazione è preceduto dalla produzione e importazione dei materiali audio e video su cui intervenire attraverso l’interfaccia. Il visual è composto da una serie di immagini di valigie scansionate
nell’areoporto,
montate
in
succcessione
ricreando quindi l’effetto del rullo trasportatore attraverso il programma di editing video. Anche il colore è stato modificato per rientrare nella armonia cromatica dell’intera installazione. Come azione interattiva, il video reagisce al movimento, ovvero al passaggio delle persone nella sala successivamente al passaggio dallo scanner, quindi il video accellera e un elemento sonoro ne sottolinea l’andamento.
Capitolo 5
183
Entrando nel vivo del programma, vediamo che si tratta di una patch abbastanza semplice, quindi passiamo ad analizzare le funzioni di ogni attore sul trattamento dei materiali in entrata.
L’attore Video In Watcher, non è nient’altro che la fonte video esterna, ovvero la webcam che deve essere inserita nei settaggi di videoinput del programma quindi attivarne la cattura dei dati. L’attore Eyes, invece è una funzione di ricezione e analisi del video proveniente dalla fonte assegnata, quindi è in grado di estrapolare dati numerici relativi a determinate caratteristiche. Nel nostro caso sfrutteremo il parametro Object Velocity, che controlla il movimento generale del la fonte video inserita.
L’attore Smoother, serve a smorzare e omogenizzare il flusso di dati numerici in uscita dall’attore Eyes, in modo da rendere meno brusche le variazioni repentine tra i diversi valori.
Capitolo 5
184
Gli attori Movie Player, Sound Movie Player e Sound Player, sono gli attori corrispondenti ai relativi materiali importati di cui è comnposto l’installazione audiovisiva, ovvero, in ordine, il video delle valigie, l’audio del video e un secondo audio che si attiva solo in presenza di una sollecitazione, quindi del movimento rilevato. Come si può notare dall’immagine, i valori in uscita dallo Smoother, quindi da Eyes intervengono allo stesso modo sia sulla velocità del video che su quella dell’audio a cui viene regolata anche l’intensità sonora.
In tutti gli attori, ma in questi particolarmente, risulta fondamentale prestare attenzione alle scale di parametri su cui si interviene, assegnando i valiri massimi e minimi in base alle proprie esigenze, lasciando per esempio una velocità minima nella Speed del video per non far fermare lo scorrimento, o massima per non farlo scorrere troppo velocemente.
Projector è l’ultimo attore inserito che consente la visualizzazione del video nello stage, quindi le immagini proiettate, mentre Zoomer è un controllo per lo Zoom del video che necessitava di accorgimenti scenici riguardanti appunto la proiezione reale sullo schermo.
Capitolo 5
185
-Allestimento e conclusioniLa scelta di una video-installazione interattiva risiede principalmente nella volontà di coinvolgere lo spettatore con la partecipazione attiva nella ricezione delle immagini presentate e dell’argomento trattato, pertanto l’esposizione di tale progetto trova un’ottima collocazione in n evento pubblico quale “Le Murate”. Non più la solita esposizione di lavori preconfezionati, ma un’istallazione ideata e progettata per la fruizione in tempo reale durante lo stesso evento che punta a stimolare le reazioni strettamente personali di ogni fruitore, pur mantenendo molti elementi rigidi e preconfezionati. Tuttavia, proprio il fattore di evento pubblico aperto a tutti i cittadini, dunque privo di una tematica ben precisa e di un relativo target, ha visto l’aspetto ludico dell’esposizione sopraffare
i
reali
intenti
comunicativi
laddove
pochi
interessati si sono esposti nel chiedere e/o scambiare opinioni sull’effettivo senso dell’installazione. A dimostrazione di tale fatto, vi è la successiva richiesta di un commerciante, gestore del Red Garter, conosciuto disco-pub situato nel centro storico di Firenze, il quale, presa visione dell’installazione, ha avanzato una richiesta di replica proprio all’interno del suddetto locale a semplici fini ludici e scenografici. Non vi sono documentazioni effettive della replica dell’istallazione in questo testo in quanto i lavori per la realizzazione sono tuttora in corso, sebbene sarà presente nel cd allegato e nella presentazione nel giorno di discussione della tesi.
Capitolo 5
186
Dal punto di vista personale, ho deciso di partecipare
alla realizzazione dell’installazione “Total people scanning” soprattutto per l’opportunità di cimentarmi con un progetto reale, quindi per la relativa collaborazione con altre figure professionali quali il prof. Giuseppe Ridolfi della Facoltà di Architettura e Maurizio Baldini di Aida che dirigevano tutte le operazioni. Il fatto di avere a che fare direttamente con gli strumenti e le problematiche tipiche della realizzazione di progetti simili oltre al mio ruolo di collaboratore subordinato a decisioni superiori pur avendo un discreto margine creativo, mi ha aiutato a crescere dal punto di vista professionale molto di più di un qualsiasi progetto ipotetico strettamente personale. Per questo ringrazio tutti coloro che hanno reso possibile tale opportunità, il progetto Milab.biz in particolare.
Capitolo 5
187
Osservazioni conclusive RISORSE E CONOSCENZE Con questo testo non pretendo di descrivere in maniera esaustiva tutto ciò che riguarda l’interaction design, poichè argomento vastissimo ed eterogeneo, tuttavia ho condotto questa ricerca allo scopo primario di tracciare una linea guida nelle conoscenze e nelle pratiche di tale ambito per favorirne una corretta progettazione, consapevole di tutte le sue possibilità, senza tralasciare il necessario background culturale su cui essa dovrebbe fondarsi. Il linguaggio del video digitale (oggetto della mia ricerca),in particolare nell’interaction design, prende forma a partire da regole procedurali che implicano conoscenze in diversi campi del sapere, quindi imparare a conoscerne le origini tecnicoartistiche, è il primo passo inevitabile per prodursi nella successiva progettazione e/o sperimentazione. Pertanto il
Conclusioni 194
testo è composto per la maggior parte di una profonda ricerca storico-artistica atta a evidenziare le evoluzioni dei diversi artisti che si sono susseguiti nel corso degli anni, fino a quelli più contemporanei, spesso tralasciati dai corsi universitari, ma molto importanti in un ambito come questo, in costante evoluzione, quindi con l’obbligo di un aggiornamento costante. A tal proposito, proprio la contemporaneità di questa evoluzione
tecnologica/artistica,
crea
difficoltà
nel
reperire materiale documentativo sulle opere o sugli artisti, quindi gli strumenti disposizione attualmente, internet su tutti, si rendono necessari e spesso più efficaci della classica ricerca bibliografica, ecco infattitravare in fondo al testo una webgrafia molto più ampia rispetto alla sua corrispondente cartacea. La multimedialità dei moderni mezzi di comunicazione, come le forme ipertestuali della rete, amplificano le qualità delle conoscenze bibliografiche, quindi offrono la vantaggiosissima possibilità di trovare un supporto diretto attraverso le comunity da cui sfruttare le reti “umane” oltre a quelle digitali, pertanto ho inserito una pagina delle risorse alla fine di ogni paragrafo, in modo da veicolare i potenziali approfondimenti da parte del lettore in una forma più interattiva rispetto alla classica bilbiografia a fine testo, comunque presente. Le risorse dunque diventano un elemento fondamentale della mia ricerca, poichè una volta aquisito il background culturale, diventano i primi spazi dove scambiare informazioni e cimentarsi con problematiche reali.
Conclusioni 195
SPERIMENTAZIONE La sperimentazione dell’interaction design, è fondata sul concetto di fusione tra techne e poiesis, tecnica e arte, da cui ne deriva la nascita di nuovi mezzi di comunicazione multisensoriale.
questo processo ha aperto possibilità creative
notevoli, tuttavia è riconducibile a tre correnti concettuali ben definite. La prima è l’indagine sperimentale sui processi da cui l’immagine stessa prende forma (pratica esaltata nella videoarte e nel cinema sperimentale) la seconda invece vede la realtà connettersi con la costruzione immaginaria e onirica, per essere pensata e catturata in determinati instanti da reinventare (pratica più affine ai videoambienti), mentre le ultime tendenze vertono verso l’istante unico ed irripetibile della performance in tempo reale (vjing e live media). A prescindere da quale strada si prenda o da quale soluzione tecnica si adotti, realizzare un ambiente interattivo è soprattutto coinvolgere chi vi partecipa come spettatoreattore attraverso la presentazione di una visione non convenzionale rispetto ad un determinato tema su cui produrre nuovi scenari mediali. l’interaction design va dunque
considerato
in
primo
luogo,
come
occasione
attraverso la quale permettere di integragire con il mezzo/i di comunicazione in questione e di partecipare attivamente allo scambio di informazioni evadendo dalla monotona forma della ricezione assoluta, come per esempio accade per la televsione.
Conclusioni 196
TECNICA Dal punto di vista tecnico, come ultimo passaggio verso la realizzazione del progetto, diventa
importante lo studio
dello spazio e dei suoi rapporti, in modo da poter giocare sulle possibili contaminazioni tra spazi reali e spazi virtuali prima ancora che sui contenuti concreti dell’opera. PROSPETTIVE Dal punto di vista commerciale, queste pratiche non hanno una diffusione massificata, mentre in campo artistico sono oggetto d’indagine da diverso tempo, tuttavia la crescenti tecnologie e il loro conseguente abbassamento dei prezzi stanno promuovendo soluzioni interattive anche negli studi di design, pertanto l’acquisizione di queste conoscenze può rivelarsi molto utile per un possibile sbocco professionale.
Questo testo dunque si presenta come un valido appoggio per chi si affaccia per la prima volta nel mondo dell’interaction design, in particolare per quanto riguarda la progettazione di ambienti video.
Conclusioni 197
Bibliografia ANDREA BALZOLA, ANNA MARIA MONTEVERDI, Le arti multimediali digitali Garzanti, 2004 SANDRO BERNARDI, L’avventura del cinematografo Marsilio, Venezia 2007 BORDINI SILVIA, Arte Elettronica Giunti, Milano 2004 FABIO CIRIFINO, PAOLO ROSA, STEFANO ROVEDA, LEONARDO SANGIORGI, Ambienti sensibili Electa,, Milano 1999 BRUNO DI MARINO, Tracce, sguardi e altri pensieri Feltrinelli, Milano 2008 GILLO DORFLES, Ultime tendenze nell’arte d’oggi Feltrinelli, Milano 2005 VITTORIO FAGONE, L’immagine video Feltrinelli, Milano 1990 PONTUS HULTEN, JEAN TINGUELY, Una magia più forte della morte Bompiani, Milano 1987 SANDRA LISCHI, Visioni elettroniche Marsilio, Venezia 2001 ARMANDO MENICACCI, EMANUELE QUINZ, La scena digitale Marsilio editori, Venezia 2001 LAURENT MIGNONNEAU, CORISTA SOMMERER, Interactive art research Springer Verlag, New York 2009 FRANCO PERELLI, Storia della scenografia Carocci, Urbino 2006 HANS M. WINGLER, Il Bauhaus traduzione italiana a cura di Libero Sosio, Feltrinelli, Milano 1987 JOSEF SVOBODA, I segreti dello spazio teatrale Ubulibri, Milano 1997
Bibliografia
198
ALTRI TESTI Netmage - Piccola enciclopedia dell’immaginario tecnologico Link Project Arnoldo Mondadori Editore, 2000 Politica e poetica dell’interaction design enviroment (tesi di laurea della Facoltà di Scienze Umanistiche dell’Università La Sapienza di Roma) Pasquale Direse, 2008
Filmografia TONY CONRAD, The flicker, 1966 OSKAR FISCHINGER, Studium series, 1935 LEN LYE, A colour box, 1935 , Free radicals, 1958 MAN RAY, Emak Bakia, 1926 McLAREN , Dots, 1940 , Sinchronomy, 1965 GEORGE MELIES, L’homme à la tête en cahoutchouc, 1901 HANS RICHTER, Rythm 21, 1921 WALTER RUTTMANN Opus I, Opus II, 1921 DZIGA VERTOV, L’uomo con la macchina da presa, 1929 ANDY WARHOL, Sleep, 1963
Filmografia
199
Webgrafia CAPITOLO 1 http://julienmaire.ideenshop.net/ http://www.zuviel.tv/mikomikona.html http://www.carstennicolai.de/ http://portablepalace.com/ CAPITOLO 2 http://www.hentschlager.info/ http://www.granularsynthesis.info http://www.claudiosinatti.com http://www.pablovalbuena.com/ http://lab-au.com/ CAPITOLO 3 http://www.studioazzurro.com/ http://www.interface.ufg.ac.at http://www.exile.at/ko/ http://www.troikaranch.org/ http://www.otolab.net/ CAPITOLO 4 http://www.arduino.cc http://hacknmod.com/hack/arduino-tutorial-how-to-introduction-guide http://www.ladyada.net/learn/arduino http://www.robot-italy.com http://en.wikipedia.org/wiki/Motion_capture http://www.phasespace.com http://www.xsens.com/ http://www.vicon.com http://www.autodesk.com http://musart.dist.unige.it http://www.infomus.org http://biomobius.trilcentre.org/docs/EyesWeb%20GDE%20 http://www.cycling74.com (download, manuale, forum, tutorial) http://www.maxobjects.com (dowload librerie) http://www.studiotoolz.net/ (dowload librerie) http://artsites.ucsc.edu/EMS/music/research/Lobjects.readme.html http://ppooll.klingt.org/index.php/Main_Page http://virtual-sound.com/vs/ http://developer.apple.com/graphicsimaging/quartz/quartzcomposer.html http://www.quartzcompositions.com http://quartzlab.blogspot.com
Webgrafia
200
http://www.troikatronix.com/isadora.html http://www.interno3.org/hof/luca%20ferro.pdf http://vvvv.org/ http://node08.vvvv.org http://www.lanvideosource.net/fondamenti_di_vvvv.pdf http://processing.org/ http://puredata.info/ http://www.puredata.it/ http://www.soundesign.info/ http://www.virtual-sound.com/sv/ http://www.vjcentral.it/ CAPITOLO 5 www2.mailab.biz DEFINIZIONI http://it.wikipedia.org/ PORTALI DEDICATI ALLE ARTI ELETTRONICHE http://www.digicult.it/ http://www.neural.it/neural_it http://www.vidauxs.net FESTIVAL ITALIANI http://www.netmage.it http://www.toshare.it http://www.dissonanze.it http://www.piombinoexperimenta.it http://www.arezzowave.com/elettrowave FESTIVAL INTERNAZIONALI http://www.strp.nl http://www.cimatics.com http://www.sonicacts.com http://www.aec.at http://www.transmediale.de http://www.elektrafestival.ca http://www.mutek.ca http://www.cybersonica.org http://www.sonar.es
Webgrafia
201