Applicazione musicale per l’esplorazione delle città
Tesi di Laurea Università Iuav di Venezia Facoltà di Design e Arti Corso di laurea magistrale in Comunicazioni Visive e Multimediali
Gianni Cardone, 269622 Relatrice Gillian Crampton Smith Correlatore Philip Tabor Sessione di laurea Aprile 2012
Tesi di laurea
Corso di laurea specialistica o magistrale in Comunicazioni Visive e Multimediali
Titolo tesi di laurea
Andante. Applicazione musicale per l’esplorazione delle cittĂ
Cognome e nome
Cardone Gianni
Matricola n.
269622
Anno accademico
2010/2011
Relatore
Gillian Crampton Smith
Firma
Correlatore
Philip Tabor
Firma
Sessione di laurea
4-5 aprile 2012
Abstract Andante è un’applicazione musicale per dispositivi mobili rivolta agli amanti della musica. Il software è utilizzabile all’interno di una qualsiasi città e cerca di mettere in contatto gli utenti con l’ambiente che li circonda in maniera poetica, rendendo l’esplorazione dei paesaggi urbani più piacevole e creativa. Il progetto è basato su un processo di “sonificazione” che traduce un fenomeno fisico in un suono non verbale. In modo più specifico Andante genera una composizione musicale in tempo reale, trasformando i dati spaziali e strutturali dell’ambiente che circonda l’utente. Andante è progettato per musicisti, compositori e amanti della musica, per rendere l’esplorazione delle città più stimolante e gradevole. L’interazione esplora un’ampia gamma di possibilità offerte dal suono e coinvolge la comunicazione visiva solo come supporto, permettendo di usare il dispositivo senza dover costantemente fissare lo schermo. Andante genera una composizione musicale influenzata sia dall’utilizzatore, sia dal paesaggio: in questo ambiente ci si immerge completamente, combinando suono e percezione visiva in una realtà poeticamente più ricca. La relazione descrive in dettaglio il processo di ricerca
e lo sviluppo del progetto che parte dalla città per esplorare l’insieme dei servizi volti a collegare gli ambienti urbani con gli abitanti e i visitatori. Questa ricerca mi ha permesso di comprendere che il maggior numero di applicazioni è rivolto a una navigazione cittadina puramente funzionale: generalmente si coinvolge la comunicazione visiva, mentre agli altri sensi è riservato un livello di comunicazione secondario, meno raffinato. L’analisi del mondo dei ciechi e ipovedenti, per cercare ispirazione e offrire nuove soluzioni, è stata estremamente positiva, considerato che in questo ambito tutti i servizi disponibili escludono la comunicazione visiva mentre coinvolgono profondamente gli altri sensi. Questo mi ha permesso di comprendere le notevoli possibilità di sviluppo di nuovi modi di comunicazione e interazione attraverso prodotti attualmente in commercio. Dopo le prime interviste ho deciso di non realizzare un prodotto destinato esclusivamente a ipovedenti, ma di conservare molti dei principi e stimoli raccolti durante la fase di ricerca.
Andante is a musical application for mobile devices aimed at music lovers. The software can be used in any city and aims to create a relation between the users and the environment around them in a poetic way, making the exploration of the urban landscape more pleasant and creative. The project is based on a sonification process which translates a physical phenomenon to a non-speach sound. More specifically Andante generates a real-time musical composition which corresponds with the spatial and structural environment surrounding the user. Andante is designed for musicians, composers and music lovers in order to make exploring the cities more enjoyable and stimulating. The interaction is based on a wide range of possibilities offered by sound communication, using graphics only to support the musical interaction allowing an eyesfree use of the application. Andante creates a musical composition influenced by both the user and the environment. It brings people to immerse themselves completely in an landscape that combines sound and visual perception into a poetic augmented reality. This report details the process of research and design development starting from the city, exploring
the set of services currently available to link urban environments with people that live there or pass through them. This research made me understand that the greatest number of applications for city navigation is purely functional and usually involves visual communication. Other senses are introduced at a secondary level using less sophisticated communication. Exploring the world of the blind and visually impaired to search for inspiration and offer new solutions was extremely valuable as in this field all services available exclude visual communication and involve the other senses more deeply. This allowed me to understand the considerable untapped potential to develop new types of communications and interactions for products on the market today. After initial interviews, I decided not to design a product aimed exclusively for visually impaired, but kept many of the principles and inspirations collected during the research phase.
Indice Abstract Introduzione
1
1. L’uomo e l’ambiente 1.1 Le città di domani 1.2 La disabilità come ispirazione 1.3 Conclusioni
5 6 13 23
2. Prime idee progettuali 2.1 Raccogliendo le idee 2.2 Il punto di partenza 2.3 I primi passi 2.4 Pensare all’interazione 2.5 Proposte di interazione
25 26 27 29 30 33
3. Orientamento finale 3.1 Finalità del progetto 3.2 Ambito d’uso 3.3 Il nome: Andante 3.4 Nuova interfaccia 3.5 Il linguaggio musicale 3.6 Il primo prototipo musicale
37 38 40 42 44 46 48
4. Andante 4.1 Il progetto finale 4.2 Lo scenario 4.3 Musica e interpretazione 4.4 La struttura
51 52 53 58 61
5. Il prototipo 5.1 L’analisi delle mappe 5.2 La Generazione musicale 5.3 Le interazioni in dettaglio
65 66 68 72
6. Conclusioni
82
7. Appendice di ricerca 7.1 Esplorazione ad ampio raggio 7.2 CittĂ e servizi 7.3 Guardare con altri occhi
85 86 86 92
Ringraziamenti
98
Fonti
100
Immagini
102
Introduzione
Introduzione I canali di comunicazione rapidi ed efficienti che si sono diffusi negli ultimi decenni hanno fatto delle metropoli luoghi frenetici e vorticosi influenzando, a volte anche in maniera negativa, le vite degli stessi abitanti. Questo processo ha cambiato profondamente anche il modo di spostarsi all’interno delle città e soprattutto le procedure per la progettazione dei sistemi integrati di mobilità. Oggigiorno le priorità prese in considerazione per lo sviluppo di una rete di trasporti pubblici cittadini riguardano la velocità e l’efficienza degli spostamenti in un contesto economicamente produttivo. La ricerca sviluppata nei capitoli seguenti individua questa tendenza anche nella progettazione di numerosi servizi di mobilità che sono oggi disponibili. Se prendiamo in considerazione navigatori satellitari, servizi cartografici online e GPS possiamo notare come questi ci forniscano indicazioni particolarmente accurate per spostarci da un luogo ad un altro, seguendo il percorso più veloce o quello senza traffico. Tuttavia il tipo di comunicazione viene spesso poco considerato e ridotto a informazioni vocali sintetiche e grossolane. Il coinvolgimento dell’ambiente circostante è spesso trascurato. Sono pochi i servizi che cercano di includere l’aspetto
piacevole del viaggiare, oltre a consentire spostamenti nel minor tempo possibile. I servizi pubblici e privati di mobilità non dovrebbero limitarsi a progettare i nostri spostamenti nelle ore più convulse della giornata solo su una base temporale e funzionale. Questo aspetto limita notevolmente le possibilità di contatto tra persone e ambiente, riduce ad una porzione limitata le informazioni e le sensazioni che possiamo raccogliere da un ambiente cittadino ed infine influisce sulla nostra vita personale rendendola meno piacevole e più monotona. Tutte queste considerazioni si sono susseguite nei mesi di redazione della tesi e mi hanno portato a sviluppare l’idea che sta alla base del mio progetto. Ho deciso di lavorare principalmente sulla comunicazione poetica e sul contatto che si stabilisce tra utenti e città. Non ho voluto sviluppare un servizio di navigazione, ho lasciato alla persona la libertà di esplorare lo spazio e mi sono concentrato sulla resa sensibile dell’ambiente contiguo al percorso seguito. La priorità è stata quella di esaltare le caratteristiche del paesaggio circostante coinvolgendo non solo la vista ma anche gli altri sensi per offrire una realtà più ricca e piacevole. Il canale di comunicazione principale
1
è divenuto quello musicale nel tentativo di tradurre la struttura fisica in suoni che ne esaltassero la percezione visiva. Andante nasce quindi come un’applicazione per dispositivi mobili che genera in tempo reale una composizione musicale “accordata” alle strutture architettoniche ed urbanistiche della città. La funzione è ricreativa ed allo stesso tempo porta gli utenti ad interagire attivamente con la città. Le pagine che seguono illustrano le varie fasi del progetto. Il primo capitolo mostra la ricerca svolta per conoscere l’attuale stato dei lavori. Inizialmente ho analizzato i servizi e le applicazioni che si occupano di mobilità cittadina ed in seguito mi sono rivolto ad un ambito più specifico concentrandomi su servizi e dispositivi rivolti ad un pubblico particolare: ciechi e ipovedenti. Questo mi ha permesso di scoprire una comunicazione che esclude a priori la comunicazione visiva fornendomi interessanti spunti per lo svolgimento successivo del lavoro. Il secondo e il terzo capitolo illustrano il processo che mi ha portato alla definizione del progetto finale. Ho analizzato le diverse fasi illustrando le difficoltà incontrate e i cambi di direzione seguiti per giungere alle proposte definitive e ai primi prototipi funzionanti.
2
Nel quarto e quinto capitolo mostro il progetto nella sua versione definitiva. La prima sezione descrive gli utenti e presenta l’applicazione nel suo scenario d’uso per dare una idea chiara ed immediata delle possibilità offerte dal servizio, del grado di coinvolgimento e del linguaggio che è stato usato. La seconda parte illustra le caratteristiche tecniche del prototipo: le modalità innovative di interazione per la navigazione dell’applicazione e la metodologia utilizzata per la generazione della composizione musicale. Il sesto capitolo è dedicato alle conclusioni e considerazioni sul lavoro svolto. In queste pagine descrivo gli aspetti positivi e quelli che offrono ancora margini di miglioramento e che potrebbero essere affrontati in un futuro progetto. Durante l’intero sviluppo del lavoro ho dovuto compiere scelte che mi hanno portato al presente risultato, ho quindi evidenziato i passaggi che mi avrebbero portato a soluzioni diverse ma altrettanto valide e che potrebbero anch’esse venir riprese in un nuovo lavoro. Il settimo ed ultimo capitolo è un’appendice di ricerca che presenta i progetti che ho deciso di non inserire nel primo capitolo al fine di mantenere la trattazione dell’argomento asciutta e diretta.
1
L’uomo e l’ambiente
1.1 Le città di domani 1.1.1 Senseable City e le città future 1.2 La disabilità come ispirazione 1.2.1 Cecità e interazione 1.2.2 Il gioco come mezzo 1.2.3 Esplorazione sonora 1.3 Conclusioni
1. L’uomo e l’ambiente 1.1 Le città di domani Negli ultimi anni ho avuto la possibilità di abitare in città differenti per dimensioni, storia e cultura. Dalla storica ed immutabile Venezia alla giovane e in cambiamento Berlino. Queste esperienze mi hanno permesso di vivere in contesti stimolanti, immerso in situazioni sociali complesse e molto differenti tra loro. Tutto ciò ha accentuato in me la propensione a considerare ogni città come un ambiente vivo, con una propria personalità bene definita, segnata da un’impronta architettonica e paesaggistica che ne influenza il proprio carattere e quello degli abitanti. Negli ultimi mesi mi sono dedicato ad analizzare l’evoluzione delle città in cui ho potuto vivere, osservando e paragonando le relazioni sociali che vi si instaurano tra le persone e tra gli abitanti e la città stessa. L’ingresso nell’era digitale ha generato un notevole miglioramento nelle comunicazioni: la diffusione di numerosi tipologie di dispositivi mobili, il facile accesso a internet e al trasferimento dati, il notevole miglioramento della velocità di comunicazione hanno enfatizzato lo sviluppo delle città come ambienti dinamici e comunicativi. Il costo limitato di accesso a queste tecnologie ha permesso la loro rapida diffusione ed anche l’espansione
(1) Senseable City Lab è un gruppo di ricerca fondato nel 2004 presso MIT, Massachusetts Institute of Technology. http://senseable.mit.edu/
6
dell’offerta di servizi di cui possiamo godere. Queste evoluzioni hanno portato a un cambiamento repentino delle dinamiche sociali al punto che, attualmente, credo non si possa prescindere dal vedere la città come un ambiente dinamico, sociale e interattivo senza considerare i mutamenti introdotti dall’era digitale: la tecnologia risulta parte integrante del tessuto sociale e comunicativo della città moderna. L’evoluzione è sotto gli occhi di tutti e molti centri di ricerca mondiale, come Senseable City1 di Boston, ne hanno fatto l’essenza del loro lavoro. Il flusso dei dati in tempo reale all’interno della città è divenuto un elemento essenziale per progettare servizi per gli abitanti, instaurare reti di comunicazione, ma anche per programmare e mutare l’aspetto urbanistico della città. Numerosi sono anche i possibili scenari futuri che immaginano le metropoli sempre più interattive e flessibili, in grado di fornire servizi agli utenti e di adattarsi sulla base delle loro esigenze. Le città diventerebbero quindi degli interlocutori intelligenti attraverso le quali gli utenti potrebbero acquisire informazioni o interagire con altri abitanti. In questo modo ogni oggetto che costituirà il nostro habitat potrà essere connesso a reti di informazioni, raccogliere dati e trasmetterli. Attualmente lo stato
1. L’uomo e l’ambiente
“Oggi è interessante vedere che i sistemi di controllo in tempo reale stanno iniziando ad entrare nelle nostre vite. Le nostre città, negli ultimi anni, sono state coperte con reti elettroniche. Stanno diventando computer all’aria aperta”. Ratti Carlo, conferenza TED Architecture that senses and responds
dei lavori nel settore è ancora molto sperimentale e rimane interessante per le possibilità di interazione ancora difficili da immaginare. Le considerazioni iniziali mi hanno permesso di focalizzare meglio l’oggetto del mio lavoro. Ho deciso, quindi, di sviluppare il mio interesse per il mondo delle città, per le relazioni tra uomo e ambiente e per le reti sociali che si instaurano in ambito urbano verso un progetto che metta in contatto gli utenti con l’ambiente cittadino: precisamente creare un servizio che permetta alle persone di interagire con la propria città ricevendo e fornendo informazioni per migliorare la qualità della vita in un ambiente così dinamico. Fin dall’inizio del lavoro ho posto al centro del mio disegno la volontà di evocare una comunicazione poetica ed elaborata: si tratta quindi non di un servizio esclusivamente funzionale ma legato all’aspetto più piacevole e interessante del contatto tra uomo e città. L’ambito definito risulta ancora molto ampio con numerose possibilità di sviluppo, quindi ho deciso di procedere con una approfondita ricerca sui progetti già sviluppati nel settore. Ho cercato di aprire molto il campo di indagine verso idee sviluppate a livello commerciale,
universitario e di ricerca sperimentale per definire meglio l’indirizzo da dare al mio progetto. A questo punto del lavoro i concetti chiave sono quindi diventati: città, servizi e comunicazione. La ricerca mi ha permesso di scoprire molti progetti portati avanti da enti di ricerca e società che si sono dedicati allo studio e alla previsione di come nuove invenzioni, scoperte e applicazioni digitali possano cambiare il nostro modo di vivere le città.
1.1.1 Senseable City e le città future Il Senseable City Lab è un gruppo di ricerca del MIT fondato a Boston nel 2004 da Carlo Ratti, attuale direttore. Fin dagli esordi, grazie alla collaborazione con altri enti, società industriali e grandi città, il laboratorio si è dedicato allo sviluppo di progetti che cercano di delineare le future interazioni all’interno della popolazione e tra abitanti e l’ambiente urbano attraverso la tecnologia. Molti di questi progetti sono tuttora in corso nelle rispettive città di intervento e offrono un interessante punto di partenza per un’analisi sullo stato dei lavori. Nel 2010 il Senseable City Lab ha aperto a Singapore un nuovo dipartimento di ricerca. L’ambito di attività del gruppo è
7
rimasto immutato e ha trovato nella città-stato asiatica un ambiente ricco di stimoli e spunti per progetti mirati. Nello stesso anno venne inaugurato il progetto Live Singapore!2 che si pone il fine di fornire un grande numero di informazioni ai cittadini in tempo reale attraverso una piattaforma aperta, migliorando non solo la viabilità ma in generale la qualità della vita cittadina. Nelle città attuali molte decisioni sul percorso da intraprendere con la propria auto o anche in merito al negozio presso cui recarsi per acquistare un determinato articolo vengono prese sulla base di conoscenze e informazioni statiche che non riflettono lo stato del sistema o le dinamiche reali della città. Contemporaneamente gli enti locali cercano di ottenere sempre più informazioni in tempo reale per ottimizzare nel miglior modo possibile la mobilità all’interno della città. Tuttavia questi dati vengono normalmente mantenuti riservati e gli unici ad averne accesso sono gli enti locali stessi. Il progetto Live Singapore! invece si propone di raccogliere un ampio numero di informazioni sulla metropoli per poi renderle accessibili a tutti grazie a una piattaforma open source. Il fine è quello di creare un circolo di dati che ritornano all’utente e simultaneamente vengono generati dalle azioni dello stesso all’interno della città. Questa mole di informazioni viene raccolta da numerosi sensori e dispositivi mobili privati. Dopo l’elaborazione i dati vengono restituiti agli utenti tramite sei visualizzazioni interattive che gli utenti possono consultare per compiere le proprie scelte in tempo reale e in modo più coordinato con l’attività della città. Ogni schermata analizza un aspetto diverso delle dinamiche metropolitane come: la disponibilità di taxi, la maggiore concentrazione di persone nelle diverse ore del giorno e nelle diverse parti della città, le diverse temperature registrate all’interno dell’area e anche il cambiamento delle dinamiche durante eventi straordinari come concerti o competizione
(2) Singapore Live! (2010) http://senseable.mit.edu/ livesingapore/ (13 ottobre 2011)
8
sportive. Lo stesso concetto statico di mappa è stato ripensato: non si considerano solamente gli aspetti territoriali e le distanze fisiche ma viene introdotto il fattore temporale che deforma la visualizzazione della città in maniera facilmente comprensibile, arricchendo le informazioni disponibili con un solo sguardo. Ritengo questo lavoro degno di nota proprio per la grande importanza che viene data alla raccolta di dati in tempo reale ed alla diffusione libera. Si instaura un rapporto di reiterata e reciproca influenza tra i comportamenti dei cittadini e le dinamiche urbane. Oliver Senn, membro di Senseable City Lab e del gruppo di sviluppo del progetto, ha commentato così questo lavoro: “LIVE Singapore! chiude il ciclo di feedback3 tra le persone che si muovono all’interno della città e le informazioni digitali generate dalle loro azioni.” Questo aspetto costituisce l’elemento di forza del progetto e ha fornito un grande spunto durante la mia fase progettuale. Un altro studio sviluppato presso il Senseable City Lab che vorrei ora citare è CO2GO4. Questo lavoro non è tanto importante per il tema trattato o per il tipo di comunicazione ma per la grande ispirazione che ha dato al mio progetto; in particolare è interessante la metodologia di raccolta dei dati che avviene in maniera automatica e nascosta, senza l’intervento continuo ed attivo dell’utente. Inoltre il sistema con cui è stata creata una rete di utenti e come questi vengano messi in relazione con la città è estremamente interessante e porta a un forte coinvolgimento delle persone e al cambiamento del loro stile di vita. Il tema trattato è quello ecologico e risulta molto attuale. Negli ultimi decenni abbiamo osservato la rapida crescita industriale ed economica di molti paesi che negli scorsi secoli disponevano di una economia limitata e prettamente agricola. Ne è derivato un inurbamento molto accentuato, una crescita dei consumi e conseguentemente
(3) Il feedback è un processo di retroazione all’interno di un sistema dinamico: l’utente riceve informazioni di ritorno per ogni azione compiuta.
(4) CO2GO (2011) http://senseable.mit.edu/co2go/ (13 ottobre 2011)
1. L’uomo e l’ambiente
>
Singapore Live! La mobilità a Singapore è fortemente basata sui taxi che diventano particolarmente ricercati in caso di pioggia. Questa visualizzazione combina i dati di localizzazione delle vetture e le precipitazioni in tempo reale per fornire un servizio più efficente.
9
dell’inquinamento ambientale che si è sommato a quello già prodotto nella società industrializzata occidentale. L’impegno per uno stile di vita più sostenibile è stato riportato all’attenzione di tutti anche se con successi limitati ed alterni. L’interesse ambientale per il territorio è diventato una priorità e viene affrontato con progetti locali da molte città. Le metropoli non possono più tralasciare l’aspetto ecologico e di qualità della vita per i loro programmi di sviluppo industriale, di trasporti e servizi. L’obiettivo è non solo quello di ridurre i consumi e utilizzare mezzi di locomozione più puliti, ma anche di responsabilizzare la popolazione verso comportamenti e stili di vita più sostenibili. In questo segmento si inserisce il progetto CO2GO. Si tratta di un interessante esempio di come l’ampia diffusione di smartphones e tablets5 possa permettere una raccolta di dati capillare per applicazioni su larga o piccola scala. In questo caso sensori come GPS, accelerometro, microfono ed internet raccolgono informazioni per comprendere il mezzo di trasporto che si sta usando. Bus, metro, auto, bici hanno un’impronta sonora, di vibrazioni e di velocità di spostamento differente. Una volta compreso il veicolo utilizzato, l’applicazione CO2GO offre all’utente i dati relativi al CO2 prodotto in quel determinato tragitto. L’utente, conosciuto l’impatto ambientale causato dalle sue scelte, ora può rivolgersi verso un tipo di trasporto più sostenibile. Carlo Ratti, direttore del laboratorio, ha detto riguardo al progetto: “Siamo al centro di questo tipo di rivoluzione tecnologica. I dati ti consentono di prendere decisioni migliori nel caso tu sia il sindaco o un semplice cittadino.” Il servizio, inoltre, non si limita ad informare il singolo utente, ma permette una condivisione dei dati e la comparazione con la media cittadina. In questo modo l’utilizzatore non si sente isolato nella sua azione, ma complice di un sistema che comprende numerosi altri cittadini. Le scelte vengono, quindi, coordinate su ampio raggio senza una direzione centrale e ognuno può percepire il suo contributo o gli aspetti da migliorare nel proprio piano di riduzione dei consumi. (5) Si tratta di dispositivi tecnologici di varie dimensioni che non si limitano a funzioni di telefonia ma permettono di accedere a numerose informazioni e servizi attraverso la rete internet e i sensori integrati.
10
Come si può osservare dall’immagine CO2GO, dopo essere stata avviata, funziona in background captando dati da una serie di sensori.
>
L’immagine mostra lo spettro di vibrazioni raccolte dall’accelerometro: ogni mezzo ha una impronta ben riconoscibile dall’applicazione.
>
Gli utenti possono consultare le diverse schermate per paragonare i propri risultati con la media del sistema o per consultare i tragitti compiuti da altri utilizzatori con le rispettive emissioni.
>
11
> >
Una volta registrata la posizione delle aree attive si può procedere con la digitazione del testo mantenendo le mani nella posizione iniziale. Quando si vuole variare la posizione dei tasti è sufficiente riposizionare le mani e toccare nuovamente lo schermo per registrare le aree attive.
> 12
L’immagine mostra la flessibilità dell’interfaccia della Braille Keyboard. I cerchi colorati identificano le aree attive per la digitazione. La prima volta che le dita toccano lo schermo l’applicazione registra la posizione.
Lo scorrimento del dito sullo schermo consente la navigazione del menù. Per accedere a questa funzione è sufficiente scuotere leggermente dil dispositivo, basta poi passare il polpastrello su una qualsiasi parte dello schermo e una voce guida l’utente attraverso le funzionalità del menù. Il funzionamento risulta ottimale anche se vi è una sovrapposizioni di aree attive.
1.2 la disabilità come ispirazione La strada intrapresa con la mia ricerca nel settore del service design per ambienti urbani mi ha portato ha conoscere il gruppo di ricerca Design Research Lab6. Questo laboratorio è stato aperto nel 2005 a Berlino come parte del Deutsche Telekom Laboratories e della Technical University Berlin. Grazie a una tradizione di ricerca tecnologica, la capitale tedesca ha visto negli ultimi anni confluire un alto numero di designer operanti nel settori del service e interaction design o più in generale il mondo della progettazione ad alto contenuto tecnologico. La presenza in città di un elevato numero di studi di progettazione ed i fondi privati e pubblici hanno permesso la crescita di strutture di ricerca, università e laboratori come Design Research Lab. L’ambito di intervento di questo gruppo spazia in molti settori mantenendo sempre un interesse particolare per progetti sperimentali che cercano di delineare le metodologie di comunicazione future. Con l’apertura del progetto Disability-inspired Interaction Design, un importante settore di ricerca e sperimentazione è diventato quello della comunicazione legata alla disabilità: molti progetti sono rivolti alla realizzazione di dispositivi e servizi per la comunicazione tra persone cieche e sorde. L’intenzione non è solo quella di trovare soluzioni per problematiche consuete, ma di sperimentare e comprendere, per esempio, ciò che le persone vedenti possono imparare dai ciechi o sordi e viceversa. Un filone che va oltre la semplice progettazione ma vuole coinvolgere linguaggi e realtà diverse, fonderle per creare una comunicazione più ricca e condivisa. Ho trovato interessante questo settore per differenti motivi. In prima analisi per provare a esplorare e cercare di offrire differenti soluzioni in un settore dell’innovazione che forse ha bisogno di maggiore attenzione e dedizione. Anche dal punto di vista commerciale, considerando
(6) Design Research Lab, http://www.design-research-lab.org/ (13 ottobre 2011)
1. L’uomo e l’ambiente
l’ampia utenza che si andrebbe a soddisfare, le aziende potrebbero impegnarsi maggiormente nella realizzazione di interessanti dispositivi o applicazioni. Inoltre da un punto di vista di esperienza e conoscenza personale penso sia interessante lavorare a progetti di comunicazione coinvolgenti che non utilizzino la vista come senso principale, soprattutto in un’epoca come la nostra che è stata ribattezzata come “era dell’immagine” e soffre sicuramente di una saturazione di informazioni visive. Ho fatto mio questo argomento portandolo al centro del progetto di tesi e qui di seguito illustro i progetti più interessanti che affrontano sia il rapporto ciechi e ambiente sia le problematiche di interazione dei non vedenti con i dispositivi tecnologici.
1.2.1 Cecità e interazione Un progetto interessante per quanto riguarda l’interazione tra persone cieche e dispositivi tecnologici è il prototipo di Braille Keyboard7 sviluppato presso la Stanford University. Si tratta di un’applicazione per tablets o smartphones che cerca di rendere facile per i ciechi la digitazione su dispositivi tecnologici. Già da tempo esistono tastiere specifiche a nove pulsanti che consentono di scrivere in linguaggio braille e di leggere tramite un riproduttore a punti mobili. Anche se il dispositivo permette una diretta connessione con molti dispositivi digitali la diffusione rimane tuttavia limitata sia a livello pubblico che privato per il costo elevato. La spesa eccessiva di queste apparecchiature ne rallenta tuttora la diffusione in uffici pubblici ponendo una notevole barriera alla integrazione e alla libertà dei ciechi. L’interfaccia dell’applicazione è relativamente semplice e trasferisce il concetto di funzionamento di simili dispositivi analogici su touchscreen8. Invece di utilizzare tasti fisici, questi vengono ricreati sullo schermo dalla posizione delle dita. Non si portano più le dita sui tasti ed
(7) Dharmaraja, Sohan et al., Braille Keyboard (2011) http://www.wired.co.uk/news/archive/2011-10/11/ braille-touchscreen (13 ottobre 2011)
(8) I touchscreens sono schermi digitali la cui superficie è sensibile ed in grado di ricevere input attraverso la digitazione.
13
14
è la posizione dei polpastrelli che definisce le aree attive sullo schermo. Basta poggiare simultaneamente le dieci dita per impostare l’area esatta dei tasti e questa operazione può essere ripetuta facilmente ogni volta che si cambia la posizione delle mani sul dispositivo. Una volta stabilita l’ubicazione dei tasti si può procedere con la digitazione braille in maniera semplice e comoda, guidata da istruzioni vocali che forniscono un riscontro preciso della composizione. La navigazione del menù è possibile grazie al semplice scorrimento di un dito sullo schermo guidato sempre da indicazioni vocali. Per selezionare una voce dall’elenco è sufficiente rilasciare il dito dallo schermo per accedere alla funzione selezionata. Si tratta di un’applicazione molto interessante per diversi aspetti. Permette innanzitutto di trasferire funzioni precedentemente applicate solo a dispositivi molto costosi su apparecchiature largamente diffuse. L’egemonia della comunicazione strettamente visiva della nostra era ci ha portato a sviluppare interfacce grafiche abbastanza rigide, con aree ben definite e visivamente separate. In questa applicazione, diversamente, l’interazione è molto più libera e flessibile. Con il semplice posizionamento delle mani è la persona a strutturare l’interfaccia e può variarla facilmente durante l’utilizzo. Anche le differenti aree con cui normalmente viene strutturata una schermata qui non sembrano rigidamente separate arrivando fino a sovrapporsi. Su uno stesso punto è possibile interagire diversamente a seconda del movimento compiuto. Questi sono gli elementi importanti che andrebbero studiati per arricchire e rendere più piacevoli molte applicazioni anche per persone vedenti. Un tema molto trattato nel design per ciechi è quello del suono. Molti progetti utilizzano l’udito per stabilire una comunicazione tra persone o consentire all’utente di esplorare l’ambiente circostante. Un progetto sperimentale che mi ha permesso di avvicinare questo argomento
Skintimacy è costituito da un circuito elettrico aperto prodotto da Arduino. Il polo positivo e quello negativo sono collegati rispettivamente a due persone. Quando i due utenti si toccano il circuito elettrico si chiude ed Arduino misura la risposta galvanica della pelle. I dati racconti vengono infine inviati ad un software di generazione sonora sul computer che trasforma i valori di resistenza elettrica in onde sonore.
1. L’uomo e l’ambiente
è Skintimacy9, dove la tematica del suono e della musica viene trattata in maniera intima e delicata. Si tratta di una ricerca condotta dal Design Research Lab con lo scopo di esplorare l’importanza del contatto fisico interpersonale evocandola attraverso un dispositivo musicale. Il progetto si compone di una scheda microprocessore Arduino che normalmente produce un campo elettrico aperto, con due poli connessi a due differenti utenti. Quando avviene il contatto tra le due persone il circuito elettrico si chiude e Arduino misura la risposta galvanica della pelle. Il tutto viene infine trasformato attraverso un software di sintesi in diversi effetti musicali. I ricercatori si sono dedicati al progetto con l’obiettivo di esplorare il campo dell’intimità e del tatto che nei dispositivi touchscreen sta avendo oggi un’ampia diffusione nell’interazione uomo macchina (HCI10). Molto interessante è la corrispondenza e la trasformazione di una stimolazione tattile in una sonora. Questo progetto cerca di offrire delle risposte a come l’intimità possa essere vissuta attraverso il suono quando gli esseri umani interagiscono col tatto. I ricercatori hanno inoltre notato che con questo dispositivo i confini del contatto intimo e personale si spostano sensibilmente verso un contesto performativo, dove la sensazione tattile è legata a una elaborazione sintetica. Il tema sonoro e musicale ha stimolato il mio interesse e ho quindi deciso di seguire questa direzione ampliando le mie ricerche. I progetti che seguono sono tutti legati all’esplorazione acustica degli ambienti e della percezione che gli utenti hanno di essi attraverso gli stimoli sonori. Su diversi livelli tutti questi lavori hanno contribuito allo sviluppo finale del mio progetto.
(9) Müller, Alexander, Skintimacy (2011) http://www.design-research-lab. org/?projects=skintimacy (13 ottobre 2011) (10) Con HCI si intende lo studio dell’interazione tra uomo e computer al fine di migliorare la progettazione e dell’usabilità dei sistemi interattivi.
15
>
1.2.2 Il gioco come mezzo Il mondo del gioco da sempre viene preso in considerazione dal settore medicale come metodo di cura, di integrazione e assistenza per pazienti disabili. Anche per quanto riguarda la cecità molti sono i progetti che sono stati sviluppati per affrontare il problema. Il gruppo di ricercatori dell’Università del Cile e dell’Università di Valparaìso si è concentrato sullo sviluppo delle capacità motorie, di orientamento e di coordinazione nei bambini non vedenti. Le ricerche effettuate già negli anni ‘60 evidenziano come i bambini costruiscano la loro coordinazione motoria nei primi anni di vita basandosi sulle proprie esperienze di movimento che il nostro cervello elabora in relazione alle nozioni di tempo, spazio e ambiente circostante, costruendo una ricca struttura di informazioni. Tuttavia se queste capacità non vengono sviluppate completamente si manifestano in seguito lacune nella capacità di orientamento e coordinazione. Questo è un problema rilevante per i ciechi che, nonostante riescano a sviluppare fortemente i loro sensi per sopperire alla carenza della vista, hanno difficoltà a comprendere la loro posizione nell’ambiente compromettendo così la mobilità corporea nello spazio. In questo caso gli studiosi si sono rivolti alla creazione di un tappeto interattivo (Digital Clock Carpet) e di un video game (MOVA3D) con tecnologia audio tridimensionale per aumentare la mobilità nei bambini ciechi11. Il tappeto interattivo è strutturato come un classico orologio analogico dove la posizione delle ore del giorno guida i bambini attraverso un ambiente virtuale ben definito. Il dispositivo è dotato di sensori di pressione che possono facilmente controllare i movimenti. Grazie a questa apparecchiatura i pazienti possono mettere alla prova le proprie capacità motorie liberamente: l’intera esperienza si svolge in un ambiente privo di ostacoli. Questo permette di prendere coscienza del proprio
(11) Sánchez, Jaime et al., “Usability of a Multimodal Video Game to Improve Navigation Skills for Blind Children”, ACM Transactions on Accessible Computing, III:2 (novembre 2010), art. 7
16
corpo, di come ci si possa muovere nello spazio e porta all’apprendimento di movimenti precisi e sicuri in un ambiente privo di riferimenti fisici. Il sistema è completato dal video gioco MOVA3D che fornisce indicazioni sonore spaziali che guidano i bambini all’interno di un gioco virtuale. Essi devono esplorare l’ambiente e ritrovare alcuni oggetti che vanno riportati in un’area definita all’interno del gioco, superando ostacoli e difficoltà. L’obiettivo di portare a termine delle missioni stimola i bambini ad immergersi nell’esperienza e a muoversi con estrema precisione. Il progetto Demor12 sviluppato presso la HKU University di Utrecht, basandosi sempre su una interazione ludica, affronta invece la problematica dell’integrazione delle persone non vedenti nella società. Si tratta di un gioco di guerra da svolgersi all’aria aperta, basato su uno scenario apocalittico dove i giocatori sono dotati di un equipaggiamento (computer portatile, GPS, sensore di movimento, audiocuffie e joystick) che permette loro di creare una rete interattiva e di calarsi maggiormente nel personaggio. In uno scenario immaginario pensato per il 2066 il mondo è abitato da cloni che vogliono eliminare la razza umana. Lo scopo del gioco è quello di eliminare i cloni e riportare l’equilibrio nelle varie colonie nel mondo virtuale. Le informazioni spaziali sono fornite da una colonna sonora che varia a seconda del posizionamento spaziale dei giocatori ma anche sulla base dell’avanzamento del gioco. L’aspetto di maggiore interesse consiste nelle pari opportunità offerta alle persone vedenti e non vedenti nel partecipare all’azione. Questo possiamo definirlo come un interessante esperimento di integrazione che mette in luce le capacità di orientamento dei ciechi in un gioco basato su un livello paritario di azione.
(12) Hulskamp, Arnout, Demor (2004) http://student-kmt.hku.nl/~g7/site/index_.html (13 ottobre 2011)
Fasi di gioco all’aria aperta di Demor. L’impiego di attrezzatura ingombrante per i dispositivi di mobilità assistita potrà in futuro essere superato grazie a nuove tecnologie, tuttavia in questo caso è stato usato sapientemente per coinvolgere il bambino nell’atmosfera di gioco.
1. L’uomo e l’ambiente
>
17
> Interactive 3D Sonification for the Exploration of City Map, esempio di ricostruzione sonora basato su mappa digitale per la città di Brussel.
1.2.3 Esplorazione sonora Di grandissima importanza è la ricerca affrontata presso Institute for Information Technology di Oldenburg in Germania, dal titolo: Interactive 3D Sonification for the Exploration of City Maps13. I ricercatori hanno trattato il problema della mobilità dei ciechi osservando la loro difficoltà ad esplorare aree territoriali nuove senza un adeguato accompagnamento. Per le persone vedenti è relativamente facile oggi orientarsi in ambienti sconosciuti e città nuove, non solo grazie ai riferimenti visivi, ma anche con l’utilizzo di mappe digitali e non che oggigiorno sono facilmente accessibili. Per una persona cieca il concetto di mappa è diverso e noi dobbiamo fare uno sforzo per comprenderlo. Questo è quello che hanno cercato di fare i ricercatori provando ad esplorare l’utilizzo delle mappe digitali da parte dei non vedenti. Vi sono molti progetti di ricerca che si pongono l’obiettivo di fornire una mobilità indipendente alle persone non vedenti e spesso pongono le loro basi sui sistemi di navigazione che oggi vengono largamente usati sui dispositivi mobili. Questi software sono perfettamente in grado di guidarci da un punto ad un altro, entrambi selezionati su una mappa, indicandoci dove girare,
(13) Heuten, Wilko et al., “Interactive Exploration of City Maps with Auditory Torches”, CHI 2007. Interactivity (2007), pp. 1959-1964
18
quando procedere e quando arrestarci. Sistemi molto utili, ma che spesso possono diventare noiosi, fastidiosi e talvolta limitati. Inoltre non ci forniscono nessuna informazione, o lo fanno in maniera riduttiva, rispetto al mondo circostante. Essi lavorano come un autista semplicemente concentrato sul tragitto che trascura il ricco ambiente che lo circonda. I ricercatori hanno riflettuto su questo problema e hanno tentato di offrire un nuovo servizio di lettura delle mappe digitali che può essere sfruttato anche non in loco. L’esplorazione della mappe viene elaborata da un software che trasforma l’ambiente in un ambiente sonoro. Ogni oggetto, area e edificio viene mutato in un suono che ne rispecchia le caratteristiche fisiche. La distanza e la dimensione vengono inoltre riprodotte tramite modulazione di volume o tono. La riproduzione audio tridimensionale arricchisce la resa spaziale e permette di localizzare gli edifici nello spazio con grande precisione. Le risposte degli utenti durante i test sono state molto incoraggianti e aprono interessanti possibilità per miglioramenti: un nuovo concetto di realtà aumentata14 basato sulle esigenze dei non vedenti. Una possibilità di interagire maggiormente con il software e di conseguenza con
(14) Con realtà aumentata si intendono i sistemi che forniscono informazioni a livelli sovrapposti alla visione ambientale. Sono fruibili su dispositivi digitali.
1. L’uomo e l’ambiente
>
Aura è un progetto che fa riflettere sulla proprietà e il consumo degli spazi pubblici grazie a un paesaggio sonoro che si degrada ogni volta che lo si attraversa.
l’ambiente esterno con più consapevolezza e maggiore indipendenza nell’esplorazione di ambienti nuovi. Un altro progetto molto interessante è Aura15, sviluppato per il SID, Sonic Interaction Design, da Steve Symons. Presenta alcuni punti in comune con il lavoro svolto presso l’università di Oldenburg, specialmente per quanto riguarda il ruolo rivestito dalla città e dalla mobilità degli utenti all’interno di essa. Tuttavia non si tratta di un progetto rivolto a persone cieche e l’approccio è molto più artistico-sperimentale. Aura permette alle persone di esplorare liberamente la città e ascoltare attraverso le cuffie il paesaggio sonoro che le circonda. Il percorso seguito dal singolo utente viene inoltre registrato tramite un dispositivo GPS e comparato con quello delle altre persone coinvolte. Quando ci si trova ad attraversare o ad esplorare un area già percorsa da altri utenti il suono riprodotto attraverso le cuffie risulta improvvisamente distorto. Non si tratta sicuramente di un progetto rivolto in maniera specifica ai ciechi, ma trovo comunque interessante l’utilizzo della sonificazione per trasmettere un messaggio importante che cerca di far riflettere sul concetto di proprietà e di consumo degli spazi pubblici. Degno di nota è anche l’approccio per la comunicazione
(15) Symons, Steve Aura (2007) http://sid.bek.no/ works/11-aura-the-stuff-that-forms-around (5 febbraio 2012) (16) Morita, Satoshi Sonic Helmet (2008) http://sid. bek.no/works/8-sonic-helmet (5 febbraio 2012)
musicale utilizzato nel progetto Sonic Helmet16 di Satoshi Morita, sempre sviluppato per il SID ed esposto presso il Museo Norvegese di Scienza, Tecnologia e Medicina di Oslo17. In questo caso il progettista ha cercato di approfondire la comunicazione sonora realizzando un casco che permette di ascoltare elaborate composizioni realizzate in maniera specifica per questo dispositivo. Il suono viene trasmesso tridimensionalmente ed è arricchito da un sistema vibrotattile che agisce sul capo. Penso sia importante sottolineare la cura posta nello sviluppo completo di un dispositivo capace di trasmettere messaggi così raffinati. Si tratta di aspetti non ovvi e banali che nella comunicazione sonora o tattile spesso vengono trascurati. Entrambi i progetti si presentano come riflessioni artistiche su argomenti diversi ma sono da segnalare per la grande importanza riservata alla comunicazione sonora e non visiva nel veicolare messaggi complessi. Family Album of Sound Memories18 è un altro significativo progetto che si basa sull’esplorazione sonora e offre un notevole coinvolgimento emotivo. In questo caso non si tratta di un’esplorazione ambientale intesa come navigazione o mobilità all’interno di uno
(17) Sonic Interaction Design è stata un’esposizione tenutasi presso il museo Norvegese di Scienza, Tecnologia e Medicina di Oslo dal 29 Maggio al “1 Agosto 2011. I progetti esposti esploravano le possibilità di comunicazione attraverso il linguaggio
sonoro puntando sulle qualità estetiche ed emozionali in un contesto interattivo. (18) López, Benjamín Family Album of Sound Memories(2011) http://www.benjaminlopez.net/familyAlbum.html (5 febbraio 2012)
19
spazio, ma di rivivere attraverso i suoni ricordi legati ad ambienti familiari. Si tratta quindi di un vero album che non si fonda su una comunicazione visiva ed utilizza i suoni per vivere una nuova esperienza di rievocazione largamente condivisa. Il progetto risulta coinvolgente per persone vedenti e non e permette di immergersi in un piacevole contesto sonoro. La novità che un’esperienza simile può portare a una persona vedente meno educata a questo tipo di comunicazione può essere sicuramente notevole o anche produrre un coinvolgimento maggiore rispetto a una persona cieca. L’interfaccia tangibile inoltre permette una partecipazione ancora più forte, come se il ricordo si potesse veramente toccare con mano. Il dispositivo è connesso con il computer che fornisce tutte le memorie sonore e la riproduzione audio. I ricordi sono rappresentati da diversi elementi che possono essere inseriti all’interno del dispositivo. Tramite un movimento rotatorio si può selezionare l’esperienza che si vuole rivivere. Una volta scelta, è possibile entrare in un secondo e più profondo livello di immersione grazie alla navigazione dell’ambiente sonoro. Basta poggiare la mano sul dispositivo e inclinarlo secondo le direzioni cardinali per isolare i singoli suoni e ripercorrerli nel dettaglio, rievocando i più piccoli e dettagliati ricordi. Un progetto notevole che pone i suoni come potentissimi mezzi di comunicazione per esperienze emotive e coinvolgenti.
Family Album of Sound Memories è costituito da un dispositivo elettronico su cui si possono inserire gli album tangibili che contengono le registrazioni dei ricordi. Per selezionare la memoria sonora da rievocare è sufficiente ruotare l’elemento inserito e ascoltare le anteprime audio. Un volta selezionata la traccia basta poggiare la mano sulla piattaforma per esplorare il ricordo nella sua interezza grazie ad un effetto audio tridimensionale. L’interazione con il dispositivo permette una forte tangibilità delle memorie evocate attraverso il suono.
20
>
1. L’uomo e l’ambiente
21
22
1.3 Conclusioni La ricerca è stata particolarmente interessante e produttiva su ogni fronte: entrambe le sezioni dedicate al mondo cittadino e agli utenti con problemi visivi hanno decisamente ampliato la mia conoscenza degli orizzonti della comunicazione. Per quanto riguarda il gruppo di progetti che pongono al centro la relazione tra uomo e città bisogna sottolineare come la maggior parte di essi sia incentrata sul fornire servizi pensati per migliorare la viabilità, gli spostamenti e il flusso di dati utili per migliorare la sincronia degli elementi che interagiscono all’interno del sistema città. L’aspetto fondamentale ruota quindi attorno agli aspetti funzionali e di efficienza, con particolare attenzione per la riduzione dei tempi della mobilità cittadina. Sono sicuramente meno i progetti che pongono l’interazione tra persone e ambiente al centro di una elaborazione e una comunicazione artistica, poetica, rivolta al tempo libero, allo svago e più in generale a un servizio non strettamente funzionale: due esempi ci vengono forniti da Aura e Sonic Helmet. La sezione dedicata al mondo dei ciechi mi ha permesso comprendere in maniera molto evidente quali possano essere le difficoltà quotidiane affrontate da queste persone e come la comunicazione su grande scala sia impostata su base visiva e quindi rivolta esclusivamente alle persone vedenti: diventa accessibile ai ciechi grazie all’uso di alcuni dispositivi che permettono un adattamento. La comunicazione visiva dispone sicuramente di numerosi linguaggi e la grande raffinatezza e precisione che si riesce ad ottenere nel messaggio ne hanno fatto nei secoli il canale per lo scambio di informazioni più evoluto. Con l’ingresso nell’era digitale la tendenza non è cambiata e gli investimenti delle grandi società si sono rivolti essenzialmente alla comunicazione visiva attraverso dispositivi sempre veloci ed efficienti. In un simile contesto
1. L’uomo e l’ambiente
i vari sensi che intervengono normalmente in una comunicazione diretta o indiretta vengono trascurati a favore della vista. Il contatto non è precluso ma sicuramente meno ricco e privo di un ampio spettro di sensazioni che possono rendere la comprensione più facile e piacevole. Il linguaggio che si è andato a definire negli ultimi anni all’interno del mondo web e delle applicazioni cerca di ricalcare graficamente gli aspetti tangibili del mondo reale, usando come riferimenti griglie tipografiche, tastiere e pulsanti. In futuro l’evoluzione tecnologica porterà sicuramente notevoli innovazioni, colmando lacune sensoriali e rendendo più piacevoli e complete le interazioni. La situazione attuale risulta invece evidente dalla ricerca e dalle considerazioni qui sopra esposte. Partendo da questo punto ho deciso di puntare con il mio progetto all’interno di un sistema molto consolidato con lo scopo di provare a rendere l’esperienze di comunicazione più complete e interessanti utilizzando i dispositivi ora disponibili.
23
2
Prime idee progettuali 2.1 Raccogliendo le idee 2.2 Il punto di partenza 2.3 I primi passi 2.4 pensare alL’interazione 2.5 Proposte di interazione 2.5.1 Interazione: dito 2.5.2 Interazione: mano 2.5.3 Interazione: testa
2. Prime idee progettuali 2.1 Raccogliendo le idee Vorrei iniziare questa sezione con una breve sintesi del processo di progettazione esposto nei paragrafi successivi. L’evoluzione del progetto è stata molto articolata e questo riepilogo ne evidenzia i passaggi salienti per meglio comprendere il suo sviluppo. Nella prima fase che è seguita alla ricerca mi sono soffermato a raccogliere le idee per decidere il percorso da intraprendere con il progetto. Le problematiche evidenziate mi hanno stimolato ad affrontare il tema della cecità con la realizzazione di un lavoro innovativo restando nell’ambito dei dispositivi mobili (smartphones e tablets) già presenti sul mercato ed ampiamente diffusi. Non ho quindi previsto la creazione di un’apparecchiatura specifica per gli utenti con problemi visivi ma ho voluto avvicinare questi alle tecnologie disponibili elaborando dei nuovi metodi di interazione. Nella seconda fase sono tornato a toccare gli argomenti esposti nel primo capitolo combinandoli con le metodologie di comunicazione specifiche per utenti ciechi al fine di definire il concept iniziale del progetto. Mi sono quindi concentrato sullo sviluppo di un’applicazione per smartphone che fosse dedicata a utenti ciechi e vedenti,
26
e che permettesse di stabilire un contatto tra persone e ambiente. Ho scelto di concentrarmi sulla comunicazione sonora e nello specifico musicale con particolare attenzione verso la poeticità e la raffinatezza del messaggio. Inizialmente l’applicazione si configurava quindi come un servizio geolocalizzato, funzionante in tempo reale, in grado di trasformare l’ambiente circostante in una composizione musicale. La funzione era di svago e piacere, ma anche di navigazione e di sostegno all’orientamento. Nella fase successiva ho cercato di delineare la struttura dell’applicazione e quindi di formulare delle nuove proposte di interazione tra utente e dispositivo per la gestione dell’applicazione. Le soluzioni erano pensate per porre sullo stesso piano persone cieche e non, fornendo ad entrambe un facile utilizzo senza il supporto di comunicazione grafica. Nella quarta fase ho avuto modo di confrontarmi in maniera più intensa con i centri di ricerca dedicati alle persone con problemi visivi. Dopo le iniziali risposte incoraggianti ho avvertito alcune perplessità sul possibile funzionamento del servizio. Tuttavia ho ritenuto comunque valido il lavoro svolto e ho scelto di riconfigurare l’utenza finale del mio progetto senza sconvolgerlo.
Ho così escluso il profilo funzionale e di orientamento enfatizzando l’aspetto di svago e piacere dell’applicazione. Ho ridefinito gli utenti nell’ambito musicale ma ho mantenuto centrale l’innovativa interazione per consentire il facile accesso al servizio a tutte le persone, ponendo ciechi e vedenti sullo stesso piano. Nell’ultima fase ho seguito gli sviluppi portati dal nuovo orientamento e ho riconsiderato le mie posizioni sull’utilizzo della comunicazione visiva. Ho quindi elaborato un’interfaccia grafica e ho proseguito con le prime sperimentazioni di generazione musicale. Alla fine di questo processo si potrà quindi definire l’applicazione come un servizio di svago e intrattenimento rivolto a musicisti, compositori e amanti della musica. Il funzionamento è basato sulla geolocalizzazione in tempo reale e sull’analisi dell’ambiente cittadino che circonda l’utente. La musica viene generata trasformando le informazioni spaziali della zona circostante e può fornire un interessante spunto creativo per compositori o un semplice mezzo di svago per amanti della musica.
2. Prime idee progettuali
2.2 Il punto di partenza La ricerca svolta mi ha messo in contatto con il mondo dei ciechi e mi ha fornito molti spunti, ha posto le basi per lo sviluppo del progetto. A questo punto del processo il concept del progetto stava prendendo forma e l’ambito stimolante mi ha incoraggiato a inserire dei vincoli per mantenere il lavoro in un campo sperimentale e innovativo. Quanto osservato durante la ricerca, soprattutto per quanto riguarda i dispositivi mobili e le applicazioni, mi ha persuaso a pormi fin dall’inizio l’obiettivo di migliorare l’interazione e il contatto tra gli utenti e l’ambiente esterno coinvolgendo le possibilità sensoriali trascurate. Per questo scopo la comunità dei ciechi può essere vista come target di riferimento ma anche solo come un fornitore di informazioni e esperienze. Il progetto si è quindi configurato nel modo seguente: • Utilizzare dispositivi mobili esistenti sul mercato o disponibili in un futuro prossimo. • Realizzare un prodotto ispirato al mondo dei ciechi e ipovedenti con il quale sperimentare nuove possibilità di interazione in grado di colmare le attuali lacune.
27
Silicon Touch è un progetto del designer Bruno Fosi, costituito da un rivestimento in silicone che copre l’intero dispositivo. La copertura oltre a proteggere lo smartphone dagli urti è dotata, sul lato che riveste lo schermo, di icone incavate e tastiera incisa con alfabeto Moon. Questo prodotto consente un facile utilizzo dello schermo tattile e di numerose applicazioni alle persone cieche.
>
• Coinvolgere altri sensi escludendo o ridimensionando l’importanza della comunicazione visiva. • Sviluppare una comunicazione non visiva di qualità non solo funzionale ma anche raffinata e poetica. • Testare ed espandere queste tipologie di interazione ad un target di popolazione più ampio (non solamente ciechi e ipovedenti). Questi capisaldi mi hanno permesso di definire meglio la natura del mio progetto. La questione riguarda innanzitutto la realizzazione di un servizio che deve essere utilizzato in tempo reale durante gli spostamenti all’interno della città e quindi con un dispositivo portatile o una applicazione per smartphone. Le mie prime ipotesi hanno considerato la possibilità di veicolare le informazioni utilizzando diversi sensi, specialmente tatto e udito compatibilmente con la tecnologia disponibile. Ho pensato quindi alla possibilità di creare un’apparecchiatura interattiva indipendente o che fungesse da periferica collegata a un dispositivo mobile di produzione commerciale come uno smartphone o un tablet. Sono diversi i progetti già sviluppati che percorrono questa strada: Silicon Touch1 è una custodia in
(1) Fosi, Bruno Silicon Touch http://www.yankodesign.com/2008/12/01/this-iphone-is-touchier-thanmost/ (5 febbraio 2012)
28
silicone realizzata per iPhone che ricopre l’intero dispositivo. Il lato a contatto con lo schermo ha incise alcune icone e tasti in caratteri Moon2. L’intero apparato permette il facile utilizzo del dispositivo da parte di utenti ciechi senza l’uso di lettori di schermo fornendo una utile risposta tattile all’interazione. Dopo le prime ipotesi sono passato a considerare molto interessante la sfida offerta dalla limitazione del progetto ai soli smartphones e tablets già ampiamente diffusi: l’obiettivo è quello di creare un’applicazione per dispositivi mobili che sfrutti un nuovo linguaggio e una nuova interazione, cercando di risolvere alcuni problemi che oggi devono affrontare gli utenti ciechi e ipovedenti per utilizzare queste tecnologie. Ho scelto quindi di concentrarmi sull’interazione gestuale e sulla comunicazione musicale, la quale può offrire ampie possibilità di sperimentazione rimanendo accessibile da praticamente tutti i dispositivi mobili.
(2) L’alfabeto Moon è un insieme di caratteri a rilievo che si basa sull’alfabeto romano semplificato.
Consente la lettura alle persone cieche ed è più facile ed immediato del Braille. Venne realizzato da Dr. William Moon nel 1843
> 2.3 I primi passi Dopo aver fatto chiarezza e delineato i capisaldi del progetto sono passato ad elaborare le proposte progettuali. Inizialmente non mi è stata subito chiara l’impronta da dare al progetto: più funzionale e di navigazione o legata all’intrattenimento, al piacere dell’ascolto e del passeggiare liberamente per la città. Dopo una fase iniziale di brainstorming3 ho deciso di intraprendere con più decisione la seconda via: progettare un’applicazione musicale utilizzabile per svago o piacere, mantenendo come aspetto secondario quello di funzionalità di navigazione. In questo modo ho potuto affrontare con più decisione lo sviluppo elegante ed elaborato della comunicazione musicale mantenendo in fase di momentaneo stallo l’aspetto di guida, nell’attesa di ricevere maggiori informazioni e valutazioni di fattibilità da parte delle associazioni di ciechi e ipovedenti, maggiori destinatari di questa seconda finalità. In funzione della strada intrapresa sono passato a ipotizzare alcuni contesti d’uso dell’applicazione. Oggi, quasi tutti i dispositivi mobili sono dotati di telecamera, numerosi sensori e connessione internet. Tutte queste funzioni vengono combinate per fornire una
(3) Il brainstorming (letteralmente dall’inglese: tempesta cerebrale) è una tecnica di creatività di gruppo per far emergere idee volte alla risoluzione di un problema. http://it.wikipedia.org/wiki/Brainstorming
2. Prime idee progettuali
Il progetto SIri è stato presentato nel 2011 dalla Apple e offre una rivoluzionaria interazione vocale per la comunicazione tra uomo e dispositivo. L’utente può impartire comandi o richiedere servizi al dispositivo in maniera vocale senza dover interagire con il tocco sullo schermo. Si instaura un dialogo con il software lasciando l’utente libero di svolgere altre attività e contemporaneamente utilizzare il dispositivo.
ampia scelta di servizi. Ad esempio, durante i nostri viaggi siamo soliti scattare fotografie dei luoghi che visitiamo per portarci a casa ricordi e immagini piacevoli, ma possiamo anche elaborarle o pubblicarle in tempo reale sui social network. Su questa linea di pensiero va segnalato il progetto Siri4 di Apple che combina diverse tecnologie disponibili sugli attuali smartphone per elaborare una innovativa modalità di interazione. Anche se il software non è stato pensato esclusivamente per le persone cieche i vantaggi per quest’ultime sono stati notevoli. L’applicazione si basa sul riconoscimento vocale e permette agli utenti di interagire completamente con il dispositivo senza alcuna interazione gestuale o tattile. Il processo di lettura vocale è stato perfezionato molto rispetto ai normali lettori presenti sul mercato e ne ha fatto un prodotto estremamente solido e funzionante. La stabilità e la flessibilità del riconoscimento vocale hanno trasformato quest’applicazione in un vero e proprio assistente personale con cui si può parlare direttamente per impartire ordini, chiedere informazioni e accedere alle funzioni offerte dal dispositivo (mandare mail, messaggi, attivare sveglia, inoltrare chiamate). Seguendo questo filone ho pensato che la trasformazione
(4) Siri http://www.apple.com/iphone/features/siri. html (5 febbraio 2012)
29
dell’ambiente circostante in composizione musicale si sarebbe potuta arricchire con una maggiore libertà per l’utente di interagire con l’ambiente e magari anche di collezionare e condividere le esperienze. La struttura iniziale con cui ho pensato di organizzare l’applicazione si compone di tre macro sezioni: esplorazione in tempo reale (funzione principale), archivio con passate registrazioni, network per condivisione di registrazioni con altri utenti. Questa prima configurazione mi ha portato ad affrontare le seguenti problematiche: • Creare una nuova tipologia di interazione tra utente e smartphone per navigare all’interno dell’applicazione. Questa deve rispondere alle esigenze degli utenti ciechi e ipovedenti, ma anche di tutti gli altri utilizzatori che volessero usare l’applicazione senza dover costantemente tenere lo sguardo sullo schermo (eyes-free interaction5) • Ideare un linguaggio non visivo capace di trasformare le informazione ambientali in forma musicale.
2.4 Pensare all’interazione Durante la fase iniziale di progettazione ho sperimentato numerose tipologie di interazione innovativa: in primo luogo ho scelto di eliminare completamente l’interfaccia grafica per riuscire a elaborare un metodo nuovo e valido di comunicazione che sfrutti a pieno le potenzialità del suono, rinunciando così alle facili soluzioni grafiche il cui utilizzo sarebbe difficile per ipovedenti e praticamente impossibile per ciechi se non con l’uso di lettori di schermo. Anzi, per gli utenti con difficoltà visive ho tratto la convinzione che l’uso di complessi sistemi ausiliari per la navigazione, come i lettori di schermo, non sia una soluzione consona ma piuttosto una scelta di ripiego. In questo senso si può capire l’importanza dell’elaborazione di una
(5) Eyes-Free è una tipologia di interazione che consente l’utilizzo delle applicazioni su smartphone senza l’impiego obbligatorio della vista.
30
nuova interazione semplice e diretta per gli utenti, che metta sullo stesso piano vedenti, ciechi e ipovedenti e che quindi prescinda dall’uso della comunicazione visiva come canale principale. In secondo luogo bisogna anche sottolineare che “l’era dell’immagine” che stiamo vivendo ha portato a un notevole inquinamento visivo a discapito anche dell’effettiva percezione dell’informazione. In un simile contesto la scelta di escludere l’uso di un’interfaccia grafica va visto come esempio di critical design, al fine di far riflettere in maniera provocatoria sulle possibilità offerte dalla comunicazione sonora, anche se una esclusione così netta non sarebbe del tutto necessaria. Negli ultimi anni sono stati proposti numerosi studi per valutare e migliorare l’accessibilità dei dispositivi touchscreen, pubblicazioni che mi sono state di grande utilità per la progettazione. Nel 2009 il dipartimento di informatica dell’Università di Glasgow ha pubblicato un interessante esperimento che tratta le problematiche di accessibilità dei dispositivi tecnologici da parte di persone con problemi visivi6. La ricerca presenta inizialmente alcuni test di usabilità svolti su diversi tipi di lettori cd e mp3 con interfaccia classica e tasti a rilievo. Gli esperimenti consistono nel compiere alcune sequenze di azioni e sono stati svolti da utenti vedenti bendati. I risultati ottenuti hanno evidenziato gli errori occorsi durante l’utilizzo, le problematiche e i punti di forza di ogni sistema. Questi dati sono una valida base di paragone per i successivi esperimenti con dispositivi touchscreen. L’esito della comparazione ha messo in evidenza una chiara semplicità di utilizzo dei dispositivi con interfaccia classica usando come riferimento il numero di errori e la velocità nello svolgere i compiti. Per selezionare una canzone, passare al brano seguente, azionare e sospendere la riproduzione, tornare alla traccia precedente e trovare l’ultimo brano i risultati sono stati migliori come tempi e numero di sbagli sui
In questo modo si consente la navigazione dei software sia a ciechi sia a persone vedenti ma impossibilitate da circostanze particolari
(6) McGookin, David et al., “Investigating Touchscreen Accessibility for People with Visual Impairments“, (2009)
2. Prime idee progettuali
I grafici evidenziano i risultati ottenuti dalla ricerca “Investigating Touchscreen Accessibility for People with Visual Impairments”.
dispositivi con pulsanti classici. Si sono riscontrati anche errori ricorrenti durante l’uso dei dispositivi touchscreen come la difficoltà nel capire la propria posizione del dito sullo schermo, una risposta troppo veloce del dispositivo in caso di tocchi accidentali o esplorazione dello schermo col dito e infine un gran numero di errori di interpretazione di gesti dell’utente. I ricercatori hanno concluso il lavoro con le interviste agli utenti e la definizione di alcune interessanti linee guida per l’accessibilità dei dispositivi touchscreen: • Cercare di evitare l’uso di gesti brevi (come ad esempio il singolo tocco sullo schermo tap) per impartire comandi all’applicazione; in molti casi si può andare incontro a comandi involontari o errori di interpretazione. • Non utilizzare comandi, tocchi o gesti con una localizzazione precisa sullo schermo o, nel caso in cui fosse assolutamente necessario, dare un punto di riferimento spaziale rispetto ai bordi dello schermo. • Fornire un tasto tattile che identifichi velocemente e senza errori la pagina iniziale.
• Utilizzare tasti con forma differente, dimensione adeguata e distanza sufficiente per non destare confusione. • Fornire un feedback per ogni azione svolta in modo da rendere chiara la posizione all’interno dell’applicazione durante la navigazione. Altre ricerche, come quella svolta presso il dipartimento di ingegneria informatica dell’Università di Washington7, mi hanno fornito interessanti spunti per lo sviluppo del mio lavoro. Il progetto Slide Rule consiste in un sistema studiato appositamente per migliorare l’interazione dei ciechi con i dispositivi touchscreen. Questi sono i principi definiti dai ricercatori: • Lasciare la libertà all’utente di esplorare con le dita l’intera superficie dello schermo senza rischiare di inviare comandi indesiderati all’applicazione. • Lavorare alla creazione di un’interfaccia proporzionata alle dita dell’utente e non alle dimensioni dello schermo del dispositivo. • Ridurre la richiesta di precisione e accuratezza nel tocco per accedere alla funzione desiderata.
(7) Kane, Shaun K. et al., “Slide Rule: Making Mobile Touch Screens Accessible to Blind People Using Multi-Touch Interaction Techniques”, (2008)
31
Il progetto WUW - Wear ur world - A wearable gestural interface, sviluppato presso il Media Lab del MIT di Boston, costituisce un interessante esempio di interazione con i dispositivi tecnologici. Nonostante l’oggetto del progetto non sia legato a uno smartphone si può osservare come alcuni gesti ben definiti permettano di interagire facilmente con dispositivi tecnologici senza dover ricorrere alla digitazione su schermo o tastiera.
32
2.5 Proposte di interazione In primo luogo ho deciso di elaborare alcune proposte di interazione partendo dalla mia esperienza diretta su diversi tipi di smartphones. I differenti sistemi operativi disponibili sul mercato utilizzano diversi sistemi di organizzazione delle informazioni: in alcuni casi le pagine che raggruppano le applicazioni o le funzioni del telefono possono essere consultate e sfogliate orizzontalmente, mentre altre volte verticalmente. Entrambe le tipologie offrono vantaggi e svantaggi. Tuttavia per quanto riguarda il mio progetto ho deciso di organizzare i dati secondo una navigazione con menù orizzontali al fine di rendere più semplice la consultazione impugnando lo smartphone con una sola mano e navigando con il movimento verso destra o sinistra del dito pollice. Questo tipo di interazione si sposa perfettamente con la mia tipologia di applicazione che potrebbe essere utilizzata in maniera molto veloce e diretta anche in situazioni disagevoli o senza guardare direttamente lo schermo mantenendo, per esempio, il dispositivo e la mano all’interno della tasca del giubbotto. Sono passato così a formulare dei semplici test di usabilità e a svolgerli personalmente per confermare la tesi: i risultati sono stati positivi e hanno evidenziato anche una ottima comodità di utilizzo in relazione alla normale impugnatura che si ha di questi dispositivi. Il problema di elaborare una interazione semplice e facile da utilizzare ha in ogni caso avuto bisogno di una trattazione ancora molto ampia. Le successive questioni che hanno destato la mia attenzione sono state il problema di fare chiarezza nei comandi e nei gesti utilizzabili senza causare interpretazioni sbagliate da parte del dispositivo e di avere una reazione tocco-schermo tale da lasciare l’utente libero di esplorare e comprendere la propria posizione sul dispositivo per poi procedere con le scelte desiderate.
2. Prime idee progettuali
Quando ho iniziato ad affrontare il problema dell’interazione con il dispositivo ho notato che quasi tutte le ricerche precedenti avevano evidenziato la facilità di errore dei gesti dell’utente ma si erano limitate a fornire soluzioni legate esclusivamente all’ambito dello schermo. La mia ipotesi invece è stata quella di allargare le possibilità gestuali al di là dello schermo, considerando il dispositivo nella sua interezza ed inserendo, inoltre, alcune periferiche. In questo modo sarebbe possibile ottenere pochi e chiari gesti distribuiti su più canali per cercare di ridurre considerevolmente gli errori. Per esempio la navigazione all’interno delle voci del menù potrebbe essere svolta tramite il movimento dell’intero dispositivo secondo diverse direzioni mentre la vera e propria selezione potrebbe rimanere legata al tocco sullo schermo. Questo esempio ci permette di capire come la suddivisione delle due funzioni elimini le possibilità di interpretazione del tocco (selezione o navigazione) rendendo più sicuro l’uso dell’applicazione soprattutto in situazioni in cui la vista non può intervenire in funzione di supervisione. Sono riuscito ad elaborare tre differenti tipi di interazione che presentano una struttura e alcune funzioni in comune. Innanzitutto ho provato ad analizzare la composizione di una classica relazione tra utente e dispositivo e l’ho scomposta in tre grandi sezioni: avvio-selezione, navigazione, feedback. Dopo aver identificato questi tre elementi ho assegnato ad ognuno di loro dei gesti ben distinti e distanti, in modo da creare una interazione semplice e chiara che riduca il numero di errori. Dopo aver raccolto questi elementi sono passato ad elaborare tre differenti proposte per la navigazione dell’applicazione e l’interazione con il dispositivo. Le illustro qui di seguito nei dettagli.
33
Con la prima proposta si entra nell’applicazione e questa rimane in una condizione di attesa finché non si decide effettivamente di interagire col dispositivo. Toccando lo schermo si attiva la comunicazione (fase di avvio) e l’applicazione ci guida tramite suoni direzionali (funzione di feedback) per la selezione delle funzioni. Va sottolineato che è possibile toccare in qualsiasi parte dello schermo ed è l’interfaccia ad adattarsi alla nostra posizione di tocco. Sempre tenendo il dito sullo schermo e spostandolo in direzione di uno dei suoni riprodotti (destra o sinistra) il volume varia a seconda della funzione selezionata sul menù. A questo punto si può staccare il dito dallo schermo e successivamente ritornare a esplorare il menù oppure toccare due volte in sequenza per entrare nella voce prescelta (fase di selezione).
Nel secondo caso le fasi di avvio-selezione e feedback rimangono invariate. Per quanto riguarda la navigazione invece ho introdotto un’interazione molto più istintiva e libera. Invece di utilizzare lo spostamento del dito sullo schermo ho provato a coinvolgere il movimento dell’intero dispositivo per ridurre il numero di errori come indicato in precedenza. Ruotando naturalmente il dispositivo verso destra o sinistra si può quindi esplorare orizzontalmente il menù in totale libertà per poi passare alla selezione con il doppio tocco sullo schermo. Lo spostamento del dispositivo in questo caso viene rilevato dalla bussola integrata. L’interazione risulta molto naturale e interessante anche se non adatta a tutti i contesti (luoghi affollati, ambienti ristretti).
L’immagine a sinistra mostra la navigazione effettuata attraverso lo spostamento del dito, mentre a destra la selezione avviene col tocco.
34
>
2.5.2 Interazioni: mano
>
2.5.1 Interazioni: dito
Questa soluzione presenta una navigazione gestuale che non coinvolge lo schermo, separata dalla selezione che avviene sempre tramite il tocco.
2.5.3 Interazioni: testa Anche nell’ultima soluzione elaborata la fase di avvioselezione e il feedback rimangono invariati, mentre per la navigazione all’interno del menù ho pensato di spostare la gestualità verso un’altra parte del corpo per renderla ancora più istintiva. Come detto in precedenza il feedback sonoro direzionale viene fornito dalle cuffie, quindi ho deciso di coinvolgere i naturali movimenti della testa che si orienta in direzione della musica per consentire la navigazione orizzontale all’interno dei menù. Questo metodo sembrerebbe molto valido ma presenta maggiori difficoltà tecniche per la realizzazione e potrebbe risultare scomodo in alcune circostanze.
2. Prime idee progettuali
Credo che tutte queste tipologie di interazione siano potenzialmente valide anche se ognuna di esse presenta qualche problema in circostanze specifiche. Ulteriori test potrebbero portare a evidenziare le lacune e i punti di forza di ogni sistema, portando al miglioramento dell’interazione e l’adozione di un unica tipologia su tutta l’applicazione. Personalmente credo che invece sia molto interessante poter inserire all’interno del software due o più tipologie di interazione che possano essere usate alternativamente a seconda della situazione. Sicuramente va pensato anche un sistema sicuro ed efficace per passare facilmente da una funzione all’altra.
L’immagine mostra la navigazione tramite il movimento della testa. I suoni guidano l’utente senza la necessità di controllare direttamente lo schermo.
> 35
3
Orientamento finale 3.1 finalità del progetto 3.2 Ambito d’uso 3.3 Il nome: Andante 3.4 Nuova interfaccia 3.5 Il linguaggio musicale 3.6 Il primo prototipo musicale
3. Orientamento finale 3.1 Finalità del progetto Durante lo studio dell’interazione tra utente e dispositivo si sono intensificati i contatti con le associazioni di ciechi. Il progetto quindi ha iniziato man mano a prendere forma e ad essere molto il materiale su cui discutere con i centri di ricerca e con gli stessi utenti. Tuttavia dopo i primi pareri favorevoli alcuni ciechi intervistati hanno manifestato certe perplessità verso il funzionamento dell’applicazione. Nonostante fosse chiara la funzione primaria dell’applicazione, cioè per il tempo libero e secondariamente per la navigazione, gli utenti ciechi hanno avanzato considerazioni negative sul funzionamento. L’applicazione dovrebbe essere utilizzata durante l’esplorazione della città tramite delle cuffie o degli auricolari indossati costantemente; ma ciò causerebbe numerose difficoltà alle persone cieche in quanto consentirebbe l’ascolto della musica generata ma non dei suoni naturali dell’ambiente circostante, che sono molto importanti per l’orientamento e la libertà di movimento nella città. Nonostante le critiche mosse al progetto, ho ritenuto il lavoro comunque valido e mi sono concentrato maggiormente sull’aspetto dell’intrattenimento e del piacere dell’ascolto della musica coordinata con l’ambiente
(1) OpenStreetMap http://www.openstreetmap.org/ (5 febbraio 2012)
38
senza porre l’attenzione sulla navigazione guidata. A questo punto l’applicazione si configura come un progetto per lo svago e l’intrattenimento il cui fine principale è l’ascolto della musica prodotta dall’ambiente. Il funzionamento è basato sui dati raccolti dal GPS e sull’analisi dell’area circostante l’utente grazie alle informazioni raccolte sulle mappe online (Google Maps, OpenStreetMap1). Gli elementi strutturali e urbanistici vengono quindi tramutati in tempo reale in una composizione musicale piacevole e interessante che può enfatizzare e rendere più gradevole l’osservazione dal paesaggio urbano. Si tratta di una realtà aumentata poeticamente e non pensata per la comunicazione di informazioni esclusivamente funzionali. Non ho creduto necessario neanche rivoluzionare la strada intrapresa con lo studio di una nuova interazione: il lavoro ottenuto cerca di offrire una possibile soluzione per l’accessibilità di molte applicazioni sui dispositivi touchscreen da parte dei ciechi, un sistema che quindi potrebbe essere sviluppato e utilizzato da altre applicazioni. Il percorso che ho deciso di seguire in maniera più decisa mi ha portato a definire con chiarezza i miei utenti. La funzione principale di svago e intrattenimento mi ha
fatto pensare a tutte le persone che sono solite ascoltare la musica in maniera molto intima e personale mentre camminano per le strade, si recano a lavoro o praticano sport nei parchi cittadini. Una delle questioni più importanti è divenuta quella di definire l’atmosfera da evocare con l’applicazione. Ho deciso quindi di soffermarmi sul lavoro svolto fino ad ora per identificare gli elementi principali che caratterizzano il progetto. L’aspetto fondamentale sicuramente viene dato dalla posizione centrale offerta dalla musica e in maniera più specifica della comunicazione musicale. Anche la natura sperimentale dell’applicazione fornisce un interessante elemento da considerare e da evidenziare nel taglio caratteriale del progetto. Dopo aver raccolto queste considerazioni ho iniziato a formulare interessanti parallelismi: le caratteristiche musicali e sperimentali mi hanno portato ad accostare quasi naturalmente il lavoro al mondo della musica jazz o classica contemporanea. Questi movimenti musicali sono fortemente influenzati da sperimentazioni stilistiche e armoniche che li allontanano fortemente dalle modalità compositive precedenti.
3. Orientamento finale
Stili quasi avanguardistici che raccolgono un bacino di spettatori limitato: molti intellettuali, gli stessi musicisti e amanti del genere. Esistono numerosi caffè, club e associazioni dove molto spesso ascoltatori abituali e assidui si ritrovano per assistere a esibizioni in locali intimi e raccolti. Proprio gli ambienti e le atmosfere che solitamente avvolgono questi circoli mi hanno dato un grande stimolo per indirizzare il progetto verso un taglio molto specifico che evoca ambienti raccolti e intimi, luci soffuse e taglienti, ambienti scuri e fumosi, grandi contrasti, fotografie in bianco e nero, strumenti classici. I principali destinatari di questo progetto sono quindi diventati musicisti, compositori e accaniti appassionati di musica che sono soliti spendere buona parte della giornata accompagnati da un sottofondo musicale. In un ambito simile l’applicazione potrebbe diventare un interessante elemento di ispirazione artistica utilizzato dai musicisti per stimolare composizioni o esecuzioni, rendendo anche più affascinante l’ambiente in cui si sta vivendo l’esperienza personale di ascolto. Per rendere più efficace e completa la progettazione del servizio mi è stato molto utile definire alcune
39
personas2 nella cerchia di utenti descritta in precedenza. Ho pensato di coinvolgere tre sottocategorie di utenti (compositori, esecutori e appassionati di musica) distinti per carattere e lavoro, ma con la stessa forte passione per la musica e la cultura in generale. Voglio comunque sottolineare che l’attenzione rivolta alla facile accessibilità per tutti gli utenti con deficit visivo rimane una delle priorità di questo progetto.
3.2 Ambito d’uso La definizione di un nuovo gruppo di utenti è stato un passo fondamentale per procedere con lo sviluppo del progetto. A questo punto si è reso necessario ipotizzare alcuni scenari, situazioni di utilizzo del servizio: brevi storie che mi hanno aiutato a scendere nel progetto, dare credibilità e valore al lavoro, verificare la coerenza delle personas nel contesto ipotizzato. Le schede qui riportate illustrano le peculiarità di ogni personaggio: il loro carattere mi ha fornito un’ispirazione per la stesura degli scenari d’uso dell’applicazione. Qui di seguito trovate il breve racconto che interessa Hannah: Hannah è una giovane donna che vive a Chicago e lavora come giornalista in una nota testata cittadina; è una persona calma, pensierosa e spesso ama rimanere a letto qualche minuto in più rischiando di fare tardi al lavoro. Questa mattina Hannah si è attardata troppo a riposare e ora deve correre verso la fermata della metro per non perdere il suo treno. I minuti passano velocemente e quando Hannah arriva affannata alla stazione vede partire sotto i suoi occhi il convoglio, purtroppo non può fare altro che sedersi ed aspettare il prossimo passaggio sperando che i minuti di attesa non siano troppi. La giornata è appena iniziata eppure sembra già molto stressante, così Hannah trova una panchina libera, indossa le cuffie, chiude gli occhi e attiva l’applicazione
(2) Con “personas” si intendono le figure immaginarie create in fase progettuale per definire dei possibili utenti. Questi personaggi vengono descritti nei dettagli includendo il carattere e il ruolo sociale per meglio sviluppare il prodotto sulla base delle loro particolarità.
40
Klaus, 38 Compositore di musica classica Vive a Londra ma è tedesco. Personalità: brillante, sperimentatore. Ama esplorare diversi stili musicali alla ricerca di ispirazione. Dirige un’orchestra di musica da camera ed ama comporre e suonare musica classica contemporanea. È una persona sempre attiva che ascolta costantemente musica muovendo i piedi per battere il ritmo e pensare a nuove composizioni da realizzare. Frequenta caffè e jazz club dove compone musica su tovaglioli o piccoli pezzi di carta. Ama la cucina sofisticata e il vino raffinato. Non ama praticare sport e i luoghi affollati e rumorosi.
3. Orientamento finale
Sven, 30
Hannah, 32
Pianista jazz. Svedese, vive a Berlino. Personalità: divertente, attivo, espansivo, sofisticato Ama improvvisare esecuzioni con musicisti che non conosce. Viaggia molto e cambia città in cui vivere ogni 2/3 anni. Suona il piano da quando aveva 6 anni. Quando non è impegnato per concerti ama trascorrere il tempo in jazz club dove può conoscere nuovi amici e musicisti con cui collaborare, un mondo nascosto nelle grandi città internazionali. Ama impproviare composizioni con musicisti che non conosce. Parla 4 lingue, ama ascoltare musica mentre viaggia sulla metropolitana. Gli piace mangiare e cucinare Sushi. Non ama svegliarsi presto e guidare nel traffico.
Giornalista statunitense. Vive a Chicago. Personalità: calma, pensierosa, intellettuale Ama leggere libri rilassandosi. Spende la maggior parte del tempo libero in caffè letterari ascoltando musica jazz. Quando torna a casa dalle stressanti giornate di lavoro si rilassa con un lungo bagno caldo e una tazza di té. Ama collezionare infusi provenienti da ogni parte del mondo. È una grande appassionata di musica e assiste assieme agli amici a concerti di musica classica contemporanea. Odia la vita stressante nonostante il suo lavoro la costringa a orari stancanti. Non ama i luoghi affollati e rumorosi.
41
Andante: immediatamente inizia a comporsi una piacevole melodia che le permette di rilassarsi e ritrovare la calma. Ma ecco che arriva la metro! Senza togliersi le cuffie Hannah sale sul vagone e si accomoda sul primo posto libero, richiude gli occhi e finalmente riesce rilassarsi completamente prima di una giornata di lavoro che si preannuncia lunga e faticosa. La composizione si genera ininterrottamente, le melodie si susseguono esaltando le architetture circostanti e la rapidità varia con quella del mezzo: l’armonia rallenta ad ogni fermata per poi riprendere velocità non appena il treno riparte creando piacevoli variazioni che permettono ad Hannah di contare il numero di fermate. Hannah è completamente immersa nella composizione, trasportata dalla melodia, ma improvvisamente riceve una mail sul suo smartphone che la distrae. Il messaggio è di suo fratello che le chiede un favore per la serata, ma a un tratto ad Hannah sembra che la musica stia divenendo sempre più familiare ed infatti la sua fermata si sta avvicinando: leggendo la mail si era completamente distratta ma la melodia le ha permesso di riconoscere la giusta fermata. Hannah si alza, si avvia verso l’uscita, scende dal convoglio e prende la direzione dell’ufficio sempre ascoltando la piacevole composizione musicale.
3.3 il nome: Andante Durante la fase di progettazione la scelta del nome è passaggio importante che permette di dare un volto al lavoro svolto, evocando in una sola parola tutta la personalità e le caratteristiche di ciò che si sta realizzando. Non è stato un processo facile e neppur breve come spesso accade. Per imbastire le prime proposte che includessero un nome e un logo mi sono ispirato ai concetti chiave che ruotavano attorno al progetto:
42
• La musica, elemento principale di tutto il lavoro che costituisce il principale canale di comunicazione. • La città, da vedere come gruppo di edifici e quindi come elemento spaziale e materico del progetto. • Il movimento (cammino), è alla base della generazione musicale e fa dell’utente il vero compositore ed esecutore dell’armonia. La prima proposta è stata Soundscape che in italiano si può tradurre come “ambiente sonoro” ed evoca chiaramente l’essenza del progetto. Il nome, però, non mi soddisfaceva in pieno in quanto richiamava in maniera ampia un ambiente sonoro e non esclusivamente musicale. Questo andava a incidere sulla forza comunicativa, lasciando un’idea vaga e indeterminata del progetto. Infine ho potuto verificare in rete che il nome era già stato ampiamente usato per altri lavori. Ho deciso quindi di formulare altre proposte che fossero più chiare ed evocative. La lista era alquanto lunga (City Jam, Singing Wall, Urban Beat, Arpeggio) ed infine ho deciso di adottare come nome Andante. La scelta è stata dettata da alcune motivazioni: Andante è una parola italiana che indica il movimento e che quindi esprime in maniera perfetta una delle caratteristiche dell’applicazione, ma soprattutto in musica identifica una specifica velocità ritmica dell’esecuzione ed è usata internazionalmente. Andante allude quindi all’ambiente musicale classico dando un’indicazione suggestiva in merito allo scopo del progetto e del linguaggio poetico usato. Infine ho deciso di sviluppare un logo che evidenziasse il legame musicale con la città e gli edifici. Con un gioco di contrasti ho disegnato la sagoma di un edificio la cui ombra compone una nota musicale creando un forte legame visivo tra la musica e la città stessa che genera la composizione musicale.
> Le immagini mostrano le prime proposte grafiche. L’uso costante del bianco e nero e le tonalità scure rendono l’interfaccia ripetitiva e senza alcuna distinzione tra le differenti funzioni dell’applicazione.
3.4 Nuova Interfaccia I contatti intercorsi con le associazioni dei ciechi mi hanno permesso di conoscere meglio questa realtà: ho scoperto che in effetti solo una ridotta percentuale di persone affette da problemi di vista è totalmente cieca. Molti di loro sono affetti da patologie altamente invalidanti che vengono parificate alla cecità o classificate secondo diversi gradi di ipovisione. Nella fase di ripensamento del progetto, è parso opportuno non trascurare le esigenze di utenti con vista fortemente limitata, pur ampliando l’orizzonte verso un pubblico di vedenti. Ho pensato, quindi, di riconsiderare l’esclusione della comunicazione visiva e di elaborare una interfaccia grafica di supporto all’interazione gestuale senza stravolgerne il funzionamento. La creazione di una veste grafica studiata appositamente per ipovedenti
44
è stata facilitata dai risultati di alcune ricerche che mettono in evidenza le differenti patologie e le accortezze da considerare per la creazione di un prodotto accessibile. Nella vita di tutti i giorni possiamo notare come i prodotti che troviamo in commercio, le interfacce dei dispositivi che utilizziamo e le pagine web che consultiamo spesso non rispettano alcune semplici regole di leggibilità e rendono difficoltosa la comprensibilità a tutti noi e in maggior modo alle persone con gravi problemi di vista. Qui di seguito presento alcune linee guida che ho preso in considerazione per la realizzazione della veste grafica. Sarebbe buona norma utilizzarle per la produzione di elaborati stampati e applicazioni su schermo. • La dimensione del carattere tipografico selezionato per i testi deve essere sufficientemente grande in
3. Orientamento finale
>
Nelle proposte successive l’introduzione del colore ha offerto una differenziazione maggiore delle aree della applicazione. Inoltre i testi risultano ben contrastati e leggibili anche per persone con problemi di vista.
relazione alle problematiche dell’utente finale e alle modalità di lettura previste. • Le persone ipovedenti hanno bisogno di testi con contrasti forti e bordi netti. Occorre una grande differenza di luminosità tra i testi scritti e lo sfondo. Gli abbinamenti preferiti sono: nero su bianco, blu su bianco, nero su grigio, nero su giallo e bianco su nero3. Bisogna anche sottolineare come talvolta l’eccessivo contrasto, specie su schermi retro illuminati, dell’abbinamento nero su bianco porti a causare disturbo nella lettura e stanchezza. In questi casi è meglio optare per un contrasto nero su grigio. • Alcuni caratteri possono essere difficili da distinguere, quindi conviene utilizzare font con glifi ben differenziati. Inoltre la scelta di caratteri chiusi, le cui direttrici tendono ad arricciarsi all’estremità, ad esempio
(3) Lucia Baracco et al., Questione di leggibilità, Se non riesco a leggere non è solo colpa dei miei occhi, Comune di Venezia, Progetto lettura agevolata, Venezia 2003
Helvetica, sono di difficile lettura rispetto a font con linee più aperte come Tahoma o Titillium. • I colori vanno usati con prudenza e i contrasti cromatici analizzati caso per caso. La scelta va comunque effettuata con molta attenzione in quanto i deficit cromatici sono molto diffusi non solamente tra gli utenti affetti da daltonismo4 ma anche tra gli anziani. • Le interferenze tra testo e sfondo spesso rendono difficoltosa la lettura. È buona norma adottare sfondi neutri ed estremamente omogenei. • I testi non devono essere composti interamente in maiuscolo. Questo rende più lenta e difficoltosa la comprensione in quanto la differenziazione tra le lettere è minore rispetto al testo con caratteri alti e bassi.
(4) Il daltonismo è un’invalidità visiva che non consente la visione parziale o totale dei colori.
45
Seguendo queste indicazioni ho iniziato a comporre le prime proposte grafiche per l’interfaccia. Le idee originarie rispecchiavano un’atmosfera scura e con contrasti molto netti, i riferimenti a elementi fisici davano un carattere elegante all’interfaccia ma disturbavano la leggibilità che invece doveva rimanere al centro del progetto. Successivamente semplificando la grafica, ma mantenendo alcuni riferimenti al mondo fisico, la leggibilità risultava sicuramente migliore ma ancora troppo sacrificata da alcune scelte stilistiche ed inoltre troppo ripetitiva, uniforme e poco coinvolgente per gli utenti vedenti. Infine l’aspetto è decisamente migliorato eliminando molti riferimenti al mondo reale e formulando una nuova veste grafica più semplice e leggibile ma allo stesso tempo piacevole anche per gli utenti vedenti. In questa ultima proposta ho cercato di mantenere il testo di grandi dimensioni e molto comprensibile come consigliato dalle linee guida. Il contrasto tra i colori selezionati è elevato senza diventare fastidioso e controproducente. Le forme sono semplici e stilizzate e la gamma di tonalità utilizzata è ridotta e ben differenziata.
3.5 Il linguaggio musicale Una sezione a parte va riservata alla realizzazione del linguaggio sonoro che accompagna la navigazione all’interno dell’applicazione e trasforma in tempo reale le informazioni ambientali in una composizione musicale. Nei primi capitoli ho già presentato alcuni progetti sviluppati in passato che utilizzano i suoni per trasmettere informazioni anche di tipo complesso. Solo dopo la conclusione della ricerca sono venuto a conoscenza di un altro interessante lavoro ancora in via di sviluppo, ma per me ricchissimo di suggerimenti. Si tratta del progetto SUM, Sonified Urban Masterplan5, realizzato da Sara Adhitya de École des Hautes Études en Sciences Sociales in collaborazione
(5) Adhitya, Sara e Kuuskankare, Mika, “THE SONIFIED URBAN MASTERPLAN (SUM) TOOL : Sonification For Urban Planning And Design”, (2011)
46
con lo IUAV Università di Venezia e Mika Kuuskankare della Sibelius Academy. Il lavoro si colloca in un ambito di ricerca urbanistica musicale e presenta alcune analogie con il mio progetto. Il software che è stato sviluppato è limitato all’utilizzo su computer e non su dispositivi mobili, utilizza l’ambiente di programmazione musicale PWGL6 basato sul linguaggio Lisp7. La trattazione del progetto parte da artisti come Vasilij Kandinskij e Paul Klee che hanno lavorato sul parallelismo tra forme e suoni facendone il fulcro della loro opera artistica. Il SUM (Sonified Urban Masterplan) è nato in un contesto di pianificazione e studio urbanistico delle città. Lo scopo è quello di usare la sonificazione per analizzare la pianta delle città e coglierne le diverse componenti architettoniche. Gli studiosi hanno sottolineato come l’urbanistica sia ancora strettamente legata a una rappresentazione grafica in due dimensioni, dove le piante e i prospetti vengono utilizzati per descrivere la struttura di una città. Molto spesso, però, non è sufficiente raggruppare i dati in un’unica tavola rappresentativa, così le informazioni vengono suddivise su vari livelli che non consentono di cogliere tutti gli elementi simultaneamente. L’idea dei ricercatori è quella di trasformare le informazioni strutturali dell’ambiente cittadino in composizione musicale: ogni caratteristica degli edifici viene convertita in una componente sonora come il timbro, il volume, la durata e la tonalità. Questa organizzazione permette di percepire simultaneamente diversi dati che invece nell’urbanistica classica sarebbero rappresentati su tavole differenti. Per il funzionamento del software è sufficiente caricare le classiche piante urbanistiche dell’area che si vuole analizzare, successivamente si definisce il percorso che si decide di seguire per esplorare l’ambiente cittadino. A questo punto è sufficiente azionare la riproduzione e il programma converte le informazioni raccolte
(6) http://www2.siba.fi/pwgl/ (10 gennaio 2012) (7) Lisp è una famiglia di linguaggi di programmazione sviluppata a partire dal 1958 da John McCarthy.
3. Orientamento finale
Questa mappa costituisce uno dei livelli da cui il software SUM raccoglie le informazioni. In questo caso gli edifici sono ordinati e colorati secondo la loro funzione.
La seconda mappa ricalca fedelmente la prima, ma i gradienti di colore ora identificano l’altezza degli edifici secondo il numero di piani. è possibile realizzare numerose mappe da sovrapporre come livelli per ottenere un maggior numero di dati da analizzare attraverso il software e ottenere una composizione sonora più ricca.
SUM dispone di un’interfaccia semplice: sulla sinistra vi sono le mappe sovrapposte, mentra sulla destra il menù consente di selezionare solo alcuni livelli per gestire la generazione del suono. Il sentiero identificato dall’utente consente l’esplorazione dell’area. Azionando il dispositivo il cursore analizza ogni punto del tracciato e legge le infomazioni relative dalle differenti mappe. I dati raccolti vengono analizzatti e creano la composizione musicale.
47
> In questa immagine si possono osservare le differenti aree, ognuna con la sua gradazione di blu. Il software è in grado di leggere questa mappa e assegnare un numero univoco per ciascun edificio e misurarne la superficie.
dalla varie mappe in una composizione musicale generata in tempo reale seguendo il tracciato che si è selezionato. Le mappe quindi risultano come sovrapposte e ognuna di esse riflette una caratteristica degli edifici che viene convertita in gradienti di colore con cui le aree vengono identificate. Per esempio una mappa può descrivere l’altezza delle case e se viene identificato il colore nero per trasmettere questi dati avremo gradazioni di grigio per descrivere abitazioni a uno, due, tre piani e così via. Questo sistema ovviamente viene utilizzato per ogni altra caratteristica che si vuole prendere in considerazione che verrà destinata a un altro livello di dati: una mappa per la funzione degli edifici (commerciale, residenziale, area pubblica, ecc.), una mappa per la superficie occupata dalle singole case e così via fino a coprire lo spettro di informazioni che interessano. Questo sistema può essere utilizzato sia per lo studio delle aree cittadine esistenti per comprenderne la struttura generale, sia come metodo di analisi e successiva progettazione coordinata delle aree urbane. Questo software presenta alcune sostanziali differenze rispetto alla mio progetto: il SUM funziona come metodo di analisi urbanistico basato su mappe e l’esplorazione
(8) Processing è un linguaggio di programmazione opensource basato su Java. Il progetto è nato nel 2001 su iniziativa di Ben Fry e Casey Reas. http://processing.org/ (10 gennaio 2012).
48
sonora è generata solo se il tracciato attraversa l’area degli edifici che si prendono in esame. La mia idea si basa invece sull’uso di dispositivi mobili e sull’esplorazione effettiva dell’ambiente cittadino. Non è sufficiente cogliere in tempo reale le caratteristiche del punto in cui si trova l’utente ma è necessario analizzare l’area circostante, secondo un raggio prestabilito, per creare una bolla musicale che descriva simultaneamente tutti gli elementi fisici presenti.
3.6 Il primo prototipo musicale Le differenze evidenziate tra i due progetti sono state di stimolo per realizzare un prototipo utile a testare personalmente la generazione della musica. è stato comunque molto utile analizzare la struttura del SUM per comprendere la reale fattibilità e come impostare la mia applicazione. Come primo passo ho realizzato un prototipo in Processing8 da utilizzare su computer e che quindi non dispone della posizione reale rilevata dal computer, ma solo di una simulazione su mappe statiche effettuata con il movimento del cursore del mouse. Per questo prototipo ho preso in considerazione un’area limitata della città di Venezia e di conseguenza
> La fotografia costituisce l’interfaccia del prototipo e trova corrispondenza con la mappa precedente. Il cerchio bianco al centro identifica l’area attiva che circonda l’utente e gli edifici all’interno di essa sono quelli considerati per la generazione sonora.
ho raccolto personalmente le informazioni architettoniche della zona. Le caratteristiche che ho preso in esame sono: la dimensione dell’area coperta dai singoli edifici, l’altezza dal terreno ed inoltre la distanza rispetto alla posizione del cursore (corrispondente alla posizione reale dell’utente). Un successivo perfezionamento del software potrebbe sicuramente prendere in considerazione un maggior numero di dati, tuttavia ho ritenuto di procedere in prima istanza con l’analisi di queste informazioni. Ho trasferito i dati raccolti in mappe. Ogni vista in pianta illustra una caratteristica analizzata e quindi un livello di informazioni per il software. Le mappe realizzate con software di grafica vettoriale sono state esportate in formato raster per permetterne la lettura a Processing. La fase successiva ha richiesto un notevole tempo per lo sviluppo. Ho dovuto realizzare alcuni algoritmi al fine di rilevare la posizione del cursore sulla mappa e, analizzando l’area circostante compresa all’interno di un determinato raggio, distinguere la presenza di edifici in prossimità. Attraverso la lettura delle mappe caricate all’interno del software ho potuto collegare i dati in modo da comprendere non solo gli edifici nelle vicinanze ma anche la loro dimensione, l’altezza, la distanza.
A questo punto erano disponibili tutti i dati necessari per la creazione della musica. Sono passato quindi ad integrare all’interno del codice del programma una libreria MIDI9 e ho trasformato i dati ambientali ricevuti in segnali letti dal protocollo MIDI e inviati al sintetizzatore musicale JAVA interno al computer. La riproduzione delle note è stata inoltre sincronizzata tramite un contatore di millesimi di secondo che funge da metronomo. I risultati ottenuti sono stati molto incoraggianti, tuttavia la qualità e la resa musicale rimanevano ancora da perfezionare. Ho compreso quindi l’importanza di sperimentare ancora in questo campo per ottenere risultati migliori e portare la composizione a livelli più elevati. Tornerò su questo argomento nei capitoli che seguono.
(9) MIDI è un linguaggio informatico che costituisce un protocollo, consente l’interazione degli strumenti musicali elettronici attraverso il computer.
49
Andante
4
4.1 Il progetto finale 4.2 Lo scenario 4.3 Musica e interpretazione 4.4 La struttura 4.4.1 Suonare, ascoltare, registrare 4.4.2 Archivio personale 4.4.3 Impostazioni
4. Andante 4.1 Il progetto finale Nei capitoli precedenti ho illustrato le varie fasi del processo progettuale. Nei prossimi paragrafi descriverò invece il progetto nella suo aspetto definitivo cercando di spiegare con chiarezza la natura, la struttura, le caratteristiche e le funzioni dell’applicazione. Nelle fasi precedenti si sono susseguiti numerosi ripensamenti e cambi di direzione, vorrei quindi richiamare brevemente la funzione e il concetto che stanno alla base del progetto per poi procedere con un’ordinata esposizione delle sue caratteristiche. Andante è un’applicazione musicale per smartphone dedicata a musicisti, compositori e semplici amanti della musica. Il suo fine è di svago e intrattenimento e cerca di accostare il piacere per l’ascolto della musica con l’esplorazione della città. Andante è in grado di riconoscere la posizione degli utenti grazie ai sensori GPS e di conseguenza è capace di analizzare l’ambiente circostante raccogliendo le informazioni dai servizi cartografici disponibili in rete (Google Maps, OpenStreetMap). La struttura urbana e architettonica decifrata dal software viene scomposta nelle sua varie componenti (altezza, superficie, funzione, distanza), analizzata e riproposta
52
in tempo reale sotto forma di composizione musicale. Andante si pone come una soluzione nuova e divertente per ascoltare musica mentre ci si sposta per le strade di qualunque città del mondo. La composizione che si genera è coordinata con l’ambiente che si sta attraversando, l’aspetto sonoro e visivo si fondono e si rafforzano a vicenda rendendo ancora più piacevole e coinvolgente percorrere i viali e le strade, i giardini e le piazze all’interno delle nostre città. Questa applicazione può divenire un interessante mezzo per musicisti e compositori per raccogliere ispirazione e stimoli o semplicemente un modo diverso per ascoltare la musica per tutti gli appassionati. Andante inoltre potrebbe configurarsi come un nuovo stimolo ad esplorare aree sconosciute delle città in cui viviamo o portarci a vivere le metropoli sotto un aspetto turistico-musicale. Infine le sue funzioni di raccolta delle memorie musicali l’avvicinano ad un album dei ricordi con cui noi possiamo interagire per rievocare ricordi ed emozioni di città visitate.
4.2 Lo scenario Per meglio comprendere l’ambito d’uso dell’applicazione credo sia giusto tornare in questo paragrafo a parlare degli utenti a cui è rivolto il servizio. Precedentemente ho già definito le personas: si tratta di musicisti, compositori ed esecutori, o amanti della musica che prevalentemente ascoltano classica contemporanea o jazz sperimentale. Tutti questi personaggi vivono in grandi metropoli dove possono trovare ambienti stimolanti, vivi ed internazionali. Nel terzo capitolo ho descritto un breve scenario prendendo come protagonista Hannah, una giornalista amante della musica che utilizza spesso Andante per rilassarsi prima delle stressanti giornate di lavoro, ma anche per avere utili informazioni rispetto all’ambiente che sta attraversando. Qui di seguito, invece, vorrei illustrare come un compositore professionista potrebbe trarre benefici dall’uso di questa applicazione: Il protagonista dello scenario è Klaus, compositore tedesco di 38 anni che vive a Londra. Egli si dedica principalmente alla musica classica contemporanea e compone diverse opere che in seguito esegue con la sua orchestra da camera.
4. Andante
Klaus è una persona molto attiva e sempre in movimento, per lui la musica è un pensiero costante che non abbandona mai la sua mente. È facile incontrarlo durante i concerti mentre muove freneticamente i piedi per marcare il ritmo con l’attenzione rivolta verso una nuova composizione, oppure mentre passeggia per ore lungo le strade di Londra alla ricerca di una nuova ispirazione. Klaus talvolta trascorre i pomeriggi in caffè letterari dove può rilassarsi abbandonandosi alla lettura dei romanzi gialli che tanto ama, sorseggiando un caffè caldo. La sua mente però è sempre all’opera e non è raro vederlo improvvisamente abbozzare armonie musicali su piccoli pezzi di carta o tovaglioli per poi scappare verso casa a mettere in note il nuovo spunto creativo. Klaus è una persona sofisticata e quando si dedica alla composizione trascorre le serate in compagnia del suo pianoforte e di un bicchiere di vino ricercato. Ama la cucina raffinata e i cibi etnici. Non ama praticare sport e non frequenta luoghi troppo affollati e caotici.
53
È inverno e Klaus è in casa a comporre un’opera da eseguire con la sua orchestra da camera. Questa sera sembra aver perso l’ispirazione, ogni armonia sembra banale e ripetuta. Inizialmente si alza e cammina freneticamente per la stanza con il pensiero rivolto alla sua opera, ma non riesce a raccogliere le idee.
Improvvisamente decide di uscire di casa: aria nuova e una passeggiata lo possono aiutare a sgomberare la mente e ritrovare l’ispirazione. La notte è gelida e fuori nevica.
Klaus per tutta la sera è stato completamente assorto nei suoi pensieri, nella sua composizione. Non si era completamente accorto che all’esterno nevicava da ore e che la temperatura era scesa notevolmente. Ma il manto bianco dona alla città un aspetto straordinario e allora Klaus indossa le cuffie e attiva l’applicazione Andante.
Quando si tocca lo schermo l’interfaccia compare sotto il suo dito e offre un supporto alla navigazione audio. A questo punto Klaus può entrare nella sezione play e avviare la generazione della musica.
Klaus inizia a camminare per le vie della città e la musica lo accompagna generandosi in tempo reale sulla base delle case che lo circondano. La notte è gelida e Klaus è contento di poter usare Andante tenendo le mani in tasca e senza guardare lo schermo grazie alla guida sonora.
Klaus inizialmente cammina lungo le strade che frequenta abitualmente e la musica generata la riconosce come familiare. Dopo qualche isolato decide di imboccare una strada sconosciuta alla ricerca di nuovi ambienti e nuove armonie che lo potrebbero aiutare nella sua composizione. Le melodie iniziano a cambiare: i palazzi e le strade che attraversa risuonano con coerenza nella composizione e Klaus si lascia trasportare dalla musica immergendosi in ambienti nuovi per scovare melodie inconsuete.
Klaus sta camminando ormai da mezzora quando si ritrova in una zona sconosciuta della città, una piccola ed elegante piazza contornata da bassi edifici. La coltre di neve perfetta ricopre ogni cosa e una luce fiocca rischiara l’ambiente. Klaus viene subito attratto dalla musica generata ed inizia ad attraversare l’ambiente in ogni direzione per esplorare la composizione in ogni sua possibilità. I passaggi armonici sono originali, delicati ed immediatamente gli hanno ridato lo stimolo per proseguire la sua opera abbandonata poco prima.
Klaus è molto ispirato dalla composizione generata ed estrae lo smartphone per interagire maggiormente con l’ambiente e quindi con la composizione. La schermata di Andante mostra la posizione sulla mappa e l’area considerata per la generazione della musica. In bianco sono indicati i palazzi attivi ed ognuno di essi genera una nota della composizione.
Klaus è particolarmente soddisfatto dell’effetto generato e decide di registrare la musica per fissare le idee e lavorarci in seguito a casa. Tocca con due dita lo schermo e attiva la registrazione, continua ad interagire con la composizione isolando alternativamente gli edifici per creare variazioni sul tema.
Continua a fare molto freddo ma ora l’ispirazione è tornata e Klaus si avvia velocemente verso casa per tornare a lavorare.
Appena giunto a casa Klaus scarica sul suo computer la composizione appena realizzata e ne stampa lo spartito per continuare la sua opera.
Ora Klaus torna a comporre e perdersi nelle sue idee armoniche spinto da nuovi stimoli e pieno di entusiasmo. La composizione appena stampata e realizzata con Andante diventa una bozza su cui lavorare per proseguire la sua opera musicale.
4.3 Musica e interpretazione In precedenza ho già descritto Andante come un’applicazione musicale per lo svago e il tempo libero. La sua caratteristica fondamentale è quella di generare una composizione musicale varia, piacevole e coordinata con l’ambiente circostante. Lo scenario illustrato in precedenza cerca di rendere evidente la relazione e l’interazione che si instaura tra il protagonista e l’ambiente. Nella storia Klaus esce di casa e percorre le strade e le piazze del suo quartiere osservando gli edifici che si affacciano lungo il percorso. Ogni casa ha delle caratteristiche architettoniche diverse, alcune possono essere notate con un semplice sguardo, altre è possibile intuirle ed altre ancora risultano nascoste allo sguardo. Quando Klaus attiva Andante la rilevazione della sua posizione e l’analisi dell’area che lo circonda evidenzia le caratteristiche degli edifici su cui si crea una melodia musicale che esalta la percezione dell’ambiente circostante. Klaus vaga liberamente per la città entrando in contatto con l’ambiente in maniera nuova e arricchita. Il rapporto che si instaura tra il protagonista e il paesaggio è molto forte e la musica diventa il mezzo di questa reciproca influenza. Klaus inizialmente percorre le vie abituali e la musica generata è familiare, può riconoscere i palazzi e la propria posizione. Successivamente decide di entrare più attivamente nel rapporto con l’ambiente come compositorescopritore e sceglie di avventurarsi in nuove aree della città proprio per generare una musica mai ascoltata attraversando un ambiente mai visto. Quando Klaus attiva l’applicazione e indossa le cuffie inizia un rapporto particolare e di reciproca influenza tra lui e l’ambiente mediato attraverso la musica: la città genera una composizione che l’arricchisce e il protagonista è spinto ad esplorare nuove aree per stimolare nuove armonie. Andante è in grado di raccogliere le caratteristiche di altezza, superficie
58
e la distanza dei singoli edifici. Sulla base di questi dati genera in tempo reale una composizione musicale che cerca di esaltare la realtà mettendo in evidenza la struttura di ogni edificio. Ogni palazzo costituisce una nota dell’armonia: la superficie della casa determina la tonalità della nota, il numero di piani il volume con sui viene riprodotta la nota, il rapporto tra area ed altezza dell’edificio varia la durata del singolo suono, mentre la sequenza di riproduzione delle note è ordinata in maniera crescente sulla base della misurazione delle distanze dei palazzi esaminati. Klaus rimane piacevolmente colpito e coinvolto da questa armonia e decide di seguirla e svilupparla grazie ai suoi movimenti. Quando Klaus si trova di fronte ad un edificio basso e con una superficie ridotta può distinguere un suono acuto a basso volume, di breve durata, come per evidenziare la delicatezza e la fragilità di un’abitazione così piccola. Quando passa a fianco di una costruzione bassa ma molto ampia il suono è grave, prolungato esaltando la struttura goffa e poco slanciata di un edificio simile. Klaus costeggia il campanile della chiesa a un isolato da casa sua e distingue un suono molto acuto e breve ad un volume elevato. Tutte queste note, inoltre, non sono solo generate ma vengono anche armonizzate tra di loro secondo le regole della teoria musicale. È piacevole per Klaus farsi trasportare e seguire la sequenza di note in un’armonia che non si arresta mai e che lui può determinare scegliendo quale strada imboccare all’incrocio seguente. Quando Klaus si sente particolarmente interessato dall’armonia generata decide di soffermarsi in quel luogo, esplorare quella piazza nella sua interezza per conoscere tutte le sfumature e i volumi dell’opera. Ora il protagonista decide di intervenire personalmente nella
60
generazione musicale selezionando solo alcuni edifici e quindi alcune note della composizione, interpreta la melodia e varia l’armonia secondo il suo piacere. Per fare questo l’utente Klaus tocca lo schermo e la mappa si ridispone immediatamente facendo corrispondere la sua posizione con il punto di tocco. A questo punto gli basta trascinare il polpastrello in una direzione, come per seguire uno dei raggi della bolla sonora che lo circonda, e seleziona solo uno spicchio di area e gli edifici che vi rientrano all’interno. Grazie a ciò Klaus dispone di una grande libertà di interagire con la musica e essere il primo interprete nella creazione del componimento selezionando alternativamente alcuni suoni secondo la sua indole interpretativa.
4.4 La struttura Specificare la struttura dell’applicazione e del flusso di informazioni all’interno di essa è stato un passaggio molto importante che ho posto al centro del mio lavoro durante tutta la fase di progettazione. Ho cercato sempre di delineare un’ossatura definita, semplice e chiara per mantenere sotto controllo l’evoluzione del progetto secondo un’idea precisa ed inoltre per avere una proposta comprensibile da presentare ai miei interlocutori. Nel secondo capitolo (§ 2.3) ho esposto l’evoluzione della struttura dell’applicazione proponendo la versione temporanea che prevedeva tre macro sezioni: la prima svolgeva la funzione principale legata all’esplorazione e all’ascolto della musica generata in tempo reale, la seconda corrispondente alla sezione di archivio con la raccolta delle passate registrazioni e infine una terza sezione pensata per la condivisione e lo scambio musicale all’interno di una rete di utenti. Con l’avanzare del lavoro alcune problematiche progettuali mi hanno portato a rivedere la struttura dell’applicazione alleggerendola e semplificandola per
4. Andante
consentirne uno sviluppo più agevole. Mi sono quindi concentrato su due aspetti principali: la generazione della musica in tempo reale e la creazione di un archivio personale per le esperienze vissute. La scelta è stata dettata dal fatto che fin dall’origine il progetto ha cercato di investigare e enfatizzare la relazione personale tra uomo e ambiente, puntando molto sull’esperienza emotiva e poetica che si genera. Inoltre l’utilizzo delle cuffie per l’ascolto della musica permette di ricreare un momento molto intimo e coinvolgente per il singolo utente. Queste considerazioni mi hanno spinto a tralasciare lo sviluppo della sezione che include la condivisione con altre persone focalizzando i miei sforzi sull’aspetto più personale del lavoro. Tuttavia ritengo che lo sviluppo di una sezione incentrata sullo scambio delle esperienze musicali vissute sia comunque molto interessante e potrebbe essere al centro di uno sviluppo futuro del progetto.
4.4.1 Suonare, ascoltare, registrare La sezione dedicata alla generazione della musica in tempo reale costituisce la parte più importante di tutto il progetto, dove il concetto alla base del lavoro si realizza in maniera completa. Qui ritroviamo tutte le funzioni principali che coinvolgono l’utente attivamente nella relazione con l’ambiente e lo portano a immergersi nell’esperienza musicale “accordata” all’esplorazione fisica del paesaggio urbano. Il diagramma ad albero che riassume la struttura del progetto presenta fin dal primo passaggio la divisione tra la funzione musicale in tempo reale e quella di archivio. Accedendo alla sezione principale l’analisi ambientale e di conseguenza la creazione della composizione musicale ha inizio automaticamente immergendo l’utente nell’ambiente sonoro in continua variazione a seconda degli spostamenti. Si stabilisce una rapporto di reciproca influenza tra la musica generata e il fruitore che è spinto
61
a seguire un percorso per iniziare al elaborare attivamente la composizione musicale (ascoltare attivamente). Il coinvolgimento aumenta quando l’utente decide di intervenire nella selezione dei suoni e delle note che costituiscono l’ambiente musicale grazie all’interazione con il dispositivo (suonare in prima persona). Il fruitore, infine, se interessato dalla composizione può decidere di registrare la musica che si sta riproducendo in quel momento continuando a interagire direttamente con il dispositivo o semplicemente variando i suoi percorsi esplorativi, o ancora lasciando completamente al programma la creazione del paesaggio musicale (registrazione). Sono queste le attività principali che caratterizzano il progetto e portano la persona a interagire con l’ambiente circostante. Noi tutti siamo soliti scattare fotografie dei luoghi che visitiamo per fissare una situazione, un ricordo o un’emozione. Registrando questi brevi componimenti possiamo portare con noi degli “scorci musicali” da rivivere in futuro.
4.4.2 Archivio personale L’archivio personale è l’area dell’applicazione che raccoglie e permette di ascoltare tutte le registrazioni personali effettuate in passato. É possibile accedere a questa sezione dalla schermata principale. L’archivio costituisce una parte essenziale del progetto e si presenta come un vero e proprio album dei ricordi musicali che l’utente raccoglie durante gli spostamenti nelle varie città visitate. I ricordi musicali sono particolarmente forti ed intensi e possono riportarci, non appena li riascoltiamo, in situazioni o ambienti vissuti. Si stabilisce un ricordo molto più profondo, inconscio e intenso, pronto a riemergere quando rievocato. Rientrando da un viaggio sarà possibile mostrare non solo le fotografie ai parenti ma anche il paesaggio sonoro composto in una determinata
62
città, portando anche chi non vi è stato realmente a vivere un’intensa emozione che descrive in maniera istintiva, con i suoi contrasti o le armonie musicali, l’ambiente visitato. Entrando in questa sezione si può consultare la raccolta grazie alla riproduzione di una piccola anteprima della composizione musicale per poi passare a selezionare la traccia desiderata ed ascoltarla nella sua interezza. Lo scopo è quello di rivivere l’esperienza per differenti motivi: ritrovare un’armonia o un’ispirazione o semplicemente rievocare un’emozione. L’utente può anche intervenire sulle registrazioni cancellandole o, tramite la connessione a un computer, esportandole in formato audio o grafico per la stampa.
4.4.3 Impostazioni La struttura completa di Andante prevede un’area dedicata alla scelta delle impostazioni che riguardano i metodi di navigazione. Questa sezione non fa parte del flusso generale di informazioni e si pone a un livello esterno rispetto alle due sezioni esposte precedentemente. É possibile accedere a questa area da ogni parte dell’applicazione ad esclusione della sezione dedicata alla generazione della musica in tempo reale per motivi ovvi dovuti alla concentrazione e centralità da dedicare al processo di ascolto o composizione. La sezione “Impostazioni” consente all’utente di fare una selezione tra le due modalità di navigazione che verranno esposte nel prossimo capitolo.
4. Andante
63
Il prototipo
5
5.1 L’analisi delle mappe 5.2 La Generazione Musicale 5.3 Le interazioni in dettaglio 5.3.1 Interazione innovativa 5.3.2 Interazione a schermo e gestuale 5.3.3 Feedback 5.3.4 Interfaccia grafica
5. Il prototipo 5.1 L’analisi delle mappe Il pensiero che sta alla base di questo progetto è sempre stato quello di creare un prodotto o un servizio per dispositivi mobili che in un prossimo futuro fosse realizzabile e commercializzabile realmente. Gran parte delle tecnologie necessarie sono già disponibili e la comunicazione tra dispositivi e servizi cartografici è molto diffusa. Purtroppo la complessità dell’elaborazione dei dati per la generazione del suono mi ha limitato molto nella possibilità di sviluppo del prototipo su smartphone che sarebbe forse possibile grazie un’accurata scrittura del codice e la scelta di dispositivi mobili decisamente più potenti ma al momento molto costosi. Dovendo far fronte a queste difficoltà ho deciso di affrontare il problema diversamente realizzando un prototipo funzionante su computer che desse una chiara idea della resa musicale finale senza l’accesso a dati cartografici online. Per quanto riguarda il dispositivo mobile ho deciso di sviluppare esclusivamente l’aspetto strutturale dell’applicazione con la navigazione grafica, gestuale e sonora. Il funzionamento effettivo del software prevede l’analisi ambientale partendo dalla posizione geografica identificata dal GPS e dalla raccolta di dati urbanistici
66
e architettonici fornita proprio dalle piattaforme cartografiche (Google Maps, OpenStreetMap). I fornitori di mappe lavorano costantemente al miglioramento dei loro servizi ma purtroppo al momento non forniscono informazioni sufficienti o adeguate per lo sviluppo effettivo di questo software. L’evoluzione futura dei questi servizi sicuramente porterà a coprire queste lacune e consentirà una effettiva accessibilità ai dati e quindi una distribuzione commerciale di un prodotto come Andante. Prima di procedere con la programmazione del software in grado di generare il suono ho perfezionato le metodologie per la raccolta e l’analisi dei dati ambientali già esposte nel terzo capitolo (§ 3.6). In primo luogo ho selezionato un’area cittadina che volevo prendere in considerazione per la realizzazione del prototipo musicale e successivamente mi sono impegnato a raccogliere i dati strutturali che desideravo utilizzando diverse fonti: Google Maps, Google Earth, OpenStreetMap e rilievo ambientale effettuato personalmente. Le informazioni strutturali che ho deciso di prendere in considerazione per ogni area o edificio osservato sono state: superficie ed altezza. Successivamente ho disegnato tramite programmi di grafica vettoriali tre diverse mappe
5. Il prototipo
>
L’immagine mostra una della prime elaborazioni dell’area presa in osservazione. La vista prospettica è stata èstratta del servizio Nokia 3D Maps. Gli edifici sono raggruppati secondo le altezze. Ogni insieme è colorato con una gradazione di blu.
e per ogni mappa ho utilizzato una scala di gradazioni di colore per descrivere le caratteristiche dell’edificio. La prima mappa consiste in una vista in pianta dell’area analizzata e delinea ogni singola area presa in considerazione. Le campiture in gradiente di colore con profilo RGB sono differenti per ogni edificio disegnato, ad esempio: Edificio 1, colore: R = 0, G = 0, B = 255 Edificio 2, colore: R = 0, G = 0, B = 250 Edificio 3 ... Questo è stato un passaggio necessario ed essenziale per gli sviluppi che andrò successivamente a spiegare. La seconda mappa prende invece in considerazione l’altezza degli edifici. Sempre attraverso una scala di colore ho riempito le aree corrispondenti ai differenti edifici identificando per ognuno l’altezza corrispondente. Il passo seguente è stato quello di iniziare ad elaborare un software che contenesse su diversi livelli sovrapposti le due mappe sopra elencate e una visione aerea della zona che fungesse da interfaccia per l’intero prototipo. In primo luogo ho avviato una lettura della prima mappa che mi ha permesso, grazie all’utilizzo di un colore univoco per ogni edificio, di assegnare a ogni area un numero identificativo e un punto di riferimento spaziale
per ogni edifico. Infine mi è stato anche possibile contare i pixel contenuti in ogni area e quindi conoscere la superficie precisa di ogni edificio. Successivamente sono passato all’analisi della seconda mappa limitando la lettura ai punti di riferimento identificati nel passaggio precedente al fine di alleggerire il processo di elaborazione. Alla fine di questi passaggi sono stato in grado di conoscere per ogni edificio la sua posizione nello spazio, l’altezza e l’area occupata. Così buona parte del processo di analisi è stata completata pur con grande sforzo e impegno di tempo. Nella fase successiva ho sostituito il cursore del mouse con un indicatore che ricreasse la posizione dell’utente nello spazio urbano. Il movimento del mouse sulla mappa simula quindi lo spostamento della persona nella città. Lo scopo finale del progetto però era quello di ottenere un’analisi dello spazio circostante l’utente entro un raggio definito, come a voler creare una bolla di suono intorno la persona. Per raggiungere questo scopo ho dovuto perfezionare il prototipo arrivando a leggere solamente i pixel all’interno della distanza voluta. Ho dovuto quindi combinare i dati della prima analisi delle mappe con la lettura
67
dell’area considerata e conoscendo le coordinate di ognuno dei punti contenuti ho potuto comprendere quali edifici rientrassero all’interno della zona di mio interesse. Inoltre mi è stato possibile calcolare per ogni area la distanza del punto più vicino rispetto alla posizione del cursore e quindi dell’utente. A questo punto avevo tutti i dati necessari per la passare alla generazione musicale. In primo luogo conoscevo in tempo reale con lo spostamento del mouse quali fossero gli edifici “attivi” (che rientrassero all’interno dell’area circostante l’utente) e per ognuno di essi tutte le informazioni considerate: • altezza • superficie • distanza dall’utente Il passo successivo divenne la vera e propria generazione musicale tramite la creazione di una struttura con protocollo MIDI che prendesse le informazioni dal processo appena concluso.
5.2 La generazione musicale La configurazione del sistema generativo musicale mi ha lasciato grande libertà interpretativa per trasmettere un messaggio interessante e utile ma ugualmente piacevole. Nel terzo capitolo (§ 3.6) avevo presentato i primi tentativi di composizione musicale sulla base dell’analisi ambientale disponibile. Quel prototipo mi ha permesso di sperimentare in primo luogo la fattibilità della composizione in tempo reale lasciando aperte molte possibilità di sviluppo, in secondo luogo i risultati raccolti mi hanno dato una chiara idea delle lacune comunicative e della sensazione suscitata, ancora povera e ripetitiva. Ho deciso quindi di rivedere completamente l’elaborazione dei dati ambientali ripensando la corrispondenza con le varie componenti musicali. L’obiettivo dell’esperienza era
68
quello di evocare una sensazione che in qualche modo ricalcasse le caratteristiche fisiche del singolo edificio esaltandone i valori per rendere l’ascolto e la visione coordinate e avvolgenti, nonostante il numero ridotto di dati raccolti per l’elaborazione di questo prototipo. Mi sono sforzato quindi di immaginare e sperimentare musicalmente la sensazione emotiva che spontaneamente tendevo ad associare a edifici di differente forma. Le componenti sonore che si possono coinvolgere per sviluppare un suono complesso ed elaborato sono molte, tuttavia per motivi di fattibilità e di semplicità ho deciso di utilizzare solamente le caratteristiche principali che costituiscono le note musicali. Lavorando quindi con tonalità, volume e tempo ho comunque raggiunto un livello elevato e raffinato di qualità e piacevolezza. La corrispondenza tra dati ambientali e componenti musicali è variata numerose volte durante la sperimentazione. Rispetto ai primi prototipi ho pensato che fosse importante per un fattore logico legare ogni edificio al suono di una singola nota e non alla ripetizione di essa in risposta a una caratteristica fisica della costruzione. Successivamente sono passato ad elaborare la corrispondenza definitiva tra componenti fisiche e sonore che vado qui ad illustrare: • Tonalità = superficie. L’area occupata dall’edificio è collegata direttamente con la tonalità della nota generata. Se un palazzo ha una superficie molto ampia la nota sarà più grave a voler enfatizzare le caratteristiche di ampiezza e maestosità della costruzione, mentre se l’area sarà molto ridotta la nota sarà acuta e delicata. • Volume sonoro = altezza edificio. Sono arrivato ad accostare l’altezza dell’edificio con il volume delle note cercando di assegnare ad una costruzione elevata un suono squillante e ben nitido, mentre a un edificio più basso un volume più sommesso e meno appariscente.
5. Il prototipo
>
Lo schema sottostante indica la struttura del software e mostra in maniera chiara l’ordinamento dei livelli che forniscono le informazioni per la successiva generazione della composizione musicale. Le mappe mostrano lo stesso dettaglio dell’area ma si può notare la differenza di colorazione e gradiente. La mappa più in basso di colorazione rossa identifica i l’altezza dei diversi edifici, mentre quella intermedia indica l’ampiezza dell’area e ID di ogni edificio.
69
• Durata nota = rapporto altezza superficie. Dopo numerosi ripensamenti ho deciso di esaltare le caratteristiche precedenti di tonalità e volume con la durata della nota riprodotta. Il rapporto tra altezza e superficie dell’edificio va quindi a variare la lunghezza del suono in maniera inversamente proporzionale. Un edificio basso ma molto esteso avrà quindi una tonalità grave ma anche una durata lunga per esaltarne l’aspetto poco slanciato. Diversamente una costruzione elevata con una superficie ristretta, come un campanile, sarà resa con una nota breve e squillante. • Ritmica musicale = distanza e velocità movimento. La ritmica è una caratteristica fondamentale per qualsiasi opera musicale. Ho deciso quindi di sfruttare gli aspetti spaziali legati alla posizione dell’utente per influenzarne le variazioni. Le componenti di tonalità, volume e durata musicale permettono di generare nella sua interezza la singola nota ma non permettono di orchestrare una composizione nel suo complesso. In musica la battuta o misura costituisce l’unità base di tempo entro la quale si raccoglie una sequenza di note, queste sezioni vanno poi a susseguirsi per formare l’intero componimento. Le note che all’interno vengono
70
riprodotte secondo la sequenza temporale permettono la generazione della vera e propria armonia. È stato quindi essenziale elaborare una metodologia per determinare la sequenza di riproduzione delle note per generare un linguaggio musicale armonioso ma ben riconoscibile nelle sue componenti. Ho deciso quindi di collegare la distanza dell’edificio dall’utente con la posizione della nota all’interno della battuta, un modo chiaro ed istintivo per comprendere la lontananza della struttura. In maniera concreta si può portare questo esempio: se vi sono cinque edifici in contatto con l’area attiva dell’utente questi generano cinque note distinte che vengono riprodotte in sequenza secondo quanto distano dalla persona, a partire dell’edificio più vicino fino a quello più lontano. Il rapporto di distanza tra le note rimane quindi costante e ricalca le proporzioni ambientali reali. Va sottolineato che la durata della battuta è costante, è quindi la disposizione delle singole note nel tempo che varia in relazione alla distanza rilevata. Una volta eseguita l’intera battuta l’armonia prosegue ripartendo a suonare la nota relativa all’edificio più vicino.
L’applicazione è anche pensata per coinvolgere i movimenti dell’utente e quindi ho considerato importante variare la riproduzione del componimento a seconda del grado di attività della persona. Seguendo questo principio ho deciso di collegare la velocità di spostamento all’interno dello spazio con la velocità di riproduzione dando all’utente la possibilità di enfatizzare con i suoi movimenti alcuni passaggi dell’armonia, come a voler seguire una linea di interpretazione che parte dal vero movimento nell’ambiente che combina sensazione visiva e musicale in un’unica resa finale. Devo evidenziare come l’orchestrazione delle note nel loro complesso dipenda da un’attenta programmazione del codice per rendere l’armonia creata melodiosa e musicalmente corretta. L’applicazione infatti offre una piacevole sensazione e coinvolge il fruitore nell’utilizzo e nell’interazione anche se egli non ha alcuna conoscenza della teoria musicale. La tonalità della singola nota viene infatti generata in modo da ricalcare le caratteristiche fisiche dell’edificio ma è anche coordinata con le altre note riprodotte secondo le regole dell’armonia classica. In questo modo le caratteristiche strutturali dell’ambiente vengono rese chiaramente e la comunicazione assume
anche un aspetto raffinato che fin dall’inizio è stato posto al centro di questo progetto. Il risultato finale è sicuramente gradevole, l’armonia generata coinvolge gli utenti, la posizione centrale della persona nella variabilità dei dati raccolti la porta ad essere interprete di primo piano della composizione. L’applicazione, nonostante l’apertura a persone prive di un grande bagaglio musicale, rimane rivolta in larga parte a un pubblico istruito musicalmente. Per questi utilizzatori le possibilità interpretative sono maggiori e la conoscenza dell’armonia musicale permette una grande interazione e possibilità di sperimentazione creativa. Per quanto riguarda la generazione nel suo complesso si possono notare buone opportunità di sviluppo e ampliamento. La scelta di un maggior numero di fattori ambientali o personali potrebbe dar luogo a una composizione ancora più complessa, elaborata e piacevole. Questi ultimi argomenti saranno oggetto di un attento approfondimento nell’ultimo capitolo.
71
5.3 Le interazioni in dettaglio Nei paragrafi 2.4 e 2.5 ho già affrontato nel dettaglio la questione dell’interazione tra utente e dispositivo. Una delle priorità è stata quella di rendere l’applicazione accessibile a utenti con problemi visivi grazie ad una interazione facile e veloce sia per ciechi sia per vedenti. Normalmente l’interazione con i dispositivi mobili è pensata per persone vedenti e poi viene adattata, tramite dispositivi di lettura di schermo, a ciechi e ipovedenti. Questa applicazione, invece, copre un ampio spettro di utenti grazie a gesti e interazioni facili ed istintive comuni a tutte le persone. Nel terzo capitolo ho già presentato alcune tipologie di sperimentazione che ho testato per arrivare a uno sviluppo nel prototipo finale. Per quanto riguarda la navigazione associata ai movimenti della testa ho evidenziato alcune problematiche tecniche e pratiche che ne hanno sconsigliato l’utilizzo. Da un punto di vista tecnico questo sistema prevede l’impiego di un sensore che rilevi i movimenti del capo (bussola o giroscopio) e che probabilmente sarebbe da inserire all’interno delle cuffie stesse non rendendo più possibile l’uso di un qualsiasi modello di auricolare disponibile sul mercato. Si sono confermate estremamente valide, invece, sia l’interazione tattile sia quella legata ai movimenti della mano. Ho deciso di inserire entrambe nel progetto finale lasciando agli utenti la libertà di selezionare alternativamente una o l’altra funzione a seconda delle circostanze. Per maggiore chiarezza nelle pagine che seguiranno citerò le due tipologie di navigazione come: interazione a schermo (esclusivamente tattile) ed interazione gestuale (legata ai movimenti della mano). Per la selezione tra le due tipologie di navigazione è sufficiente porre due dita sullo schermo e compiere un movimento di trascinamento avvicinando i due polpastrelli. Si accede a una sezione esterna dove si possono variare le impostazioni di navigazione. Si tratta di un
72
gesto intuitivo come per volersi allontanare dall’interfaccia di navigazione e salire ad un livello esterno ed isolato dove modificare le preferenze di sistema.
5.3.1 Interazione innovativa Vorrei sottolineare come tutte le modalità di interazioni che andrò ora a presentare sono alla base del funzionamento dell’applicazione. Esse non sono legate a un’interfaccia statica, al contrario è la stessa interfaccia che si adatta al tocco e al posizionamento del dito sul dispositivo e l’ampiezza del gesto viene analizzata per consentire la navigazione dei menù indipendentemente dalla zona dello schermo su cui si effettua. Questa è la caratteristica principale della navigazione che risponde alle difficoltà delle persone cieche di identificare la posizione di tocco all’interno di uno schermo completamente liscio e senza punti di riferimento. Sono arrivato a questa soluzione ispirandomi al lavoro già portato avanti da altri ricercatori, ad esempio la Braille Keybord sviluppata presso la Stanford University, il progetto PieTouch1 e gli studi sperimentali svolti presso la University of Glasgow2. In questo modo si consente l’utilizzo a tutti gli utenti (ciechi e vedenti) ponendoli sullo stesso piano. Non è più il dito che va a selezionare un tasto o una funzione cliccando una determinata area dello schermo, ma è l’interfaccia che appare sullo schermo a seconda di dove viene posizionato il dito e lo spostamento di quest’ultimo dalla posizione di tocco viene analizzata dal software secondo le variabili di distanza e direzione per consentire la navigazione e la scelta delle funzioni. L’interfaccia risulta quindi assemblata sulla base di una griglia di proporzioni stabili, ma non ha una posizione fissa sullo schermo e segue la posizione del nostro dito sullo schermo. Questa innovazione consente un veloce e rapido utilizzo di tutte le funzioni e verrà chiarita maggiormente nei paragrafi seguenti.
Quando l’utente poggia il dito sullo schermo ha inizio l’interazione con l’applicazione e la grafica compare sullo schermo in relazione alla posizione del punto di tocco.
Se l’utente solleva momentaneamente il dito dallo schermo l’interfaccia grafica scompare per poi riapparire nella nuova posizione una volta che si riappoggia il dito sullo schermo.
5. Il prototipo
>
>
>
A questo punto per l’utente è molto semplice proseguire con la navigazione. Mantenendo il dito sullo schermo sarà sufficiente spostarsi in direzione della voce prescelta.
73
5.3.2 Interazione a schermo e gestuale Tocco di avvio
Navigazione Gestuale
Il tocco dello schermo con il dito segna l’avvio di ogni interazione con l’applicazione, senza di esso il software non elabora i dati di interazione.
La rotazione del dispositivo verso destra o sinistra consente di esplorare i menù con movimenti semplici e naturali.
Selezione
Tornare indietro Gestuale
Una volta selezionata una funzione desiderata per accedervi è sufficiente compiere un doppio tocco in sequenza ravvicinata.
74
Quando l’utente vuole tornare a una funzione precedente sarà necessario poggiare il dito sullo schermo è compiere un veloce movimento verticale.
Navigazione
5. Il prototipo
Registrazione e interpretazione
Tattile
Per navigare i menù è sufficiente tenere premuto il dito sullo schermo ed esplorare la sua intera superficie guidati dall’audio.
Tornare indietro
Quando ci si trova nella sezione di generazione musicale è possibile azionare e bloccare la registrazione audio poggiando e mantendo immobili per due secondi due dita sullo schermo. Una volta ricevuto il segnale acustico la registrazione avrà inizio è sarà possibile continuare a interagire per creare la composizione.
Cancellazione tracce
Tattile
Quando la funzione selezionata non è quella desiderata è possibile tornare al livello precedente passando due dita sullo schermo.
L’archivio contiene tutte le nostre registrazioni passate. Quando si vuole eliminare una di esse è sufficiente poggiare due dita sullo schermo e, dopo due secondi, attendere il suono di conferma per poi trascinare la selezione verso l’esterno cancellandola.
75
5.3.3 Feedback Il feedback che permette all’utente di comprendere le funzioni selezionate e orientarsi all’interno della struttura dell’applicazione viene dato in primo luogo attraverso il suono e supportato dall’interfaccia grafica. L’ossatura dell’applicazione consente una netta suddivisione a livelli e tramite dei semplici ticchettii (un ticchettio per il primo livello, due per il secondo ecc.) è semplice capire il livello di profondità all’interno dell’applicazione. La scelta iniziale tra la sezione di generazione musicale e quella di archivio è guidata da suoni distinti e inconfondibili. Per l’archivio ho deciso di riprodurre una piccola anteprima di una passata registrazione, mentre per l’area di esplorazione in tempo reale il suono corrispondente è quello del metronomo3 che sta ad indicare come la composizione debba ancora essere scritta e quindi si lascia completa libertà interpretativa all’utente. Quando ci si trova nella pagina iniziale entrambe le guide sonore vengono riprodotte a un volume ridotto e con effetto direzionale (le tracce vengono connesse con la cuffia destra o sinistra in relazione al movimento che si deve compiere per selezionare le corrispondenti funzioni), quando si seleziona una voce del menù il suono collegato viene isolato e riprodotto sempre da una sola cuffia rendendo chiaro all’utente la voce del menù che si sta selezionando per poi accedere alla vera e propria funzione. Il feedback audio è una costante che si trova lungo tutta l’applicazione e non varia nelle sua modalità sia con la navigazione a schermo sia con quella gestuale.
5.3.4 Interfaccia grafica La realizzazione della veste grafica si basa sullo stesso concetto di flessibilità che segue la navigazione: ogni elemento grafico non ha una propria collocazione statica sullo schermo ma è legata al tocco dell’utente.
(3) Il metronomo è uno strumento utilizzato in ambiente musicale per misurare il tempo e battere la scansione ritmica.
76
Quando avviamo l’interazione con l’applicazione poggiando le dita sul dispositivo gli elementi dell’interfaccia appaiono a seconda della posizione delle nostre dita sullo schermo: quello che rimane costante sono i rapporti e le distanze tra i componenti grafici e non la loro posizione fissa rispetto ai bordi. Grazie a questo tipo di interazione è molto più semplice utilizzare l’applicazione: data la mancanza di riferimenti tattili su un dispositivo completamente liscio risulta più semplice far ricorso a una memoria gestuale di operazioni già svolte con il supporto di una guida sonora e dell’interfaccia grafica. Per i testi all’interno di tutta l’applicazione ho utilizzato il carattere Titillium4. Le direttrici iniziali e finali che costituiscono i singoli glifi non tendono ad arricciarsi alle estremità ma rimangono più aperte. Questo rende la lettura più semplice e veloce in quanto riduce le possibilità di confusione tra le singole lettere. Allo stesso tempo è stato importante lavorare sulla coordinazione cromatica per tutta l’applicazione. Ho scelto di usare gli accoppiamenti di colore nero-giallo e bianco-blu che vengono applicati alle combinazioni carattere-sfondo. L’applicazione è suddivisa strutturalmente in due sezioni: generazione musicale e archivio. Ho deciso di legare gli accoppiamenti giallo-nero e blu-bianco alle rispettive aree in modo da avere due fili conduttori lungo tutta l’applicazione. Il contrasto risulta sempre molto elevato, le aree ben distinte e il testo molto leggibile permettendo una distinzione chiara delle funzioni anche agli ipovedenti. Gli utenti affetti da totale daltonismo possono anch’essi distinguere le due aree grazie alla differente tonalità di grigio che le caratterizza e il contrasto chiaro scuro tra testo e sfondo: nero su giallo diviene quindi nero su grigio chiaro, mentre bianco su blu risulta opposto e quindi bianco su grigio scuro.
Consente di mantenere la stessa velocità durante una riproduzione e funge da supporto ritmico per suonare in gruppo.
(4) Titillium è un carattere nato come esercitazione didattica presso l’Accademia di Belle Arti di Urbino
5. Il prototipo
77
L’interfaccia è costituita da una sottile barra superiore dove vengono raccolte tutte le notifiche. La parte restante dello schermo è libera per l’interazione e non vi compare nulla finché non si tocca lo schermo con il dito.
È possibile scegliere tra la navigazione a schermo o quella gestuale: basta poggiare due dita sullo schermo e compiere un movimento di chiusura. Si accede così alle impostazioni dove si può selezionare la navigazione che si preferisce.
>
Quando l’utente poggia il dito sullo schermo l’interazione inizia e l’interfaccia compare in corrispondenza della posizione del polpastrello. Ora l’utente è libero di esplorare l’area e selezionare la funziona desiderata proseguendo con la navigazione
>
Tornando alla schermata principale l’utente può esplorare la sezione dedicata alla generazione musicale in tempo reale. Sarà sufficiente poggiare il dito sullo schermo e farlo scorrere verso destra.
>
La funzione ”past” si trova sul lato sinistro del punto di tocco. Una volta selezionata questa voce la funzione ”play” si oscura e l’icona del ”past” cambia dando un ulteriore elemento di discontinuità che indica l’avvenuta selezione
>
>
Come per l’icona dell’archivio, anche in questo caso quando l’utente rilascia il dito dallo schermo il tasto si espande ad occupare lo schermo. Per selezionare la funzione sarà sufficiente un doppio tocco.
>
Quando si solleva il dito dallo schermo il tasto si espande fino ad occupare l’intero schermo e l’icona si sposta al centro. Risulta chiara e ben leggibile la funzione selezionata e si può facilmente entrare in questa sezione grazie al doppio tocco di selezione.
Una volta entrati all’interno della sezione l’utente visualizza la sua attuale posizione sulla mappa con l’area e gli edifici attivi. Poggiando il dito sullo schermo la mappa si ridispone sotto il punto di tocco.
>
Quando si accede all’archivio compare nella barra superiore una notifica. Nella sezione principale dello schermo si trova l’elenco orizzontale di tutte le passate registrazioni, è sufficiente muovere il dito verso destra o sinistra per esplorarlo.
>
Quando l’utente lo desidera può intervenire nella selezione delle note muovendo il dito esternamente rispetto alla posizione di tocco. L’area attiva cambierà forma per evidenziare l’angolo che viene selezionato.
>
Con il doppio clic l’utente passa all’ascolto della traccia. La mappa che compare al centro dello schermo ripercorre il percorso eseguito mostrandoci gli edifici attivi. La barra delle notifiche ci mostra quale registrazione stiamo ascoltando.
>
L’utente può anche registrare la composizione mantenendo la possibilità di interagire sulla selezione dell’area. In questo caso compare una notifica che ci conferma l’avvio della funzione.
6. Conclusioni La conclusione di un progetto è un momento importante nel risultato complessivo del lavoro. In questa fase tutto il processo seguito diventa chiaro e definito e ci permette di analizzarlo secondo le sue sezioni per trarne le dovute considerazioni. Credo sia giusto, quindi, presentare in questo capitolo le valutazioni finali sul mio lavoro per evidenziare gli errori, i punti di forza e i possibili sviluppi futuri. In primo luogo devo sottolineare che per la prima volta nella mia carriera universitaria e lavorativa di interaction designer mi sono trovato ad affrontare un progetto così ampio interamente da solo. Nel nostro settore è cosa consolidata il lavorare in gruppo, magari coinvolgendo differenti professionalità, per sviluppare con una certa velocità e completezza l’intero progetto. Inizialmente credo di aver sottovalutato le difficoltà che si possono incontrate in un lavoro svolto singolarmente e non ho valutato correttamente le energie e il tempo necessario per ogni fase dello sviluppo. Questo fatto mi ha costretto a ridimensionare o ad escludere alcune caratteristiche che volevo dare inizialmente al mio prototipo definitivo. In primo luogo posso ritenermi soddisfatto della qualità ottenuta con la generazione musicale che costituisce la base dell’intero progetto. Sono riuscito
82
a sviluppare un buon metodo di analisi in grado di generare una composizione varia e piacevole, tuttavia credo che siano ancora molte le possibilità di implementazione. Nel mio lavoro mi sono limitato ad analizzare le caratteristiche spaziali di altezza, superficie e distanza dall’utente, ma una raccolta di dati più ampia potrebbe portare a un risultato ancora più coinvolgente e diversificato, rendendo unica l’impronta musicale di ogni metropoli. Pensiamo a una città come Parigi, con i suoi palazzi settecenteschi che si susseguono regolari lungo i viali rettilinei che attraversano la città. In una circostanza simile la generazione musicale attuale potrebbe divenire monotona e poco stimolante. L’ampliamento dei dati raccolti potrebbe invece influire positivamente sull’effetto musicale ottenuto: le informazioni meteorologiche, di temperatura e i colori delle facciate potrebbero essere analizzati e trasformati in musica per aumentare il phatos dell’esperienza vissuta. Lo sviluppo del prototipo musicale funzionante ha posto numerose problematiche tecniche. Nei capitoli precedenti ho indicato come piattaforma per la raccolta dei dati ambientali i diversi servizi cartografici disponibili in rete, tuttavia questo non è stato ad oggi possibile
produrlo effettivamente: i database non riescono a fornire l’insieme di dati necessari e quindi ho dovuto procedere con una raccolta manuale. È presumibile che in futuro l’accessibilità alle informazioni sarà maggiore e consentirà la realizzazione concreta del progetto. In fase di prototipazione non mi è stato possibile sviluppare la resa tridimensionale del suono, più volte citata durante la ricerca e lo sviluppo. Le cause sono propriamente temporali e un futuro sviluppo aumenterebbe il coinvolgimento emotivo e la comprensione spaziale durante l’uso del dispositivo. Un altro problema considerevole è stato posto dai limiti dei dispositivi tecnologici attualmente in commercio. La generazione di una composizione musicale così complessa richiede un notevole sforzo di calcolo al processore di uno smartphone che quindi non è in grado di produrre un risultato finale soddisfacente. Ho dovuto ripiegare sullo sviluppo della sezione musicale su un computer decisamente più potente. Forse una disponibilità maggiore di tempo mi avrebbe consentito di sviluppare più in profondità il prototipo e di testare effettivamente il funzionamento su smartphone o tablet. Questa si pone come una interessante problematiche per uno sviluppo futuro.
6. Conclusioni
Durante le fasi iniziali di design ho illustrato più volte la mia volontà di escludere completamente la comunicazione visiva per dedicarmi completamente agli utenti ciechi e avvicinare a questa realtà anche le persone vedenti. Si trattava di una sfida avvincente ed estrema che non tralasciava gli aspetti funzionali e di usabilità del prodotto. Per diversi motivi mi sono trovato ad abbandonare questa strada e sono decisamente soddisfatto del risultato ottenuto. Ritengo comunque molto interessante poter tornare su questo passaggio per sviluppare nella sua interezza un nuovo progetto. Le critiche osservate dagli utenti ciechi mi hanno portato a cambiare direzione, ma disponendo di più tempo e ritornando sul problema sarebbe possibile riprendere la strada abbandonata per elaborare un progetto molto interessante che farebbe riflettere in maniera ancora più decisa sui canali di comunicazione e le possibilità di relazione tra persone e ambiente. Le opportunità di implementazione sono quindi notevoli.
83
7
Appendice di ricerca
7.1 Esplorazione ad ampio raggio 7.2 CittĂ e servizi 7.3 Guardare con altri occhi
7. Appendice di ricerca 7.1 Esplorazione ad ampio raggio
7.2 Città e servizi
La fase di ricerca che ho presentato nel primo capitolo è stata molto lunga e articolata, ho esplorato diversi campi in profondità per arrivare a trovare il settore giusto su cui concentrarmi per la progettazione. Nelle prime pagine ho presentato numerosi progetti che hanno fortemente influito sul lavoro finale ed ho escluso alcune aree di investigazione che non hanno segnato direttamente lo sviluppo del progetto. In questa appendice vorrei, invece, completare l’esposizione della ricerca svolta ad ampio raggio presentando i lavori esclusi. La loro importanza rimane comunque notevole e potrebbe essere di ispirazione per futuri progetti, inoltre vorrei dare completezza e risalto all’intero studio svolto in questi mesi. I progetti che andrò a presentare riguardano sempre le macro aree identificate nel primo capitolo:
Nel 2009 da una collaborazione tra la città di Copenhagen, alcune società private e il Senseable City Lab nasce il progetto The Copenhagen Wheel1. Si tratta di un dispositivo che ognuno può installare sulla propria bicicletta e fornisce due tipologie di servizi: è in grado di immagazzinare all’interno di una batteria l’energia generata dalla pedalata che può essere restituita quando vi è necessità grazie ad un motore elettrico. Inoltre l’apparato comprende numerosi sensori che rilevano il livello di qualità dell’aria, l’umidità, la temperatura, il rumore ed è collegato a una rete GPRS. In questo modo ogni mezzo che fa parte della rete The Copenhagen Wheel può fornire e ricevere in tempo reale molte informazioni utili per la mobilità all’interno della città. Si crea una mappa interattiva generata dagli stessi utenti del servizio che consente una viabilità urbana su bicicletta più piacevole e sicura. Tutti i dati sono consultabili facilmente dagli utenti attraverso un’applicazione per smartphone. Sempre nel 2009, grazie alla collaborazione con la casa automobilistica Volkswagen e il laboratorio del MIT, vede la luce il progetto Aida2, a cui è seguita nel 2011 la nascita di Aida 2.03. Si tratta di un progetto rivolto alla
• Progettazione di servizi per la città che pongono al centro della ricerca la relazione tra uomo e ambiente. • Analisi e progettazione di dispositivi e applicazioni per utenti ciechi e ipovedenti.
(1) The Copenhagen Wheel (2009) http://senseable. mit.edu/copenhagenwheel/ (13 ottobre 2011)
86
(2) Aida. Affective Intelligent Driving Agent (2009) http://senseable.mit.edu/aida/ (13 ottobre 2011)
(3) Aida 2.0 (2011) http://senseable.mit.edu/aida2/ (13 ottobre 2011)
mobilità delle vetture del futuro. Aida cerca di superare il tradizionale concetto di navigatore stradale avvicinandosi a un compagno di viaggio intelligente. I classici navigatori satellitari spesso diventano noiosi e limitati proprio perché circoscrivono il loro campo di funzionamento al semplice calcolo della strada più veloce o più semplice per raggiungere un determinato luogo, senza considerare esigenze, passioni o abitudini del conducente. Aida è composto da un robot personale che incarna un simpatico compagno di viaggio e una piattaforma di navigazione che assicura un’innovativa esperienza di guida. Aida dopo un periodo di tempo iniziale registra numerose informazioni relative alla città, combinate in tempo reale ai dati sulla viabilità ed inoltre comprende le abitudini e le passioni del guidatore fornendo un servizio profondamente personalizzato. L’interfaccia è costituita dal robot integrato nel cruscotto che comunica le informazioni grazie ad espressioni mimiche facciali ricreate da LED. Questo favorisce la percezione del dispositivo come un vero compagno di viaggio. In Aida 2.0 alcuni aspetti del progetto sono stati sostituiti per rendere più coinvolgente l’esperienza di guida. Al fine di avvicinare l’esperienza di realtà aumentata agli
7. Appendice di ricerca
utenti i progettisti hanno pensato di trasformare l’intero cruscotto in un unico schermo per comunicare il crescente numero di informazioni che ci circondano La realtà aumentata è divenuta negli ultimi anni un ambito di ricerca e progettazione molto seguito. La sempre più alta diffusione di dispositivi mobili ha favorito gli investimenti di società di servizi verso questa tecnologia. La fruizione dei servizi all’interno dell’ambiente che ci circonda è divenuta sempre più immediata e interconnessa. Possiamo tranquillamente trovarci in una città sconosciuta e conoscere velocemente l’offerta culturale, di attività commerciali e in generale di qualsiasi tipo di servizio con pochi passaggi sul dispositivo mobile. In questo contesto va ad inserirsi il concetto di Internet of Things: si tratta di un ambito di ricerca oggi molto seguito e che prevede l’ampliamento su larga scala della rete internet fino ad arrivare ad includere buona parte degli oggetti che ci circondano. In un simile contesto l’ambiente potrà essere veramente interattivo ed interconnesso, ogni oggetto diventerà sensore ed attuatore offrendo una rapida e completa offerta di informazioni e servizi. Internet non sarà più visto per trasposizione come una pagina web da consultare su un computer, bensì come
The Copenhagen Wheel. Il dispositivo sulla ruota posteriore incorpora i sensorie e le batterie, le informazioni del sistema sono consultabili da un’applicazione installabile sul proprio smartphone.
> 87
88
una rete di informazioni a cui accedere attraverso tutti gli oggetti che diverrebbero le stesse interfacce del sistema. Interessante è il progetto elaborato da Alberto Moro: SPLIT - The object social network4. Si tratta di una piattaforma che gestisce una vasta rete di oggetti e lascia la libertà agli utenti di costruire le connessioni tra i singoli dispositivi per creare servizi su misura. Gli utenti possono scegliere gli oggetti da collegare tra loro e anche le funzioni da compiere in modo da originare facilities5 personalizzate da condividere con altri utenti. Uno scenario simile sarà sicuramente realizzabile nei prossimi anni e potrà rendere la nostra vita più facile e divertente. In questi anni l’accessibilità alla rete internet è aumentata sensibilmente nei paesi occidentali. Nelle grandi città, stazioni ed aeroporti è normale poter accedere a reti wireless con i propri computer portatili. Inoltre l’ampia diffusione di smartphones e la connessione dati attraverso le classiche reti telefoniche mobili ha permesso di accedere facilmente ad internet. Questi fattori consentono l’accesso ad un ampio numero di servizi online da diversi dispositivi. Una delle conseguenze è stata la nascita di servizi di mobilità che consentono di ricevere informazioni per gli spostamenti nelle città ma anche nelle aree extraurbane. Un esempio in questa direzione ci viene fornito dai servizi di consultazione di mappe terrestri, come Google Maps e Google Earth. Queste piattaforme hanno permesso un’esplorazione gratuita di buona parte della superficie terrestre. Il loro punto di forza è fornito dalla struttura a livelli che consente di visualizzare non semplicemente un’area geografica, ma anche numerose informazioni ad essa correlate: strade, servizi commerciali e altri dettagli. Un aspetto molto importante di queste piattaforme è non solo la completa fruibilità, ma anche la libera implementazione dei servizi. Con una programmazione strutturata a livelli tutti possono implementare le mappe
Il robot integrato del progetto Aida è un compagno di viaggio intelligente che enfatizza le informazioni grazie a una mimica facciale a LED.
>
Il robot è inserito nella plancia dell’auto e quando si attiva si solleva diventando l’interfaccia del sistema intelligente che guida l’utente.
>
(4) Moro, Alberto, SPLIT. The object social network (2011) http://www.albertomoro.it/split/ (5 ottobre 2011) (5) Per facilities si intendono i servizi originati dalla cooperazione di diversi oggetti del sistema
Per riuscire a visualizzare l’altissimo numero di informazioni che ormai ci circondano nell’ambiente in Aida2.0 l’intero cruscotto diventa interattivo.
>
esistenti per fornire nuovi software o servizi che vanno a migliorare il lavoro già svolto. Le possibilità diventano ampissime e questo si può osservare nel grande numero di prodotti gratuiti disponibili in rete. Un esempio è Mapnificent6: un progetto tedesco che unisce le informazioni topografiche di Google Maps con un servizio di mobilità pubblica. Sul sito web si possono visualizzare le mappe di alcune reti metropolitane su scala mondiale e, grazie a un semplice selettore temporale, una grafica evidenzia le aree raggiungibili con mezzi pubblici e a piedi. Anche in questo caso è possibile consultare la documentazione riguardante la API7 e i rispettivi termini di utilizzo per possibili ampliamenti. Anche Google stesso continua a sviluppare servizi aggiuntivi per migliorare la propria offerta. Per alcune città internazionali si può accedere agli orari in tempo reale sui trasporti pubblici grazie a Google Live Transit. Con un semplice click sulle fermate di interesse veniamo informati sull’orario di passaggio dei mezzi pubblici ed eventuali ritardi aggiornati costantemente. Questo servizio è disponibile in Italia solo per la città di Torino. La struttura a livelli è alla base anche del progetto Mapumental8 dove i progettisti oltre a raccogliere le informazioni riguardanti la mobilità e gli orari dei trasporti hanno pensato di combinare questi dati con altre interessanti indicazioni. La versione beta del programma realizzata per la città di Londra si configura come un utile mezzo per gli abitanti o per chi è intenzionato a trasferirsi nella metropoli. Il software raccoglie gli orari forniti dalle compagnie di trasporto e, dopo aver scelto un punto di riferimento all’interno della città, visualizza sulla mappa le aree raggiungibili nel tempo selezionato grazie a una barra di scorrimento. L’aspetto interessante è che queste informazioni vengono combinate con il costo medio degli immobili nelle diverse zone di Londra. In questo caso risulta molto
(6) Mapnificent http://www.mapnificent.net/ (13 ottobre 2011) (7) Il termine API indica l’ Interfaccia di Programmazione di un’Applicazione e raccoglie l’insieme di procedure disponibili per il completamento di un determinato compito all’interno del programma (8) Mapumental http://mapumental.com/ (5 febbraio 2012)
90
Mapnificent, la mappa notturna dei trasporti pubblici evidenzia le aree raggiungibili con un tempo di percorrenza massimo di 25 minuti all’interno della città di Torino.
>
Mapumental lavora in maniera simile a Mapnificent, ma può incrociare diversi livelli di informazione come gli orari dei trasporti e il costo degli affitti nelle diverse aree della città divenendo un utile strumento per future programmazioni.
>
semplice per chi conosce il proprio luogo di lavoro e il tempo che si vuole impiegare negli spostamenti, trovare una dimora che rientri all’interno della propria idea di spesa. I progettisti hanno inoltre aggiunto un terzo filtro che permette di ottenere una ricerca ancora più precisa ed accurata. Partendo dalle segnalazioni di migliaia di utenti, oltre alle informazioni su mobilità e valore immobiliare, è stato possibile introdurre un valore che indica la qualità paesaggistica del vicinato. In questo modo la scelta può essere più precisa e diversificata a seconda delle esigenze.
7.3 Guardare con altri occhi Vorrei ora tornare su alcuni progetti realizzati presso il Design Research Lab e altri centri di ricerca che sono rivolti alla comunicazione sensoriale e alla percezione del mondo per persone non vedenti. Reflective Haptics9 è un progetto sperimentale rivolto alla fruizione più consapevole e completa delle interfacce utente nel mondo digitale. Il dispositivo è composto da una penna dotata di una punta a sfera collegata con un cavo elettrico. Il campo elettromagnetico che si crea consente di controllare la scorrevolezza della sfera. In questo modo quando l’utente muove la penna sulla superficie dello schermo l’attrito varia in relazione alle aree che si stanno esplorando. Rispetto a un classico lettore di schermo Reflective Haptics filtra l’importanza degli elementi: la maggiore frizione della penna può indicare, ad esempio, l’importanza più rilevante di una notizia. In maniera ancora più sensibile può offrire una risposta diversa nel momento in cui si conferma l’approvazione di un contratto o il semplice invio di una mail. Questo progetto appare come un utile mezzo per filtrare velocemente le informazioni su uno schermo ricolmo di un’eccessiva offerta di dati e potrebbe essere integrato con i sistemi di accesso facilitato. Il Weight-Shifting Mobile10 è un progetto sperimentale
(9) Hemmert, Fabian et al., Reflective Haptics (2010) http://www.design-research-lab. org/?projects=reflective-haptics (13 ottobre 2011)
92
che intende esplorare la possibilità di integrare all’interno degli attuali dispositivi mobili funzionalità di bilanciamento del peso per rendere più ricca la risposta sensoriale data dall’interazione con l’oggetto. Per esempio operazioni come drag and drop potrebbero essere supportate fisicamente dallo spostamento di massa all’interno del dispositivo per seguire l’azione. Come sostengono i ricercatori spesso le interfacce non visive possono essere molto utili, ma sono anche limitate dalle tecnologie in grado di analizzare le informazioni digitali e trasformarle in risposta fisica. Un dispositivo simile potrebbe tuttavia essere utile su differenti schermate. Grazie a due differenti assi di orientamento del peso sarebbe possibile, per esempio, visualizzare la lettura di una playlist e parallelamente l’avanzamento del singolo brano che si sta riproducendo. In maniera ancora più precisa potrebbe essere utilizzato per la navigazione: un utente riuscirebbe a capire la direzione da seguire senza dover guardare continuamente lo schermo ma cogliendo lo spostamento del baricentro tenendo il dispositivo semplicemente in mano. Il progetto Shape Changing Mobile11 esplora le caratteristiche di forma dell’oggetto. I ricercatori hanno tentato di sviluppare un dispositivo con un volume e struttura variabili per rispondere a esigenze funzionali e migliorare la comunicazione delle informazioni. I progettisti probabilmente hanno riscontrato numerose problematiche nell’utilizzo effettivo di materia capace di variare forma a livello microscopico. Per ovviare a queste difficoltà sono stati utilizzati una serie di servomotori capaci di modificare la forma del dispositivo. Questo permette di avere un oggetto compatto e sottile una volta riposto in tasca e più maneggevole quando tenuto in mano. In questo modo si possono comunicare in maniera più diretta numerose informazioni: per esempio la lunghezza di un testo che rimane da leggere potrebbe essere indicata
(10) Hemmert, Fabian et al., Weight-Shifting Mobile (2010) http://www.design-research-lab.org/? projects=weight-shifting-mobiles (13 ottobre 2011)
(11) Hemmert, Fabian et al., Shape-Changing Mobile (2010) http://www.design-research-lab.org/? projects=shape-changing-mobiles (13 ottobre 2011)
Reflective Haptics, la sfera nera posta all’estremità del dispositivo è controllata da un campo elettromagnetico generato all’interno. La variazione di scorrevolezza della punta sullo schermo descrive l’importanza dell’area che si attraversa.
>
Prototipo di Weight-Shifting Mobile che utilizza lo spostamento del peso all’interno del dispositivo per comunicare informazioni non visive. Ben visibili sono gli assi di spostamento e la massa interna.
>
Test sull’interazione del Shape Changing Mobile azionato da servomotori interni che variano le dimensione della scocca esterna. Il cambiamento della forma può comunicare informazioni come la direzione di un percorso senza dover guardare il dispositivo.
>
dallo spessore decrescente del dispositivo. Anche come supporto alla navigazione la deformazione del dispositivo enfatizzerebbe le indicazioni riguardo alla direzione da seguire senza guardare lo schermo. Questi progetti ci mostrano come l’interazione tra uomo e dispositivo sia al centro del lavoro: si ricerca una comunicazione semplice, coinvolgente e disinvolta. Oltre a sviluppare nuovi dispositivi che permettono interazioni più complete, alcuni progettisti si sono concentrati sulla possibilità di migliorare l’utilizzo delle apparecchiature esistenti grazie a nuove applicazioni e interfacce più intuitive. Uno spazio particolare va riservato al Mobile Lorm Glove12, sempre sviluppato presso il Design Research Lab. Consiste in un dispositivo indossabile studiato per la comunicazione delle persone sordo-cieche. Un settore del design medicale molto difficile che tuttavia lascia aperte molte possibilità di progettazione. A quanto risulta dalle ultime statistiche13 le persone sordo-cieche e pluriminorate in Italia sono un numero imprecisato che varia dai 3000 ai 11000. Un numero considerevole di persone per cui la comunicazione è un difficile ostacolo da affrontare giornalmente. Queste invalidità sensoriali non affliggono solamente la comunicazione verbale o visiva ma ledono la naturale interazione del singolo individuo con il mondo esterno. Le persone sordo-cieche riscontrano molto spesso deficit motori e di coordinazione corporea dovuti alla difficoltà di relazionarsi con l’ambiente e le persone. Per questi individui l’ampio raggio di comunicazione di cui disponiamo noi tutti è fortemente limitato e permesso grazie ad alcuni linguaggi tattili, obbligando quindi gli interlocutori a una simultanea presenza fisica. Con il Mobile Lorm Glove sì è pensato di tradurre digitalmente il linguaggio Lorm, dove ogni pressione e il contatto con specifiche parti della mano corrisponde
(12) Bieling, Tom, Mobile Lorm Glove :http://www. design-research-lab.org/?projects=mobile-lorm-glove (14 agosto 2011)
94
a lettere che se composte assieme formano parole e frasi complete. Questo dispositivo è composto da un guanto dotato di sensori di pressione integrati che la persona sordo-cieca può comprimere per comporre frasi che vengono digitalizzate e poi trasformare in diversi formati di informazione (SMS, digitazione su computer, lettura con sintesi vocale). Il dorso del guanto a sua volta è dotato di piccoli motori vibranti che possono trasmettere dei messaggi tattili di risposta alla persona disabile. Un mezzo utile per rendere facile la comunicazione tra sordo-ciechi e persone che non conoscono il linguaggio Lorm, superando anche le barriere dettate dalla vicinanza. Una maggiore indipendenza e la possibilità di utilizzare numerosi dispositivi tecnologici. Un approccio completamente diverso ma che tenta sempre di colmare i problemi di comunicazione per i ciechi è il Touchphone for Blind People14 progettato presso l’Umea Institute of Design. Si tratta di un prototipo molto vicino al mondo del product design e che utilizza tecnologie già totalmente disponibili. Il dispositivo è composto da un touchscreen che utilizza il linguaggio braille come mezzo di comunicazione ed incorpora alcune funzionalità studiate appositamente per gli utenti non vedenti: sistema di navigazione, bookreader e un riconoscimento di oggetti tramite telecamera. È necessario precisare, che diversamente da quanto si possa immaginare, la diffusione degli smartphone tra le persone non vedenti sta aumentando continuamente, superando gli iniziali pregiudizi. Sono molte le persone cieche che testimoniano di essere state colpite in particolare dalla facilità di utilizzo dell’iPhone e dalla interessante offerta di servizi e applicazioni di cui si può usufruire. Questo è dovuto a un attento programma di sviluppo che ha portato ad avere moltissime applicazioni compatibili con i più aggiornati sistemi di lettura schermo e accesso facilitato. Anche Google, con il sistema operativo
(13) Lega del filo d’oro, “Sordocecità e pluriminorazione sensoriale” in Bilancio sociale 2010. La filiera della solidarietà, 2010, p. 7
(14) Parra, Jordi, Touchphone for Blind People (2009) http://www.interactiondesign.se/blog/2009/06/ httpwwwyankodesigncom20090615touchphone-forthe-blind/ (13 ottobre 2011)
Il linguaggio Lorm è molto complesso e che richiede una certa pratica per l’apprendimento. Mobile Lorm Glove risulta quindi un dispositivo validissimo per la comunicazione dei sordociechi anche con chi non conosce questo linguaggio.
>
I sensori e gli attuatori consentono di ricevere e di trasmettere alla persona sordocieca le informazioni. Il discorso che si crea è totalmente digitale, può essere quindi trasmesso a distanza o tramutato in un sms, mail o messaggio voip istantaneo.
>
Touchphone for Blind People, lo schermo tattile è dotato di simboli braille in rilievo.
>
“Ci sono molti dispositivi che possono favorire la mobilità indipendente delle persone cieche, ma se li vuoi utilizzare tutti assieme hai bisogno di uno zaino o di una borsa. Uno degli aspetti veramente interessanti che l’Iphone e altri smartphone fanno è fornire una grande quantità di tecnologia su una sola piattaforma”. Miele Joshua, intervista su The Bay Citizen
Android ha dedicato una linea di prodotti pensati per una interazione senza l’utilizzo della vista (Eyes-Free Android Project). Riguardo questo argomento sono emblematiche le parole pronunciate da Joshua Miele durante un’intervista su The Bay Citizen15. Egli stesso non vedente e ricercatore presso il Smith-Kettlewell Eye Research Institute si dichiara entusiasta delle innovazioni apportate dall’iPhone che permette a molti ciechi di accedere a un ampio numero di informazioni grazie a ottime applicazioni, il tutto su un’unica piattaforma che sta comodamente nella tasca dei pantaloni. Questi dispositivi hanno sicuramente migliorato l’indipendenza dei ciechi favorendo gli spostamenti all’interno della città. Se immaginiamo come una persona non vedente possa affrontare un percorso urbano ci rendiamo conto delle numerose difficoltà, a volte insuperabili, che si debbano affrontare. Attraversare la strada, attendere il verde ad un semaforo, salire su un autobus o comprare un biglietto a un distributore automatico sono operazioni non agevoli per un cieco che le persone vedenti tendono a sottovalutare. Molte applicazioni consentono di svolgere queste azioni grazie a una guida audio: permettono di orientarsi tra le strade di una città o verificare
(15) http://www.baycitizen.org/technology/story/ smartphones-fail-visually-impaired/
96
quale autobus si sta accostando alla fermata. Un buon supporto è dato dalle piattaforme di navigazione come Google Maps che presentano anche informazioni ambientali molto utili riguardo all’area circostante l’utente e che velocemente stanno ampliando la loro offerta di dati. Sono molti i progetti che affrontano queste problematiche e spaziano all’interno di numerosi campi tecnologici per offrire soluzioni di diverso tipo. Ingegneri, informatici e gruppi di hackers hanno contribuito con progetti sperimentali che spesso risultano macchinosi, ingombranti e poco affascinanti, ma tuttavia interessanti per la loro originale trasposizione della realtà e per l’utilizzo di tecnologie ormai a basso costo. Nel numero di luglio 2011, la rivista Wired16 ha pubblicato un articolo sulle nuove porte che si sono spalancate da quando Microsoft ha messo in vendita il sistema Kinect e pochi mesi dopo ha rilasciato SDK17 gratuitamente. L’apparato è costituito essenzialmente da 2 telecamere e da alcuni sensori. In maniera simile al funzionamento della vista umana, le due telecamere registrano il mondo esterno da due distinti punti di vista e sono quindi in grado di fornire una visione tridimensionale del mondo esterno e di seguire e riconoscere con estrema
(16) Tanz, Jason, “Kinect Hackers Are Changing the Future of Robotics”, Wired:July 2011 (28 giugno 2011): http://www.wired.com/magazine/2011/06/ mf_kinect/ (August 13, 2011)
(17) SDK è un acronimo inglese che indica il paccheto di sviluppo per applicazioni. È composto da un insime di strumenti per lo sviluppo di uno specifico software
> NAVI, sistema audio e vibrotattile di navigazione assistita. Si può notare il livello sperimentale e l’ingombro dell’intero apparato che non ne consentono sicuramente un impiego nell’immediato futuro.
precisione movimenti umani ed oggetti. Questa tecnologia non è certo nuova e già da anni si pensava di realizzare sistemi simili, tuttavia il fattore che oggi rende diffuso l’utilizzo di questo sistema è esclusivamente economico. È possibile acquistare un dispositivo Kinect per circa 150$ e liberamente lavorare sul software; un prezzo molto basso rispetto al passato con una qualità decisamente elevata. Gli studenti Michael Zöllner e Stephan Huber dell’Università di Costanza, in Germania, hanno realizzato NAVI18, il sistema di navigazione assistita per non vedenti che si basa sulla tecnologia Kinect. Gli studenti, utilizzando il dispositivo Microsoft, hanno creato un software che legge l’ambiente circostante e riconosce codici QR19 che possono essere posizionati all’interno di spazi pubblici per evidenziare percorsi specifici. L’utente inoltre riceve feedback sonori da una voce che lo guida nello spazio e una risposta vibro-tattile da una cintura portata a vita che indica la presenza di oggetti nelle vicinanze o definisce la struttura di una stanza. Sicuramente non si può parlare di un progetto poetico e di facile utilizzo: la navigazione risulta abbastanza macchinosa e i dispositivi ingombranti. Interessante è il tentativo di rendere
(18) Zöllner, Michael e Huber, Stephan, NAVI – Navigational Aids for the Visually Impaired (2010) http://hci.uni-konstanz.de/blog/2011/03/15/ navi/?lang=en (13 ottobre 2011)
la realtà fisica circostante in maniera precisa e accurata. L’ambiente che circonda l’utente non viene tuttavia descritto se non in maniera estremamente limitata. Le informazioni spaziali rimangono in gran parte all’interno del software che elabora un tragitto per guidare la persona. Non si può quindi parlare di una libera esplorazione dell’area, di un’esperienza avvolgente nell’ambiente, ma di una guida assistita da un punto di partenza ad uno di arrivo. Un interessante punto di partenza per un futuro. Con questo progetto si conclude l’appendice di ricerca nella quale ho presentato i lavori che non hanno trovato uno spazio nella prima sezione.
(19) È un sistema di codificazione a matrice composto da moduli neri disposti all’interno di uno schema quadrato. Al suo interno può incorporare fino a 7.089 caratteri numerici e 4.296 alfanumerici
97
Ringraziamenti Il lavoro di questi mesi è ormai giunto al termine e non mi resta che ringraziare tutte le persone che sono state coinvolte in questo lungo e intenso percorso. Un ringraziamento affettuoso va ai miei genitori Mario e Adelaide che mi hanno sempre sostenuto durante questi anni di studio universitario e con entusiasmo mi hanno seguito nella carriera e nei progetti offrendomi spunti e considerazioni interessanti. Un grazie sentito va a Martina Maitan che in questi mesi con tranquillità e costanza mi ha sempre supportato fornendomi opinioni sincere, consigli e rincuorandomi pazientemente nei momenti più sconfortanti. Un ringraziamento particolare va ai miei relatori Gillian Crampton Smith e Philip Tabor che con il loro appoggio mi hanno permesso di arrivare alla conclusione di questo importante progetto e di un percorso universitario fondamentale. La loro professionalità e la passione nell’insegnamento hanno segnato particolarmente questi anni di studio accrescendo in me un desiderio futuro per l’istruzione e la divulgazione del sapere. Mi ritengo una persona fortunata per aver potuto studiare con professori di tale livello che hanno aiutato e seguito con interesse
98
noi studenti dall’inizio del percorso fino all’ingresso nella prossima fase della carriera personale. Ringrazio tutto il gruppo tesisti con cui ho potuto condividere non solamente questa esperienza ma anche tre anni importanti della mia vita. I confusi brainstorming iniziali con Valerio Calimici, lo sguardo stravolto di Alberto Elizondo all’ora di chiusura delle biblioteche, le chiamate notturne di Carla Piazza per confronti dell’ultima ora prima delle consegne degli elaborati di tesi sono eventi che ricordo con grande affetto e sono segno di uno stretto legame di amicizia con tutto il gruppo. Ringrazio Steffen Klaue per l’aiuto durante lo sviluppo del prototipo e per i numerosi consigli e incoraggiamenti. Davide Rocchesso per i suggerimenti nella fase iniziale e per lo sviluppo del prototipo musicale. Ilaria Montanari e Federica Ricci per i consigli grafici e tipografici nello sviluppo del logo. Infine un ringraziamento sentito va a Sara Adhitya e Mika Kuuskankare per il confronto e il prezioso materiale fornito in fase di sviluppo dell’idea e realizzazione del prototipo finale.
99
Fonti Articoli, riviste, libri AAVV, Bilancio sociale 2010. La filiera della solidarietà, Lega del filo d’oro, 2010 Adhitya, Sara e Kuuskankare, Mika, “THE SONIFIED URBAN MASTERPLAN (SUM) TOOL : Sonification For Urban Planning And Design”, (2011) Ecker, Ronald et al., “pieTouch: A Direct Touch Gesture Interface for Interacting with In-Vehicle Information Systems”, (2009) Heuten, Wilko et al., “Interactive 3D Sonification for the Exploration of City Maps”, (2006) Heuten, Wilko et al., “Interactive Exploration of City Maps with Auditory Torches”, CHI 2007. Interactivity (2007) Kane, Shaun K. et al., “Slide Rule: Making Mobile Touch Screens Accessible to Blind People Using MultiTouch Interaction Techniques”, (2008) Lucia Baracco et al., Questione di leggibilità, Se non riesco a leggere non è solo colpa dei miei occhi, Comune di Venezia, Progetto lettura agevolata, Venezia 2003 McGookin, David et al., “Investigating Touchscreen Accessibility for People with Visual Impairments“, (2009) McGookin, David e Stephen Brewster, “Eyes-free overviews for mobile map applications”, (2009) Mistry, Pranav et al., “WUW - Wear Ur World - A Wearable Gestural Interface”, MIT Open Access Articles (Aprile 2009)
100
Moro, Alberto, SPLIT. The object social network, 2011 Park Sihwa et al., “Composition with Path: Musical signification of geo-referenced data with online mapinterface”, (2010) Sánchez, Jaime et al., “Usability of a Multimodal Video Game to Improve Navigation Skills for Blind Children”, ACM Transactions on Accessible Computing, III:2 (novembre 2010), art. 7
Web Aida. Affective Intelligent Driving Agent (2009) http://senseable.mit.edu/aida/ Aida 2.0 (2011) http://senseable.mit.edu/aida2/ Siri http://www.apple.com/iphone/features/siri.html Bieling, Tom, Mobile Lorm Glove (2011) http://www. design-research-lab.org/?projects=mobile-lorm-glove Brown, Mark, “Braille keyboard prototype turns tablet into touchscreen for the blind”, Wired (11 ottobre 2011) http://www.wired.co.uk/news/archive/2011-10/11/ braille-touchscreen CO2GO (2011) http://senseable.mit.edu/co2go/ Fosi, Bruno, Silicon Touch (2008) http://brunofosi.com/ product-design/invisual-a-tactile-silicone-case-for-theapple-iphone/ Hemmert, Fabian et al., Reflective Haptics (2010) http://www.design-research-lab.org/?projects= reflective-haptics
Hemmert, Fabian et al., Weight-Shifting Mobile (2010) http://www.design-research-lab.org/?projects=weightshifting-mobiles Hemmert, Fabian et al., Shape-Changing Mobile (2010) http://www.design-research-lab.org/?projects=shapechanging-mobiles Hipui http://www.hipui.com/ Hulskamp, Arnout, Demor (2004) http://student-kmt. hku.nl/~g7/site/index_.html Lopez, Benjamin, Family album of Sound Memories (2011) http://www.benjaminlopez.net/familyAlbum.html Mapnificent http://www.mapnificent.net/ Mapumental http://mapumental.com/ Moon type http://en.wikipedia.org/wiki/Moon_type Morita, Satoshi, Sonic Helmet (2008) http://sid.bek.no/works/8-sonic-helmet Müller, Alexander, Skintimacy (2011) http://www. design-research-lab.org/?projects=skintimacy OpenStreetMap http://www.openstreetmap.org/ Parra, Jordi, Touchphone for Blind People (2009) http://www.interactiondesign.se/blog/2009/06/httpww wyankodesigncom20090615touchphone-for-the-blind/
Portner, Jessica, “Smartphones Flunk for Blind Users”, The Bay Citizen (22 giugno 2010) http://www.baycitizen.org/technology/story/ smartphones-fail-visually-impaired/ Processing http://processing.org/ PWGL http://www2.siba.fi/pwgl/ Singapore Live! (2010) http://senseable.mit.edu/ livesingapore/ Sonic Interaction Design http://sid.bek.no/ Symons, Steve, Aura (2007) http://sid.bek.no/ works/11-aura-the-stuff-that-forms-around Tanz, Jason, “Kinect Hackers Are Changing the Future of Robotics”, Wired, July 2011 (28 giugno 2011): http://www.wired.com/magazine/2011/06/mf_kinect/ The Copenhagen Wheel (2009) http://senseable.mit.edu/copenhagenwheel/ Titillium http://www.campivisivi.net/archivio/_ titillium/titillium2010/concept.html Walker, Bruce e Dellaert, Frank, SWAN: System for Wearable Audio Navigation (2006) http://sonify.psych.gatech.edu/research/swan/ Zöllner, Michael e Huber, Stephan, NAVI – Navigational Aids for the Visually Impaired (2010) http://hci.uni-konstanz.de/blog/2011/03/15/navi/
101
Immagini p. 5 - http://www.flickr.com/photos/rakspassion/ 4358421469/sizes/o/in/photostream/
p. 29 - http://images.apple.com/iphone/features/ images/features_siri_gallery_weather.png
p. 9 - http://senseable.mit.edu/livesingapore/press.html
http://images.apple.com/iphone/features/images/ features_siri_gallery_messages.png
p. 11 - http://senseable.mit.edu/co2go/ p. 12 - fotogrammi da http://www.youtube.com/ watch?feature=player_embedded&v=ABfCXJSjAq0
p. 31 - estratto da http://dl.acm.org/citation.cfm?id= 1463160.1463193
p. 14 - http://tangible-sound-lab.org/?page_id=651
p. 32 - estratto da http://dl.acm.org/citation.cfm? doid=1520340.1520626
p. 17 - http://student-kmt.hku.nl/~g7/site/ images/6voss.jpg
p. 37 - http://www.flickr.com/photos/shivahuja/ 3117986635/in/photostream/
p. 18 - estratto da http://mmit.informatik.unioldenburg.de/download/Interactive_Exploration_ of_City_Maps_with_Auditory_Torches.pdf
p. 39 - http://www.flickr.com/photos/shivahuja/ 3117987105/
p. 19 - http://sid.bek.no/works/11-aura-the-stuffthat-forms-around# p. 20 - http://www.benjaminlopez.net/img/ familyAlbum/family_tangible.jpg http://www.benjaminlopez.net/img/familyAlbum/ family_browsing.jpg http://www.benjaminlopez.net/img/familyAlbum/ family_playback.jpg p. 21 - fotogramma da http://vimeo.com/24347126 p. 28 - http://brunofosi.com/product-design/invisuala-tactile-silicone-case-for-the-apple-iphone/
102
p. 40 - http://www.flickr.com/photos/ alessandracisternino/3389235739/ p. 41 - http://www.flickr.com/photos/markosaari/ 3025136153 http://www.flickr.com/photos/narcisopantunez/ 2337321206 p. 47 - estratto da Adhitya, Sara e Kuuskankare, Mika, “THE SONIFIED URBAN MASTERPLAN (SUM) TOOL : Sonification For Urban Planning And Design�, p. 53 - fotoritocco da http://www.flickr.com/ photos/alessandracisternino/3389235739/ p. 65 - http://www.flickr.com/photos/ robellisphotography/4696485792
p. 83 - http://www.flickr.com/photos/ minkelphotocollections/3744184889/
p. 95 - fotogramma da http://www.youtube.com/ watch?feature=player_embedded&v=l6QY-eb6NoQ
p. 85 - http://senseable.mit.edu/copenhagenwheel/ press.html
Le restanti immagini che non vengono citate in questo elenco sono schemi grafici, illustrazioni o fotografie personali dell’autore.
p. 87 - http://senseable.mit.edu/aida/ http://senseable.mit.edu/aida2/ p. 89 - http://www.mapnificent.net/torino/ http://shop.mapumental.com/static/i/gallery/ WembleyStadium150mDep6pm.png p. 91 - http://www.design-research-lab.org/? projects=reflective-haptics http://www.design-research-lab.org/wp-content/ uploads/2011/01/Weight-Shifting-Mobiles-TwoDimensional-Gravitational-Displays-in-MobilePhones1.jpg http://www.design-research-lab.org/wp-content/ uploads/2011/01/Weight-Shifting-Mobiles-TwoDimensional-Gravitational-Displays-in-MobilePhones1.jpg p. 93 - http://www.yankodesign.com/images/ design_news/2009/06/14/b_touchphone.jpg http://www.designbuzz.com/gallery/mobilelorm-glove/# http://www.designbuzz.com/gallery/mobilelorm-glove/#
103
Colophon Font testo Adobe Caslon Pro (Regular, Bold, Italic) Font titoli TitilliumText22L (800 wt) Software Adobe InDesign CS4
104
UNIVERSITÀ IUAV DI VENEZIA FACOLTA’ DI DESIGN E ARTI
DICHIARAZIONE DI CONSULTABILITA’ O NON CONSULTABILITA’ DELLA TESI DI LAUREA (da inserire come ultima pagina della tesi di laurea) Gianni Cardone 269622 Il/La sottoscritto/a ………………………………………….matr. n. ...……………. Comunicazioni Visive e Multimediali laureando/a in ………………………………………………... 4-5 aprile 2012 2010-2011 sessione ………………………… dell’a.a. …………….…………. DICHIARA
che la tesi di laurea dal titolo: Andante. Un’applicazione musicale per l’esplorazione delle città …………………………………………………………………………………………. ………………………………………………………………………………………….
X è consultabile da subito potrà essere consultata a partire dal giorno ………………….. non è consultabile (barrare la casella della opzione prescelta)
data …………………..
firma ………………………