/////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////// Te s i d i l a u r e a m a g i s t r a l e / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / /////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////// /////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////// A c t i v e To u c h . S v i l u p p o d e l l ’ i n t e r a z i o n e a p t i c a a t t r a v e r s o l a p e r c e z i o n e t e x t u r a l e . / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / Una grammatica di base per la progettazione.////////////////////////////////////////////////////////////////////////////////////////////////////////// /////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////// Politecnico di Milano Scuola del Design C.d.L.M. in Design del Prodotto per l’Innovazione/////////////////////////////////////////// Relatore: Prof. Stefano Maffei Laureando: Marco Piscopo - 833318 A.A. 2015/16//////////////////////////////////////////////////////// ///////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////
SCUOLA DEL DESIGN C.d.L.M. in Design del Prodotto per l'Innovazione
ACTIVE TOUCH Sviluppo dell’interazione aptica attraverso la percezione texturale. Una grammatica di base per la progettazione.
RELATORE
LAUREANDO
Prof. Stefano Maffei
Marco Piscopo - 833318
A. A. 2015/16
alla mia famiglia
ABSTRACT
010
INTRODUZIONE
012
Obiettivo e struttura della tesi
uno
Strumenti per relazioni efficaci, le interfacce e le interazioni
.1 |
LE RELAZIONI UOMO-MACCHINA
022
Quali possono definirsi interattive .2 |
EVOLUZIONE
028
La storia delle interfacce 1 2 3 4 .3 |
-
Dalle macchine a vapore alle prime elettromeccaniche L'elettronica di consumo Personal computer, mouse e la metafora desktop L'ubiquitous computing e gli "infodomestici"
VERSO NUOVE FRONTIERE
050
Casi studio 1 - Le interfacce vocali, un'introduzione 2 - Casi studio - Knocki, Swan Solutions - Nuimo, Senic - Project Soli, Google - Project Jacquard, Google .4 |
CONSIDERAZIONI La chimera dell'interfaccia trasparente
INDEX
074
due
La dimensione visiva – Criticità e intuizioni
.1 |
DERIVE VISUALI
080
Le interfacce monosensoriali 1 - Infodomestici sempre più monitor-centrici 2 - Dagli schermi tattili alle interazioni transmediali .2 |
PATTERN D'INTERAZIONE
090
Analisi e classificazione 1 - Mobile is eating the world 2 - Un nuovo linguaggio comune .3 |
ASPETTATIVE FUTURE
103
Casi studio - Multitouch Gestures, Gabriele Meldaikyte - Interactive Light, Argodesign .4 |
CONSIDERAZIONI Multisensorialità e buone pratiche di design for all
114
tre
Uno strumento in più, la percezione aptica
.1 |
INTERFACCE TANGIBILI
122
La progettazione sense-driven 1 - Dalle Graphic User Interfaces alle Tangible User Interfaces 2 - Il risveglio dei sensi .2 |
PROPRIETÀ SUPERFICIALI
134
Le texture 1 - Percezione visiva e globale 2 - Percezione tattile e lineare 3 - Una metatexture, il braille .3 |
L'APTICA LEGATA ALL'INTERAZIONE
152
Casi studio .4 |
Mando, Bticino TTI, Eunhee Jo Hibou, Celia Torvisco e Raphaël Pluvinage Cilllia, Tangible Media Group
CONSIDERAZIONI La nuova grammatica dell'interazione aptica
INDEX
172
quattro Texture aptiche – Un progetto sperimentale
.1 |
ELEMENTI DI BASE
180
E contesto per lo sviluppo 1 - Quadro di riferimento 2 - Requisiti 3 - Campi applicativi .2 |
PROGETTAZIONE
190
Dai pattern alle texture 1 - Principi gestaltici, aptici e interazioni di riferimento 2 - Primi prototipi - Texture N°1, Slide - Texture N°2, Rotate - Texture N°3, Pinch .3 |
USER TEST
214
Riscontri sperimentali 1 - Strutturazione del test 2 - Risultati .4 |
CONSIDERAZIONI Suggerimenti e intuizioni dallo User Test - Materiale - Texture (generale) - Texture N°1, N°2, N°3
224
CONCLUSIONI
234
Dalle ipotesi di partenza alle deduzioni finali GLOSSARIO
242
RACCOLTA BIBLIOGRAFICA
246
RACCOLTA SITOGRAFICA
250
RINGRAZIAMENTI
INDEX
A Questo progetto di tesi si prefigge di affrontare il mondo dell’interazione con dispositivi elettronici secondo una visione critica e per certi versi anacronistica, sfruttando qualcosa che nell’ambito progettuale non sempre riceve un’adeguata considerazione, ovvero la percezione aptica. Siamo sempre stati abituati a doverci interfacciare con manopole analogiche e da qualche anno, grazie ai touchscreen, anche con superfici dotate di manopole digitali; è in questo dualismo contemporaneo che si inserisce la possibilità di sfruttare una superficie interattiva caratterizzata da una forte componente materico-estetica ed analogica.
ACTIVE TOUCH | Sviluppo dell’interazione aptica attraverso la percezione texturale
010
Grazie alla randomizzazione progettata delle texture, in grado di trasmettere il tipo di comando impresso dall’utente (tipo di movimento e velocità di esecuzione, numero di dita utilizzate), e a pattern d’interazione altamente diffusi - ad esempio, compiendo una rotazione in senso orario si ha un incremento della variabile x - potenzialmente la superficie di qualsiasi oggetto, di qualsiasi materiale, potrebbe essere immaginata come un'interfaccia. Ciò porterebbe a nuove forme di relazione con i dispositivi elettronici che ci circondano, evitando una divisione tra l’oggetto e le manopole atte a farlo funzionare, così come l'uso di scialbe superfici dotate di schermi tattili. Sino, forse, a giungere ad un cambiamento dell’idea stessa di tecnologia, dal punto di vista cognitivo, come di una qualità nativamente incorporata nell’ambiente che ci circonda piuttosto che come un artificio aggiunto a posteriori.
ABSTRACT
011
I - NON TOCCARE! Quante volte i bambini si sentono ripetere questa imposizione. Nessuno direbbe mai: non guardare, non ascoltare, ma pare che il tatto sia diverso, molti pensano che se ne possa fare a meno. B r u n o M u n a r i [1] Il senso del tatto è il principale mezzo con cui da piccoli si esplora il mondo. Lo stesso mondo caldo, freddo, ruvido, liscio, pesante, leggero, morbido, duro, elastico, rigido, appuntito o smussato, di cui altrimenti non ne conosceremmo la consistenza. Eppure, col passare degli anni, il senso del tatto diviene sempre più inconscio e sempre meno portatore
In Bruno Munari, I laboratori tattili, Mantova: Corraini, 2004 (prima ed. 1985), p. 3 [1]
[4]
Cfr. nota 1
Filippo Tommaso Marinetti, Il Tattilismo – Manifesto Futurista, Milano: Comoedia, 1921 [2]
In Andrè Leroi-Gourhan, Il gesto e la parola, Torino: Einaudi, 1977, p. 299 [3]
ACTIVE TOUCH | Sviluppo dell’interazione aptica attraverso la percezione texturale
012
di esperienze informative. La campagna per la riabilitazione della tattilità è una battaglia combattuta a più riprese e in diversi campi di studio; passiamo da uno dei manifesti del Futurismo, scritto dallo s t e s s o M a r i n e t t i , s u l Ta t t i l i s m o [2] ( c o n t a n t o d i t a v o l e tattili), all’opera antropologica di Leroi-Gourhan in un cui paragrafo viene affrontata La sorte della m a n o [3], s i n o a i f a m o s i L a b o r a t o r i Ta t t i l i [4] d i M u n a r i , in cui si cerca di far distinguere ai bambini le varie sensazioni esperibili attraverso il tatto (mentre il libro è indirizzato soprattutto agli adulti che lo leggeranno). C’è quindi una volontà, anche se non molto diffusa, di affrontare questo argomento, possibilmente non solo quando si rivela indispensabile (come nel caso di persone affette da problemi visivi), ma anche e soprattutto per poter espandere lo scibile quotidiano oltre i meri confini del sistema audio-visivo, che inconsciamente crediamo essere l’unico strumento da adoperare. Da queste premesse nasce la volontà di indagare a fondo la dimensione tattile. Usando la percezione aptica – ovvero il toccare in maniera esplorativa – come elemento chiave è possibile studiare quegli spazi borderline che si pongono tra nuove forme di
INTRODUZIONE | Obiettivo della tesi
013
interazione e materiali essi stessi interattivi, in cui, ad esempio, i comandi si impartiscono tramite texture appositamente progettate per reagire a determinate gestualità. Un’indagine, infine, pensata per allinearsi ad una visione di innovazione sempre più multisensoriale e integrata, nei luoghi e negli artefatti che caratterizzano il nostro vivere quotidiano. STRUTTURA DELLA TESI La tesi ha come oggetto di studio un’interfaccia, per dispositivi intelligenti, nella quale sia maggiormente sfruttata la percezione tattile, intesa come interazione attraverso il contatto, discriminazione delle operazioni e feedback aptici tramite variazioni delle texture. Si inizierà nel primo capitolo con un’analisi delle relazioni che si instaurano tra l’uomo e gli oggetti che egli adopera, in cui capire quando queste, grazie ad una buona interattività, possano dirsi efficaci. In seguito verrà spiegato cosa intendiamo con interfaccia e interazione, e come esse si siano evolute e differenziate, attraverso un excursus storico esemplificativo. Si arriverà, così, ai giorni nostri con
ACTIVE TOUCH | Sviluppo dell’interazione aptica attraverso la percezione texturale
014
i progetti più innovativi, in cui si delinea un trend comune: la scomparsa di un’interfaccia spazialmente collocata, a favore di un’interazione onnipresente. Ciò comporterà una riflessione sull’interfaccia trasparente, professata nella letteratura e ormai un dato di fatto, capendone pro e contro. Infine il capitolo analizzerà alcuni casi studio utili a comprendere i temi espressi in precedenza. Se questo è, dunque, tutto ciò che costituisce la base conoscitiva, quali sono le problematiche che interessano l’interazione oggigiorno? Nel secondo capitolo osserveremo le criticità presenti negli oggetti senzienti di ogni giorno, come l’uso eccessivo dei display e del senso della vista, mostrando quali conseguenze progettuali stia comportando. Si introdurrà anche il concetto di pattern d’interazione – come schemi diffusi e archetipici dell’interazione con i dispositivi elettronici – e di come alcuni di essi, grazie alla pervasività di dispositivi dotati di touchscreen (in particolare gli smartphone), siano divenuti estremamente diffusi negli ultimi anni, costituendo di fatto un nuovo linguaggio comune. Questi pattern d’interazione, oltre a possedere delle vere e proprie guidelines di progettazione,
INTRODUZIONE | Struttura della tesi
015
costituiscono la base su cui si svilupperanno interfacce non solo basate su schermi ma trans-mediali, e in cui le interazioni non riguarderanno solo vista e udito ma saranno realmente multi-sensoriali. Alcuni casi studio mostreranno ulteriormente questi temi. Per ottenere dunque interazioni pluri-sensoriali il senso tattile quale apporto può dare? Nel terzo capitolo vedremo, quindi, cosa caratterizza il senso del tatto, nello specifico l’aptica e le sue procedure esplorative. Si vedrà, in seguito, come in campo tecnologico si sia passato dalle interfacce grafiche a quelle tattili (con alcuni lavori svolti presso il MIT dal team di Hiroshi Ishii), e analizzeremo le suggestioni portate dalle opere di Kenya Hara – designer giapponese che si è notevolmente interessato all’introduzione del senso aptico all’interno della progettazione di prodotti. Dallo svolgimento del capitolo si sarà osservato come nel senso del tatto hanno particolarmente importanza le texture, e proprio sulla progettazione di quest’ultime in chiave aptica ci sarà un importante approfondimento. Inizialmente si osserverà come sia possibile sfruttare la percezione visiva per creare dei pattern grafici efficaci (secondo
ACTIVE TOUCH | Sviluppo dell’interazione aptica attraverso la percezione texturale
016
i principi della gestalt), e successivamente si prenderanno in esame alcuni importanti studi sulla percezione delle texture da parte di persone non vedenti. Da un’analisi di questi esperimenti si trarranno delle linee guida empiriche per la creazione di texture ‘apticamente efficaci’. Dopo un breve accenno al linguaggio braille si introdurranno i casi studio più significativi, tra cui il progetto Cilllia che si porrà come tecnologia di riferimento per lo sviluppo di interazioni aptiche. Ciò che è stato finora esposto troverà concreto sviluppo all’interno del quarto capitolo, in cui verrà spiegato l’iter progettuale per costruire delle texture in grado di abilitare la percezione aptica. Delineando un quadro di riferimento utile per delimitare i confini della ricerca, i requisiti che le texture dovranno avere e per quali applicazioni sono state pensate. In seguito, ricapitolando ciò che è emerso nei capitoli precedenti, si procederà alla realizzazione dei primi prototipi. Questi saranno testati da un campione di utenti per comprenderne l’efficacia, i difetti e ricevere quelle intuizioni utili ad un loro miglioramento. Di fatto ciò sarà visibile con lo sviluppo di un secondo prototipo ottenuto alla luce dello user test.
INTRODUZIONE | Struttura della tesi
017
uno
Strumenti per relazioni efficaci, le interfacce e le interazioni
BOMBUS LATREILLE – The Internet
Una massima, non attendibile e di cui non si conosce con certezza chi l’abbia pronunciata, esplica molto bene il tema con cui introdurre questo capitolo: - La struttura alare del calabrone, in relazione al suo peso, non è adatta al volo. Ma lui non lo sa e vola lo s t e s s o . [1] Un po’ come noi, esseri umani, che quotidianamente veniamo in contatto con una miriade di oggetti e li utilizziamo molto spesso senza far caso al come questo avvenga. Non ci interessa sapere cosa li faccia funzionare, tanto più se riusciamo a creare con loro delle relazioni
Nonostante sia una citazione comunemente attribuita ad Albert Einstein o ad Igor Sikorsky, la teoria più accreditata pare attribuirla ad un’espressione tratta dal libro dell’entomologo francese Antoine Magnan, Le Vol Des Insects (1934) nel quale egli riferisce dei calcoli fatti dal suo assistente di laboratorio André [1]
Sainte-Lague relativamente alla forza di portanza che si esplicherebbe sulle ali di un bombo (un insetto simile al calabrone). Diversamente dalle omonime descritte da Thomas Gordon sui rapporti tra esseri umani, queste non avvengono tra due soggetti paritari (a livello cognitivo ed emozionale). [2]
CAP. UNO | Strumenti per relazioni efficaci, le interfacce e le interazioni
020
e f f i c a c i [2]. I n c o n s c i a m e n t e t u t t o s c o r r e e i l p e r c o r s o dal punto A all’affollatissimo punto B avviene senza intoppi. Purtroppo, solo quando ciò non si verifica, e avvengono i cosiddetti breakdown tecnologici
(Benyon,
glossario
2012), prestiamo attenzione a quelle sottili membrane osmotiche che consentono una comunicazione tra il nostro Io e il mondo là fuori, a quelle strutture di mediazione linguistica, culturale, semiotica tra l’uomo e la macchina, insomma alle interfacce. Esse sono progettate per tradurre in azione ciò che vogliamo in potenza:“voglio usare un ascensore per salire, allora premo il pulsante con la freccia verso l’alto”. Sono quindi delle componenti statiche, bi/tridimensionali, meccanico/digitali, che attuano il loro potenziale nel momento in cui l’utente interagisce con esse. Le interazioni, d’altro canto, sono la componente temporale nel rapporto uomo-oggetto: ciclicamente si attuano queste coreografie (previste ma non prescritte) in base alle quali si può comprendere la robustezza del suddetto rapporto - in termini di efficacia, efficienza, capacità di prevenire gli errori e di offrire alternative. Perciò, quando si realizzano delle relazioni efficaci, persino i calabroni riescono a volare.
Ciononostante si può supporre un’evoluzione futura delle Intelligenze Artificiali in cui le due accezioni di relazioni efficaci tenderanno ad equivalersi. Per un approfondimento sulle relazioni descritte da Gordon si veda Thomas Gordon, Relazioni efficaci: come costruirle, come non pregiudicarle, INTRO
in collaborazione con Noel Burch, traduzione di Valeria Poli, 2.ed., Molfetta: La Meridiana, 2014
021
LE RELAZIONI UOMO-MACCHINA – Quali possono definirsi interattive
1.1
Se dovessimo prendere in esame la totalità dei testi che affrontano il tema dell’interazione nell’ambito progettuale (la letteratura predilige il termine anglofono interaction design), noteremmo come la maggior parte di questi si riferisca ad una interazione col mondo digitale, ovvero mediata da uno schermo (output) e da mouse e/o tastiera (input). Per farla semplice, l’interaction design sembrerebbe relegato
glossario
all’ambito desktop, web o, recentemente, mobile app. Come corollario abbiamo che in tutti questi testi, nonostante vi sia una sezione più generalista ed applicabile a diversi ambiti della progettazione, si è soliti far coincidere il concetto di interattività con la nascita delle prime interfacce grafiche (anche dette GUI – Graphic User Interface) e conseguentemente
glossario
dell’area di studio nota come HCI – Human-Computer Interaction. Nel paragrafo successivo analizzeremo queste aree di studio più in dettaglio. Il punto, adesso, è quindi valutare se soltanto le azioni con macchine della portata computazionale dei c o m p u t e r, p o s s a n o d e f i n i r s i i n t e r a t t i v e . A r a g i o n v e d u t a parrebbe quindi che nella storia evolutiva umana non si siano instaurate relazioni efficaci con le macchine sino alla metà del XX secolo.
EVOLUZIONE DEL COLTELLO – Andrè Leroi-Gourhan, La memoria e i ritmi
UNO.1 | Le relazioni uomo macchina - Quali possono definirsi interattive
023
Naturalmente ciò non può essere vero, soprattutto perché il percorso di miglioramento artefattuale crea degli oggetti in fieri, dove i successivi cercano di sopperire a mancanze e difetti dei precedenti. E questo avviene principalmente perché gli oggetti vengono usati e talvolta abusati (usi impropri, o anche alternativi, che oggi chiameremmo hacking), se ne comprendono le performance e si hanno dei riscontri – i cosiddetti feedback. Se da un lato quindi, questi progressi sono possibili grazie all’evoluzione della tecnica (nuovi materiali o nuove lavorazioni), dall’altro indubbiamente ciò avviene grazie ai rapporti che instauriamo con essi. Anche un oggetto all’apparenza muto o stupido – in riferimento agli attuali oggetti smart, ovvero intelligenti – può considerarsi, quindi, in una certa misura interattivo. Per dirla con Polillo : “[…] un cacciavite, ad esempio, non sarebbe utilizzabile se la pressione che esso esercita sul palmo della mano non ci fornisse quel feedback che ci permette di controllare con accuratezza il movimento. In questo senso, dunque, il cacciavite è un oggetto interattivo: l’interazione, a partire dal livello sensoriale/percettivo, coinvolge processi cognitivi complessi, che ci permettono di effettuare l ’ a z i o n e d i ‘ a v v i t a r e ’ [ … ] ” [3].
In Giovanni Anceschi, Il progetto delle interfacce: oggetti colloquiali e protesi virtuali, Milano: Domus Academy, 1993, p. 49 [3]
In figura: a) Nuova Guinea, lama di pietra con fodero di legno; b) Borneo, lama di fero martellato fissata mediante legatura; c) Rhodesia, lama di ferro con manico a codolo; d) Età [4]
del bronzo, lama di bronzo con alette per impedire il distacco del manico; e) Età del bronzo, lama con portamanico; f ) moderna, attaccatura del manico a colletto battuto
CAP. UNO | Strumenti per relazioni efficaci, le interfacce e le interazioni
024
ADATTAMENTO FUNZIONALE DELL’ASCIA [ 4 ] – Andrè Leroi-Gourhan, La memoria e i ritmi
UNO.1 | Le relazioni uomo macchina - Quali possono definirsi interattive
025
Data la complessità della storia umana, fatta di rapporti uomo-macchina sempre più articolati, quando possiamo definire una relazione realmente interattiva e qual è, dunque, la soglia inferiore dell’interazione? Una risposta intuitiva e immediata sarebbe, ricollegandosi a qualsiasi testo sull’interaction design, che si può parlare di interazione lì dove v i s i a u n ’ i n t e l l i g e n z a c o m p u t a z i o n a l e i n t e g r a t a [5] (nell’oggetto). Un’affermazione del genere, per quanto non errata, si presterebbe d’altronde a numerose speculazioni – i primi calcolatori (mainframe) possono considerarsi interattivi? Una calcolatrice tascabile odierna che grado di interazione possiede? Sarebbe, dunque, più appropriato parlare di oggetti (anche esilmente) interattivi, in merito a quegli a r t e f a t t i c h e p r e s e n t i n o u n c e r t o g r a d o d i o p a c i t à [6] c o n cui l’utente deve relazionarsi per ottenere risposte o svelarne il funzionamento, grazie ad un vero e proprio lavoro interpretativo che molto spesso si basa su nozioni o esperienze precedenti. Perciò se è pur vero che “numerosi altri oggetti di uso quotidiano possono essere considerati interattivi, per gli stessi motivi: le forbici, la macchina da scrivere,
“How many interactive products are there in everyday use? Think for a minute about what you use in a typical day: cell phone, computer, personal organizer, remote control, soft drink machine, coffee machine, ATM, ticket machine, library information system, the web, photocopier, watch, printer, stereo, calculator, videogame… the list [5]
is endless. […]” Preece et al., “What is interaction design?”, p. 1 (in Preece, Rogers, Shap, Interaction Design: beyond human-computer design, New York: J.Wiley & Sons, 2002, XXIII, pp. 519) Dell’opacità come presupposto affinchè si svolga un dialogo interattivo si veda Giovanna Cosenza, Semiotica [6]
CAP. UNO | Strumenti per relazioni efficaci, le interfacce e le interazioni
026
l’automobile e, su un piano diverso (in quanto in questo caso l’interazione si svolge quasi esclusivamente a l i v e l l o c o g n i t i v o ) i l l i b r o ” [6], s e c o n d o l a d e f i n i z i o n e suddetta, essi presentano un grado di interazione infinitesimale. In contrapposizione a una calcolatrice t a s c a b i l e o a l l a m u c c a i n s c a t o l a [8]
che costituiscono
la nostra soglia inferiore dell’interazione, ovvero il livello più basso dal quale partiremo quando parleremo di interazione uomo-macchina.
dei nuovi media, in XXI Secolo. Comunicare e Rappresentare, Roma: Istituto dell'Enciclopedia Treccani, 2009, p. 231)
pratica, Milano: Angeli, 2013, p. 73
In Giovanni Anceschi, Il progetto delle interfacce: oggetti colloquiali e protesi virtuali, Milano: Domus Academy, 1993, p. 50 [7]
[8]
In Simone Diamanti, L’interazione in
UNO.1 | Le relazioni uomo macchina - Quali possono definirsi interattive
027
EVOLUZIONE – La stora delle interfacce
1.2 | 1
La storia delle interfacce affonda le sue radici nella prima rivoluzione industriale, con l’invenzione delle prime macchine a vapore dotate di ingranaggi e di conseguenza di tutta una serie di leve, cursori e manopole. Nonostante in queste prime macchine l’interfaccia fosse completamente sottomessa alla funzionalità della macchina stessa, più che all’usabilità da parte dell’operatore, di certo la disposizione gerarchica e l’organizzazione dei comandi ricostruivano in qualche modo un primitivo codice di scambio delle informazioni. Infatti, per i motivi appena detti, essi erano piazzati direttamente sugli organi da comandare e dunque la conoscenza dell’architettura fisica della macchina costituiva una primitiva mappa che guidava la comunicazione. Ciò portava come conseguenza, oltre all’immediata visibilità dei comandi, anche ad avere dei feedback naturali e non progettati: per la sua natura meccanica, e per le capacità culturale dell’operatore di riconoscere i codici meccanici, le reazioni della macchina ricostruivano in parte un feedback inconsapevole. Quindi, lo scatto di una manopola, la vibrazione di una leva, il rumore di un motore, contribuivano a segnalare le reazioni di ritorno della macchina.
MODELLO DI MOTRICE A VAPORE MACCHINA DI WATT (1800 ca.) – Museo Nazionale Scienza e Tecnologia Leonardo da Vinci
UNO.2 | 1 - Dalle macchine a vapore alle prime elettromeccaniche
029
Dunque la totalità delle informazioni erano necessariamente organizzate in modo visibile e analogico: allo spostamento di una leva, alla rotazione dì una manopola corrispondeva un effetto proporzionale, e gran parte dei messaggi provenienti dai quadranti erano di tipo analogico. Solo in alcuni casi manopole e leve erano dotate di legenda, ed era necessario ovviamente conoscere il principio di funzionamento della macchina per comprendere il significato delle operazioni da svolgere, ma il codice della meccanica e la relativa lentezza dell’evoluzione tecnologica rendevano accettabile la necessità di apprendimento. La velocità come fattore preminente di un mondo in continua trasformazione è stato un paradigma introdotto solo con la seconda rivoluzione industriale e con la conseguente nascita dell’elettricità, che ha inevitabilmente portato ad un cambiamento radicale anche nell’approccio progettuale. Non più oggetti con un’anima meccanica, bensì elettronica. Sebbene in una prima fase, sperimentale, troviamo ancora oggetti ibridi, con un “cuore” rinnovato ma un’estetica legata ai vecchi modelli di riferimento, tali da mortificare le potenzialità della nascente interfaccia elettronica.
POSTER PUBBLICITARIO FRIGORIFERO FRIGIDAIRE (1929 ca.) – The Internet
CAP. UNO | Strumenti per relazioni efficaci, le interfacce e le interazioni
030
UNO.2 | 1 - Dalle macchine a vapore alle prime elettromeccaniche
031
BRAUN KITCHEN MACHINE KM 3 (1957) – Gerd Alfred Muller
CAP. UNO | Strumenti per relazioni efficaci, le interfacce e le interazioni
032
1.2 | 2
In questa fase la vera novità consiste nell’introduzione delle scocche, le coperture dell’apparato elettrico, che vengono pensate per proteggere l’utente da interazioni pericolose, trasformando l’oggetto in qualcosa di opaco, celandone i meccanismi elettro-meccanici alla cui nudità le persone erano state sempre abituate. Nasce così la necessità in un’interfaccia non più solo naturale prosecuzione di valvole e pistoni, ma dialogica e in grado di farsi comprendere anche da chi non sia u n o p e r a i o s p e c i a l i z z a t o , c a p a c e d i “ […] c o m u n i c a r e la destinazione d’uso attraverso codici che non “rappresentano” la funzione ma la “significano”. [...] I n a l t r i t e r m i n i , u n a s c i u g a c a p e l l i p u ò e s s e r e costruito in un’infinità di modi, ma se lo si disegnerà con la classica forma “a pistola” ci si potrà risparmiare la fatica di precisare la sua funzione, perché l’utente è abituato a ·riconoscere e a utilizzare asciugacapelli c h e a s s o m i g l i a n o a p i s t o l e . ” [9] L’ e v o l u z i o n e d i q u e s t o t i p o d i i n t e r f a c c e h a d o v u t o , inoltre, far fronte a una crescente complessificazione delle funzioni dell’artefatto a fronte di una continua tendenza alla semplificazione formale (esemplificativo è il caso Braun-Dieter Rams).
Fabrizio Carli, “Interfaccia” in Alberto Abruzzese, Lessico della comunicazione, Roma: Meltemi, 2003, p. 293 [9]
UNO.2 | 2 - L’elettronica di consumo
033
1.2 | 3
Negli anni 60’ del XX secolo assistiamo ad un passaggio da pannelli di comando elettromeccanici con controlli tradizionali (spie, manopole, cursori e leve) a i loro omologhi di tipo digitale (con tasti e display). Fondamentale in questo cambiamento è la nascita negli anni 40’ del calcolatore elettronico e la sua incessante evoluzione con annessa miniaturizzazione della componentistica interna e ampliamento delle periferiche collegabili (le prime tastiere per l’introduzione dei dati risalgono agli anni Sessanta, mentre solo negli anni Settanta assistiamo all’utilizzo dei primi monitor a tubo catodico su cui ricevere un feedback immediato e alfanumericamente tradotto dell’informazione immessa). In questi anni la rappresentazione è tuttavia ancora poco “amichevole” e la crescente diffusione del p e r s o n a l c o m p u t e r, c h e l ’ u t e n t e i n i z i a a g e s t i r e e d usare senza intermediazioni, apre nuove problematiche legate alla progettazione delle interfacce per sistemi non più riservati a specialisti in camice bianco ma a disposizione di persone spesso prive di ogni competenza di tipo informatico. È in questi anni, nell’ambito dell’evoluzione uomoc o m p u t e r, c h e s i s v i l u p p a l a H u m a n C o m p u t e r Interaction (HCI): un dominio interdisciplinare nato
APPLESOFT BASIC I – Interaction Design Foundation
CAP. UNO | Strumenti per relazioni efficaci, le interfacce e le interazioni
034
UNO.2 | 3 - Personal computer, mouse e la metafora desktop
035
METAFORA DELLA SCRIVANIA DA UFFICIO – Tim Mott, Designing Interactions
CAP. UNO | Strumenti per relazioni efficaci, le interfacce e le interazioni
036
dall’esigenza pratica di “progettare, valutare e implementare sistemi interattivi basati su computer a uso di esseri umani e di studiare i principali fenomeni c h e l i c i r c o n d a n o ” [10]. P e r a f f r o n t a r e q u e s t a n u o v a s f i d a confluiscono sotto l’acronimo di HCI differenti scienze cognitive (tra cui psicologia cognitiva, intelligenza artificiale, linguistica, antropologia cognitiva e filosofia della mente) che pongono al centro della propria attenzione tutti quei processi che richiedono l’acquisizione e l’uso della conoscenza. Nasce così una nuova area di studio conosciuta come ergonomia (o ingegneria) cognitiva, che si occupa di studiare le interazioni uomo-macchina-ambiente in cui entrano in gioco fattori cognitivi ed emotivi, legati alle dinamiche di percezione, apprendimento, memorizzazione e problem solving e lo studio dei più importanti fenomeni a essi collegati. È grazie a questo interessamento verso una maggiore usabilità dei Personal Computer che si afferma l’attuale aspetto delle interfacce per pc (interfacce grafiche a icone) nella seconda metà degli anni Ottanta (nel 1981 viene commercializzato il primo mouse) ed è inaugurata dai computer Apple con l’adozione della metafora g r a f i c a d e l l a s c r i v a n i a ( d e s k t o p [ 11 ] ) .
“Human-computer interaction is a discipline concerned with the design, evaluation and implementation of interactive computing systems for human use and with the study of major phenomena surrounding them.” Curricula for Human-Computer Interaction, cap. 2 – Definition of HCI, p.5 (in ACM SIGCHI, 1992, pp. 162)
[10]
Per un maggiore approfondimento si veda Bill Moggridge, Designing Interactions, Cambridge (Mass.)London: The MIT Press, 2007, p. 15-72
[ 11 ]
UNO.2 | 3 - Personal computer, mouse e la metafora desktop
037
CAP. UNO | Strumenti per relazioni efficaci, le interfacce e le interazioni
038
In questa interfaccia, le operazioni di classificazione e ricerca di informazione, scrittura di testi e memorizzazione di documenti vengono eseguite in modo analogo alle operazioni ricorrenti che si eseguono sulle scrivanie in ufficio. Se l’eliminazione di un documento si fa buttando quest’ultimo in un cestino, nell’interfaccia Macintosh ciò corrisponde a trasportare l’icona di una cartella (folder) dentro l’icona del cestino (trash). Come su una scrivania ordinata, dove i documenti sono classificati in cartelle e schedari, nel Macintosh i dati sono classificati in documenti o cartelle per analogia con i raccoglitori di carta, e così v i a . L’ i d e a d i e t r o q u e s t a s o l u z i o n e è s t a t a q u e l l a d i consentire agli utenti di trasferire le loro conoscenze sull’organizzazione di un ufficio e di una scrivania nell’interazione con una tecnologia dell’informazione dedicata al lavoro d’ufficio. Questo trasferimento, per analogia, di conoscenze e abilità ha permesso efficacemente di manipolare allo stesso modo oggetti nuovi come se fossero familiari e di capire facilmente le operazioni di gestione d e l l ’ i n f o r m a z i o n e e ff e t t u a t e d a l c o m p u t e r.
APPLE MACINTOSH INTERFACE (1980 ca.) – Interaction Design Foundation
UNO.2 | 3 - Personal computer, mouse e la metafora desktop
039
PROTOTIPI DI MOUSE XEROX [ 1 2 ] (1975 ca.) – Designing Intercations
CAP. UNO | Strumenti per relazioni efficaci, le interfacce e le interazioni
040
UNO.2 | 3 - Personal computer, mouse e la metafora desktop
041
- When you were interacting considerably with the screen, you needed some sort of device to select objects on the screen, to tell the computer that you wanted to do something with them. D o u g l a s C . E n g e l b a r t , 2 0 0 3 , r e f e r r i n g t o 1 9 6 4 [13] Contemporaneamente alla nascita del desktop nel 1981 viene commercializzato il primo mouse, sebbene i primi prototipi siano di una quindicina d’anni antecedenti. S v i l u p p a t o p r e s s o i l a b o r a t o r i X e r o x PA R C a d o p e r a di Douglas Englebart e del suo team, è stato la prima periferica priva di predecessori a cui rifarsi (la tastiera del pc derivava dalla macchina da scrivere, il monitor dai televisori) perciò inventata da zero. Proprio per questo motivo ha richiesto numerosi anni di sperimentazioni, per comprendere quale potesse essere la forma e l’interazione più appropriata per supportare l a c o e v a i n t e r f a c c i a g r a f i c a [14]. Da qui alla diffusione dei processori (con la loro costante miniaturizzazione in accordo alla legge di glossario
M o o r e , s o l o u l t i m a m e n t e m e s s a i n d i s c u s s i o n e [15]) i n tutti gli apparecchi che popolano la quotidianità, è stata questione di pochissimo tempo.
Nella pagina precedente, da sinistra: esistente, concept 1 – flat. In questa pagina, da sinistra: concept 2 – puck, concept 3 – pen.
[12]
CAP. UNO | Strumenti per relazioni efficaci, le interfacce e le interazioni
042
1.2 | 4
S e m p r e d a l X e r o x PA R C p r o v e n g o n o M a r c W e i s e r e Te r r y W i n o g r a d , d u e d e i r i c e r c a t o r i c h e , s u l f i n i r e d e g l i anni 80, hanno teorizzato la nozione di “ubiquitous computing”. Partendo dal presupposto che le persone non volessero (e non vogliono) interagire coi computer ma volessero solo svolgere i loro compiti (scrivere documenti e non aver a che fare con un editor di testo, disegnare e non dover imparare un software ad hoc, ecc.), giunsero all’assunto che il ruolo del computer nell’interazione fosse meramente strumentale. Per dirla con le parole dello stesso Weiser: “How can we interact with environments, rather than interacting with computers, where the computers now b e c o m e t h e m e d i u m t h r o u g h w h i c h w e i n t e r a c t ? ” [16] Così l’idea dell’ubiquitous computing è stata quella di spostarsi dal desktop verso una moltitudine di dispositivi. Piuttosto che pensare ad un singolo computer si è cominciato a pensare ad usare un i n t e r o a m b i e n t e f a t t o d i c o m p u t e r, v i r a n d o c o s ì d a un’interazione uno-a-uno verso interazioni ubique ed i m p l i c i t e n e g l i o g g e t t i c h e c i c i r c o n d a n o [17].
Bill Moggridge, Designing Interactions, Cambridge (Mass.)London: The MIT Press, 2007, p. 17 [13]
[14]
Ibidem
Un lungo articolo apparso su Nature certifica quanto ormai si vocifera da tempo sulla legge di Moore, ovvero che sarà presto una linea guida del passato per il comparto hi-tech.
[15]
Per approfondimenti si veda: Waldrop M. Mitchell, The chips are down for Moore’s law, www.nature.com, 9 Feb 2016 Intervista a Terry Winograd in Bill Moggridge, Designing Interactions, Cambridge (Mass.)-London: The MIT Press, 2007, p. 460
[16]
[17]
Ibidem, p. 460-462
UNO.2 | 4 - L’ubiquitous computing e gli infodomestici
043
PRIMA CALCOLATRICE ELETTRONICA PORTATILE OLIVETTI (1973) – Mario Bellini
CAP. UNO | Strumenti per relazioni efficaci, le interfacce e le interazioni
044
PRIMO LAPTOP APPLE COLBY WALKMAC (1987) – Chuck Colby
UNO.2 | 4 - L’ubiquitous computing e gli infodomestici
045
Tutto ciò è stato possibile anche grazie ad un’interfaccia che ha permesso all’uomo di dialogare con dispositivi che non vengono percepiti i m m e d i a t a m e n t e c o m e c o m p u t e r, m a c h e i n verità hanno un computer al loro interno che ne controlla il funzionamento. Macchine fotografiche, videoregistratori, telefoni sono solo alcuni esempi di oggetti d’uso quotidiano al cui interno è camuffato un c o m p u t e r. L’ i n t e r a z i o n e c o n q u e s t i o g g e t t i s i s v o l g e in virtù della mediazione di un’interfaccia dotata di tasti, manopole e, spesso, di un piccolo display su cui appaiono sintetici messaggi. Così si è passati da un’interfaccia (o interazione) messa in pagina, ovvero contenuta nell’inquadratura dello schermo/pagina di dispositivi general purpose come i PC, ad un’interfaccia diffusa, che conferisse tratti plastici e attributi superficiali agli oggetti, in altre parole che contribuisse ad una loro messa in forma. E non si è trattato di una messa in forma neutrale poiché, per dirla con Anceschi (1993) “attribuire una forma (plastica o superficiale) si traduce nella costruzione di differenze, e poiché il senso è, per così dire, sempre in agguato, in attesa di riempirle, a ogni scelta formale si accompagna un effetto. Come la complessione di un corpo o la fisiognomica di un volto
CAP. UNO | Strumenti per relazioni efficaci, le interfacce e le interazioni
046
sono immediatamente “snellezza” o “obesità”, “ottusità” o “grazia”, qualcosa di simile avviene a un bisturi r i s p e t t o a u n a p o l t r o n a . ” [18] L’ i n f o r m a t i z z a z i o n e d e g l i o g g e t t i q u o t i d i a n i h a portato, come conseguenza, ad un’interfaccia priva di quella fisicità tipica dei sistemi meccanici ed elettromeccanici. Se quest’ultima prima ingombrava spazio e impegnava essenzialmente il corpo del dispositivo occupato, richiedendo un certo sforzo e determinati movimenti, adesso, con l’introduzione di superfici touch-sensitive o capacitive, si è giunti al riconoscimento di numerose interazioni soltanto attraverso una pressione minima. Il futuro dell’interaction design si muove cercando di eliminare totalmente la necessità di toccare gli oggetti, concentrandosi, come si analizzerà nel prossimo capitolo, sul ruolo in un’interazione ubiqua.
In Giovanni Anceschi, Il progetto delle interfacce: oggetti colloquiali e protesi virtuali, Milano: Domus Academy, 1993, p.26 [18]
UNO.2 | 4 - L’ubiquitous computing e gli infodomestici
047
CAP. UNO | Strumenti per relazioni efficaci, le interfacce e le interazioni
048
IH RICE COOKER (2010) – Toshiba Corporation
UNO.2 | 4 - L’ubiquitous computing e gli infodomestici
049
VERSO NUOVE FRONTIERE – Casi Studio
1.3 | 1
- I’ll play it and I tell you what it is later M i l e s D a v i s [19] L’ e v o l u z i o n e d e l l e i n t e r f a c c e a n a l i z z a t a n e l c a p i t o l o precedente ci ha mostrato come l’inevitabile intersezione tra mondo artefattuale e mondo digitale abbia portato ad avere degli oggetti sempre più intelligenti, con straordinarie capacità predittive in merito a ciò che l’utente ha in mente di compiere. Se da un lato ciò è dovuto alla standardizzazione di molte interazioni, dall’altro è indubbiamente grazie all’incredibile capacità di calcolo con cui è ormai possibile dotare qualsivoglia oggetto, per cui non è per nulla improbabile immaginare tra qualche anno di poter instaurare un rapporto quasi personale (nel senso di intimo ma anche con caratteristiche propriamente u m a n e ) c o n u n c o m p u t e r. Nonostante le devianze distopiche portate dal mondo c i n e m a t o g r a f i c o ( ‘ 2 0 0 1 : A S p a c e O d y s s e y ’ , ‘ Te r m i n a t o r ’ , ‘I, Robot’, ‘Black Mirror’, ecc.) l’intelligenza artificiale, al momento, sembra presentare problemi più legati al m o n d o d e l l a p r i v a c y [20] c h e a q u e l l o d i a u t o m i i n g r a d o di nuocere volontariamente all’uomo. Un caso su tutti è quello inerente gli assistenti vocali.
Miles Davis è stato un compositore e trombettista statunitense jazz, considerato uno dei più influenti, innovativi ed originali musicisti del XX secolo. Per la citazione si guardi: Miles Davis Quotes, www.brainyquote. com [19]
PROJECT SOLI (2015) – ATAP, Google
UNO.3 | 1 - Le interfacce vocali, un’introduzione
051
Nati con gli smartphone si sono evoluti in forma autonoma, divenendo l’anello di congiunzione tra glossario
domotica, ubiquitous computing e Internet of Things. Sebbene siano l’ultimo trend in tema di dispositivi i n t e l l i g e n t i ( A m a z o n E c h o [21] e G o o g l e H o m e [22] s u tutti), in cui l’interfaccia visibile è quasi totalmente scomparsa, rappresentano sostanzialmente una forma perfezionata, e comunque ancora in divenire, di interazione vocale. Pur essendo ancora piuttosto rudimentali nelle loro caratteristiche interattive e di usabilità, hanno cominciato a sollevare implicazioni etiche che molto probabilmente potrebbero p r e g i u d i c a r n e i l s u c c e s s o c o m m e r c i a l e [23]. Sebbene il tema degli assistenti vocali rientri nella sfera di influenza dell’interaction design, ha in realtà come fulcro fondamentale lo sviluppo di AI (Artificial Intelligence) sempre più affidabili e in grado di i m p a r a r e d a l l ’ u o m o [24] ( a f f a s c i n a n t e l a v i s i o n e p o r t a t a dal film ‘Her’ di Spike Jonze, 2013); la discussione di questi argomenti richiederebbe una tesi a parte, per cui si è preferito introdurli rimandandone in altra sede la t r a t t a z i o n e [25].
John Maeda ha reso perfettamente il trade-off a cui saremo sempre più sottoposti nel suo famosissimo saggio Le leggi della semplicità, 2006. [20]
In mancanza di un sito di riferimento, oltre la pagina Amazon in cui viene venduto, si guardi questa recensione piuttosto approfondita: Il Post, Amazon ha presentato “Echo”, [21]
www.ilpost.it, 7 Nov 2014 Per maggiori dettagli si guardi: www.madeby.google.com [22]
Per approfondimenti si legga un articolo di Wired Italia sul tema privacy-Google Home: Philip Di Salvo, Google Home è un incubo, www.wired.it, 5 Ott 2016 [23]
CAP. UNO | Strumenti per relazioni efficaci, le interfacce e le interazioni
052
ECHO vs. HOME (2014, 2016) – Amazon, Google
Ovvero il cosiddetto machine learning. Per una definizione esaustiva si guardi quella riportata su www.whatis.techtarget.com [24]
Si legga a tal proposito: SPACE10, Conversational interfaces: The next big technological revolution?, www.medium.com, 7 Set 2016
Interessante è il lavoro che sta svolgendo SPACE10 (www.space10. io) con il laboratorio “Do you speak human?” esplorando possibili sviluppi tra interfacce colloquiali e AI. [25]
UNO.3 | 1 - Le interfacce vocali, un’introduzione
053
CODEX SERAPHINIANUS (1981) – Luigi Serafini
CAP. UNO | Strumenti per relazioni efficaci, le interfacce e le interazioni
054
1.3 | 2
I progetti che cercano di tracciare differenti percorsi sulla strada dell’interazione uomo-macchina hanno sempre un’alta componente di fascinazione, in parte dovuto all’uso che se ne fa della tecnologia e in parte alla struttura narrativa/interattiva non chiusa, ma aperta (sostanzialmente potrò personalizzare le dinamiche di interazione/feedback). Partendo da questo presupposto verranno analizzati quattro differenti casi studio con i quali si tenta di tracciare quali potrebbero essere gli sviluppi futuri nel campo dell’interaction design. Si partirà dal caso del Knocki della Swan Solutions passando al Nuimo della Senic col quale ci si collegherà al primo dei due progetti realizzati dalla s e z i o n e ATA P [26] d i G o o g l e , i l P r o j e c t S o l i . I n f i n e si analizzerà un’interessante caso di tecnologia/ interfaccia incorporata (embodied), il Project Jacquard.
L’ATAP (Advanced Technology and Projects) è una divisione interna di Google che si occupa di ricerca e svilupo su progetti piuttosto brevi ma altamente innovativi. Per maggiori informazioni si consulti: www.atap.google.com [26]
UNO.3 | 2 - Casi studio
055
CASI STUDIO
1
KNOCKI 2015 – Swan Solutions
2
NUIMO 2015 – Senic
3
PROJECT SOLI 2015 – Google
4
PROJECT JACQUARD 2016 – Google
1
KNOCKI 2015 – Swan Solutions
Knocki è un piccolo dispositivo wireless che trasforma istantaneamente delle ordinarie superfici (muri, tavoli, porte, mobili, piani cottura e altro) in telecomandi con cui controllare altri dispositivi intelligenti.
Fonte: www.knocki.com
scopo trasformare ogni superficie disponibile in un’interfaccia sensibile al tocco con cui controllare dispositivi in remoto
s tato
m at e r i a l i
in fase di preordine
ABS
performance è possibile personalizzare le interazioni scegliendo con quanti tocchi (knock) attivare determinati comandi
i n t e r fa c c i a
plus
Grafica/Digitale
rappresenta un
il dispositivo si controlla
shortcut tangibile,
e personalizza totalmente
ovvero un tasto
attraverso l’apposita
di scelta rapida
applicazione per smartphone
con cui dotare
interazione tramite il bussare (knocking) è possibile attivare diverse funzioni, tra cui: accendere/spegnere le luci, gestire riproduttori di musica, controllare il termostato, ecc. Scegliendo quanti tocchi impostare per ogni funzione, si crea quasi un codice Morse specifico per ogni Knocki utilizzato
funzioni specifiche e ricorrenti. Nonostante necessiti di una fase di apprendimento e preparazione piuttosto articolata, sfrutta un unico metodo di interazione basilare e potenzialmente riproducibile su qualsiasi superficie
1
KNOCKI 2015 – Swan Solutions
Possibilità di personalizzare l’interazione con diversi dispositivi/servizi a seconda della quantità di tocchi sulla s u p e r f i c i e s u c u i è i n s t a l l a t o i l K n o c k i . L’ a u m e n t a r e d e l l a complessità delle interazioni potrebbe inficiare
sulle
capacità mnemoniche degli utenti.
2
NUIMO 2015 – Senic
Nuimo è un telecomando universale con cui controllare qualsiasi apparecchio connesso ad internet. Dai dispositivi intelligenti sino al proprio pc, è possibile gestirne da remoto, via bluetooth, diverse funzioni.
Fonte: www.senic.com
scopo poter comandare ogni oggetto connesso ad internet attraverso un unico dipositivo di controllo
s tato
m at e r i a l i
in commercio
policarbonato, alluminio anodizzato
performance regolazione/controllo attraverso comandi analogici e sensibili al tocco o attraverso il riconoscimento dei gesti
i n t e r fa c c i a
plus
Ta n g i b i l e / D i g i t a l e
in questo caso
si personalizza attraverso
il dispositivo
l’apposita applicazione
rappresenta quasi
per smartphone, mentre un
un hub con cui
display a matrice di punti,
interagire per
con un rappresentazione
poter controllare
ad icone, si attiva sul
tutto ciò che si
dispositivo quando utilizzato
è in precedenza
interazione è possibile controllare 5 funzioni fondamentali: turn (girando la ghiera metallica), switch e swipe (scorrendo il dito in verticale e orizzonale), click (premendo al centro), fly (scorrendo la mano sul dispositivo, senza toccarlo)
connesso. Sebbene presenti comandi ridondanti - è possibile gestire il volume in 3 modi (turn, switch, fly) l’utilizzo del gesture sensing apre nuove forme di interazione a distanza, basate sul riconoscimento della gestualità
2
NUIMO 2015 – Senic
Le possibili interazioni con Nuimo: ruotare la ghiera esterna, scorrere il dito in verticale o in orizzontale, premere al centro o scorrere la mano parrallelamente o perpendicolarmente senza toccare il dispositivo.
3
PROJECT SOLI 2015 – Google
Soli è una nuova tecnologia di rilevamento che utilizza un radar in miniatura per rilevare le interazioni gestuali senza l’ausilio del tocco (touchless). Il tutto racchiuso in un chip, che incorpora sensore e antenna radio, di 10mm x10mm.
Fonte: www.atap.google.com/soli
scopo gestire qualsiasi dispositivo, con tecnologia Soli integrata, attraverso interazioni touchless
s tato
m at e r i a l i
prototipo sperimentale
silicio
performance riconoscimento di qualsia gestualità (anche complessa) espressa attraverso le dita o la mano
i n t e r fa c c i a
plus
Digitale
il concetto di
progettata a seconda
interazione diffusa
del dispositivo su cui si
è alla base del
adotterà la tecnologia Soli
Project Soli. Non
interazione avviene attraverso il concetto chiave di Virtual To o l s , o v v e r o g e s t i c h e simulano le interazioni che si avrebbero con strumenti fisici. Perciò è possibile simulare con la mano operazioni come: premere un pulsante, ruotare una manopola o scorrere un cursore
importa quale sia l’oggetto con cui si entri in contatto, in quanto l’interazione potrebbe essere potenzialmente la stessa, così come gli strumenti con cui viene messa in scena (ovvero l e d i t a ) . L’ u n i c o limite apparente è la mancanza di feedback naturali che questa tecnologia porta con se.
3
PROJECT SOLI 2015 – Google
V i r t u a l To o l G e s t u r e s Immaginando un bottone invisibile tra pollice e indice, si potrebbe premerlo unendo le due dita. CosĂŹ come ruotare una manopola o afferrare e scorrere uno slider virtuale.
4
PROJECT JACQUARD 2016 – Google
Il Project Jacquard si occupa di studiare nuove tipologie di tessuto conduttivo, in grado di permettere l’integrazione di interfacce sensibili al tocco direttamente negli indumenti di uso quotidiano (embodied interaction).
Fonte: www.atap.google.com/jacquard
scopo consentire la produzione su larga e a basso costo di tessuti conduttivi con cui fabbricare indumenti interattivi
s tato
m at e r i a l i
prototipo sperimentale
rame, poliuretano, fibre tessili
performance qualsiasi gestualità possibile con schermi sensibili al tocco è riproducibile
i n t e r fa c c i a
plus
Ta n g i b i l e / D i g i t a l e
la possibilità
riprodotta tramite tessitura
di trasformare
in rilievo su zone specifiche
qualsiasi oggetto
degli indumenti per indicare
(e parte di esso)
dove è possibile interagire
in un dispositivo
per gestire dispositivi
interattivo,
precedentemente connessi
con particolare
interazione nella tessitura trama e ordito costituiscono una griglia simile alla struttura dei pannelli capacitivi multitouch presenti su tablet e smartphone. Ciò permette di operare con modalità quasi identiche a quelle possibili sui suddetti dispositivi
attenzione a quelli considerati tendenzialmente non interattivi (come gli indumenti), rende questo progetto particolarmente in linea col concetto di interazione ubiqua, conducendo l’ubiquitous computing ai massimi livelli
4
PROJECT JACQUARD 2016 – Google
Gli step di produzione di un indumento interattivo: dalla creazione del tessuto Jacquard al prodotto finito, con particolare attenzione a campi applicativi e modalitĂ di integrazione/interazione con essi.
Fonte: Poupyrev I. et al. (2016), Project Jacquard: Interactive Digital Textiles at Scale
CONSIDERAZIONI – La chimera dell’interfaccia trasparente
1.4
Come è stato possibile osservare dai casi studio precedenti, la continua evoluzione delle interfacce e dei processi cognitivi ad esse legate, ne ha in un certo senso smaterializzato la presenza tangibile. Ciò è in linea con l’affascinante visione, prospettata da molti, secondo la quale le interfacce dovrebbero possedere il minimo di consistenza percettiva possibile (Anceschi, 1 9 9 3 ) [27], t a l e d a v e r i f i c a r s i q u a s i u n r a p p o r t o d i proporzionalità inversa, nel quale meno le interfacce sono visibili e più gli utenti sarebbero in grado di concentrarsi sul compito da svolgere. Sebbene questa visione sia quella in fieri e per certi versi auspicabili – basti pensare a quanto la letteratura cinematografica ci abbia abituato ad un futuro (quando non distopico) caratterizzato da dispositivi sottili e semitrasparenti, dai toni pastello – bisogna dar atto a D i a m a n t i ( 2 0 1 3 ) [28] q u a n d o s c r i v e d e l l a n e c e s s i t à , p e r le interfacce, di mantenere un certo grado di opacità, affinché siano visibili per l’utente e possano guidarne le interazioni. E’ sensato, dunque, che l’interfaccia scompaia a favore di un’interazione sempre più ubiqua?
In Giovanni Anceschi, Il progetto delle interfacce: oggetti colloquiali e protesi virtuali, cap. 1 – Il dominio dell’interazione, “Protesi e anafore per il progetto dell’interfaccia”, p. 19 [27]
In Simone Diamanti, L’interazione in pratica, cap. 2 – Spazi, ambienti, negoziazioni, “2.1 Il mito dell’Interfaccia trasparente”, p. 81 [28]
UNO.4 | Considerazioni – La chimera dell’interfaccia trasparente
075
due
Strumenti La dimensione per relazioni visivaefficaci, le interfacce - CriticitĂ e le e intuizioni interazioni
TELECOMMUNICATION MEDIUM – The Internet
L’ i n c r e m e n t o n e g l i a m b i e n t i d o m e s t i c i d i o g g e t t i s e m p r e più senzienti, pensati per facilitare la vita e quindi in grado di comunicare il loro status o ampliare la gamma di possibilità di utilizzo, ha, inevitabilmente, portato con sé numerose problematiche da affrontare. L a p r e d i z i o n e , a d o p e r a d i M a r c We i s e r, d e l l ’ u b i q u i t o u s computing – annegare la computazione in oggetti di varia dimensione, più o meno specializzati per funzione, che popolano la nostra esperienza quotidiana –
è ormai divenuta un dato di fatto da quasi una
ventina d’anni. E da allora molti oggetti sono diventati “drammaticamente muti, incapaci di comunicare la loro logica di funzionamento, ostili, riluttanti a obbedire ai nostri comandi, e antipatici, incapaci di organizzare un
Marco Susani “Interfaccia e Interazione – L’apparato comunicativo della macchina” (in Giovanni Anceschi, Il progetto delle interfacce: oggetti colloquiali e protesi virtuali, cap. 7 – Dialoghi con gli oggetti, p. 195) [1]
In David Benyon, Progettare l’interazione, cap. 9 – Design dell’interfaccia, p. 226 [2]
CAP. DUE | La dimensione visiva – Criticità e intuizioni
078
r a p p o r t o s e r e n o e p i a c e v o l e c o n l ’ u t i l i z z a t o r e ” [1]. Il quotidiano accrescere di informazioni che recepiamo, senza alcun filtro che ne discerni l’importanza, porta spesso a un sovraccarico del nostro sistema sensoriale, in particolare di quello visivo. La progettazione non cerca di limitare la quantità di contenuti e feedback in base alle necessità, piuttosto sembra perseguire lo slogan all you can eat: inondare di informazioni l’utente, col rischio che faccia indigestione. Per dirla con Benyon (2012): “Il problema è che ci troviamo in una società ricca di informazioni. Quando spostare le informazioni da un luogo all’altro era costoso, il telegramma era il mezzo predominante: “Manda denaro. Urgente!” Oggi si potrebbe benissimo spedire una presentazione multimediale in tre parti completa di video streaming b a s a t a s u l t e m a “ M a n d a d e n a r o , u r g e n t e ” [2]. Se lo schermo, in quanto medium per antonomasia, è il responsabile di questa prolificità, come si è sviluppata l’interazione in un mondo dominato da display sempre p i ù g r a n d i , d i f f u s i e p e r v a s i v i ? [3]
Un’altra novità degli ultimi anni è il “secondo schermo”, cioè l’abitudine di guardare la televisione e contemporaneamente utilizzare un altro dispositivo. Un utente su quattro usa abitualmente smartphone e tablet davanti alla tv per effettuare ricerche legate al programma che sta guardando. Uno su cinque, invece, [3]
INTRO
utilizza il secondo schermo per condividere o commentare online, producendo quella convergenza che viene definita social tv. Per approfondimenti si veda: Ericsson ConsumerLab, TV and Media Report 2016, www.ericsson.com
079
DERIVE VISUALI – Le interfacce monosensoriali
2.1 | 1
L a d i ff u s i o n e d i m a s s a d e i p e r s o n a l c o m p u t e r, e d e i loro derivati, all’interno degli oggetti che popolano la nostra quotidianità ha in qualche maniera veicolato un’idea diffusa ed errata: ovvero che l’interfaccia sia in qualche modo una superficie, quale ad esempio quella d i u n m o n i t o r. Naturalmente questo preconcetto è stato condizionato dall’introduzione capillare dei display in dispositivi come macchine fotografiche, videoregistratori o telefoni - oggetti che non percepiamo immediatamente come c o m p u t e r, m a c h e i n v e r i t à h a n n o u n c o m p u t e r a l l o r o interno che ne controlla il funzionamento. L’ i n t e r a z i o n e c o n q u e s t i d i s p o s i t i v i s i s v o l g e ( o m e g l i o si svolgeva) in virtù della mediazione di un’interfaccia dotata di tasti, manopole e inizialmente di piccoli display su cui apparivano sintetici messaggi. Il progressivo arricchirsi di funzionalità, contestualmente a l l a c r e s c i t a i n d i m e n s i o n i e p e r f o r m a n c e d e i d i s p l a y, oltre all’introduzione della tecnologia touchscreen con la conseguente scomparsa dei tasti fisici, ha reso sempre più complicate le interfacce degli oggetti di consumo, che spesso richiedono grossi manuali di istruzioni.
REITERATIVE COMMUNICATION AID [ 4 ] (2010) – Gerard Rallò, Devices for Mindless Communication
DUE.1 | 1 - Infodomestici sempre più monitor-centrici
081
Per quanto lo schermo non sia di per sé il problema, sicuramente un uso smodato e a tratti sconsiderato, ha indubbiamente inficiato sull’usabilità di artefatti pensati per essere semplici e con poche funzionalità p r e p o n d e r a n t i . L’ i n t r o d u z i o n e d i f u n z i o n i a c c e s s o r i e in qualsiasi apparecchio elettronico non ha quasi mai conciso con un appagamento maggiore da parte dell’utente, né tanto meno con un incremento considerevole in termini di performance, quanto piuttosto in una ben risaputa leva competitiva per il marketing, perlomeno fino alla prima decade degli anni duemila. Se in passato tutto ciò è avvenuto incrementando la quantità di comandi fisici (sino ad un naturale limite spaziale), con il passaggio graduale da analogico a digitale si è riusciti a condensare tutto ciò in uno spazio virtuale, potenzialmente illimitato, e a trasmetterlo all’esterno attraverso delle superfici quasi bidimensionali: ovvero più funzioni in meno spazio. Solo in sporadici casi si è assistito all’applicazione efficace dello storico less-is-more nell’elettronica di consumo: in primis il binomio Braun – Dieter Rams, ma anche Muji – Naoto Fukasawa, Apple – Jonathan Ive e Punkt. – Jasper Morrison.
Nella pagina precedente, dispositivo da indossare in grado di tracciare conversazioni e analizzare modelli di comunicazione, così da sostituirsi nel rispondere, in caso di modelli ridondanti. [4]
Gerar Rallò è un designer spagnolo che col progetto Devices for Mindless CAP. DUE | La dimensione visiva – Criticità e intuizioni
Communication ha provato a speculare in modo satirico sul possibile ruolo della tecnologia nelle conversazioni ‘faccia a faccia’. Dai dispositivi per evitare di interagire in situazioni ridondanti ad altri che cercano di suggerire come portare avanti conversazioni più interessanti, tutti indagano differenti aspetti dell’attuale meccanicità nelle 082
Ne consegue che se la sovrabbondanza di informazioni o di funzioni non costituisca il problema, quanto una naturale conseguenza del progresso, di certo l’uso di uno schermo, quando non caratterizzato da un filtro “osmotico” in grado di discernere cosa sia necessario mostrare o meno, non costituisce la soluzione. O perlomeno non si identifica come una soluzione attentamente progettata per divenire l’interfaccia di un dispositivo specifico, quanto piuttosto la risposta più immediata e banale. In conclusione, non può perennemente valere il pensiero, traslando la famosa massima di Archimede: “datemi un display (touch) e vi interfaccerò al mondo”. Che le tipologie di interazioni siano sempre più mediate attraverso interfacce grafiche non appropriate, tra l’altro, né un esempio lampante l’introduzione degli schermi tattili, che ad oggi appare una tecnologia abbastanza consolidata da poter essere considerata non solo di passaggio. Le possibilità offerte dai touchscreen (ormai divenuti molto performativi) hanno permesso la nascita degli smartphone e del mondo mobile app: ciò è stato solo l’inizio di un processo che ha portato a moltiplicare il numero di apparecchi, in cui è presente uno schermo touchscreen, gestibili
interazioni tra le persone. (Fonte: www.gerardrallo.net)
DUE.1 | 1 - Infodomestici sempre più monitor-centrici
083
EXPRESSIONS DISPATCHER (2010) – Gerard Rallò, Devices for Mindless Communication
CAP. DUE | La dimensione visiva – Criticità e intuizioni
084
attraverso applicazioni da telefono. Nonostante le numerosissime considerazioni, positive o meno, relative a questi cambiamenti, sicuramente ve ne è una che è d’uopo fare in merito alla coeva evoluzione del designer di interfacce. Infatti, si sta assistendo alla crescita esponenziale di progettisti di interfacce grafiche (le GUI citate nel secondo capitolo) che hanno come unico termine di riferimento per i loro progetti quello della piacevolezza estetica, tralasciando il confronto con la tipologia di utenti che utilizzeranno tali interfacce, quali compiti dovranno svolgere, in quali contesti e se la tecnologia impiegata si presti efficacemente al tipo di d i s p o s i t i v o [5].
A tal proposito si legga un articolo dell’azienda di consulenza Intercom, specializzata nello sviluppo di strumenti per la comunicazione B2C, su come i designer di interfacce cerchino sempre più di impressionare i loro colleghi attraverso una grafica accattivante (su siti come Dribbble, www.dribbble. com) piuttosto che incentrarsi sui reali [5]
bisogni degli utenti: Paul Adams, The Dribbblisation of Design, www.blog.intercom.com, 18 Agosto 2014
DUE.1 | 1 - Infodomestici sempre più monitor-centrici
085
PRIMO COMPUTER CON INTERFACCIA TATTILE PLATO IV (1972) – Computer-based Education Research Laboratory
CAP. DUE | La dimensione visiva – Criticità e intuizioni
086
2.1 | 2
È difficile immaginare come solo pochi decenni fa, la tecnologia touchscreen potesse essere trovata solo nei libri di fantascienza e nei film. Al giorno d’oggi, invece, è divenuta la base operativa di quasi tutti i dispositivi elettronici, senza i quali è quasi impensabile poter svolgere anche i più banali compiti quotidiani. Una tecnologia altamente pervasiva e diffusa sia in spazi pubblici che privati, che però ha richiesto il susseguirsi di generazioni e diversi grandi avanzamenti tecnologici per giungere fino questo tipo di performance. Infatti, anche se la tecnologia alla base degli schermi tattili può essere fatta risalire al 1940, c i s o n o n u m e r o e v i d e n z e [6] c h e s u g g e r i s c o n o l a l o r o infattibilità sino almeno al 1965. Bisogna comunque aspettare la fine degli anni ’80 affinché sia abbastanza realistico immaginare tale tecnologia impiegata nell’ambiente domestico. Sempre in questo periodo, in contemporanea all’evoluzione degli schermi, inizia a prendere forma u n a v e r s i o n e d e l l a v i s i o n e d i M a r c We i s e ( c f r. c a p . 2 , p a r. 2 . 2 ) d e l l ’ u b i q u i t o u s c o m p u t i n g , r i g u a r d a n t e più che altro lo sviluppo di una gamma di computer di varie dimensioni e utilità. È ciò che lui chiamava come “computing by the inch, by the foot, and by the
Per maggiori informazioni si veda un articolo su ArsTechnica: Florence Ion, From touch displays to the Surface: A brief history of touchscreen technology, 4 Aprile 2013 [6]
DUE.1 | 2 - Dagli schermi tattili alle interazioni transmediali
087
y a r d ” [7], o v v e r o l a c o m p u t a z i o n e s e c o n d o t r e d i v e r s e scale di grandezza (simboleggiate dalle unità di misura del sistema anglosassone: i pollici, i piedi e le iarde). I risultati di tale visione sono ciò che oggi ritroviamo, grazie anche alla tecnologia touchscreen, in dispositivi come smartphone o tablet (by the inch), nei tavoli interattivi (by the foot) e nelle pareti di controllo (by the yard). L’ i n t e r a z i o n e è p e n e t r a t a q u i n d i o l t r e c h e n e i d i v e r s i oggetti, tendenzialmente non pensati per essere interattivi, anche negli ambienti che ci circondano. La potenzialità, grazie anche alle implementazioni delle reti di comunicazione e quindi di internet, è quella di poter spostarsi in maniera istantanea da un dispositivo ad un altro senza soluzione di continuità, con un linguaggio d’interazione sempre più comune e che inizia a fare i conti con le possibilità di input/output e feedback che operino su più piani sensoriali. Si inizia quindi a parlare di interfacce cross-platform glossario
o anche transmediali, ovvero pensate per funzionare su diversi dispositivi e attraverso varie tipologie di interazione – ad esempio, tra i sistemi operativi che hanno risolto efficacemente la dualità desktop-mobile, troviamo Windows 10 di Microsoft.
Intervista a Terry Winograd, “Ubiquitous computing versus the Internet”, in Bill Moggridge, Designing Interactions, Cambridge (Mass.)London: The MIT Press, 2007, p. 462 [7]
Gli sviluppi più interessanti in questa direzione si stanno assistendo sul fronte delle interfacce colloquiali (cfr. cap. 2, par. 2.3), le quali stanno [8]
CAP. DUE | La dimensione visiva – Criticità e intuizioni
eliminando la frizione operativa tra uomo e macchina. Un articolo sull’editoriale Fast Company ne approfondisce meglio le dinamiche: John Brownlee, Conversational Interfaces, Explained, 4 Aprile 2016 Una parte della letteratura tende a sottilizzare tra i termini crossmediale e transmediale, qui si utilizzeranno come [9]
088
G-SPEAK [ 1 0 ] (2010) – Oblong Industries
sinonimi e con chiaro riferimento al significato di narrazione transmediale espresso da Henry Jenkins in Cultura Convergente (Milano: Apogeo, 2007)
control (Fonte: www.oblong.com/gspeak)
by the foot, by the yard G-speak è un software per lo sviluppo di tecnologie spaziali multi-utente, multi-schermo, multi-dispositivo, sia attraverso touchscreen che gesture [10]
DUE.1 | 2 - Dagli schermi tattili alle interazioni transmediali
089
PATTERN D’INTERAZIONE – Analisi e classificazione
2.2 | 1
La nascita di interfacce sempre nuove – tangibili o virtuali, analogiche o digitali –
porta con sé la
necessità di linguaggi adatti e coerenti con cui interagirci. A volte questi linguaggi sono rivisitazioni di gestualità del passato altre volte sono grammatiche c r e a t e e x n o v o . L’ e ff i c a c i a e l ’ e ff i c i e n z a d e i l i n g u a g g i d’interazione, così come delle interfacce, può essere m i s u r a t a a t t r a v e r s o d i v e r s i f a t t o r i [ 11 ] , a p p o s i t a m e n t e studiati per l’interaction design. Ciononostante vi è indubbiamente un fattore, apprezzabile anche da chi è a digiuno di elementi in materia, per valutare la bontà di un sistema interfaccia/interazioni: la sua diffusione. Quanto più diventa comune, riuscendo ad espandersi geograficamente, raggiungendo diverse fasce d’età e differenti campi lavorativi, tanto più il sistema è valido. Benyon (2012) parla di tre condizioni imprescindibili affinché vi sia una progettazione di qualità: accessibilità, usabilità, accettabilità, sia a livello economico che sociale. – [ … ] L’ a c c e s s i b i l i t à s i o c c u p a d i r i m u o v e r e g l i ostacoli che altrimenti escluderebbero alcune persone d a l l ’ u t i l i z z o d i u n s i s t e m a . L’ u s a b i l i t à s i r i f e r i s c e alla qualità dell’interazione in termini di parametri quali il tempo necessario per eseguire un compito, il numero di errori commessi e il tempo per diventare
Tra i più famosi troviamo le otto “regole d’oro” di Shneiderman, che definiscono otto importanti attributi affinchè qualunque scambio comunicativo possa correttamente dirsi interattivo. In B. Shneiderman, Designing the user interface: strategies for effective human-computer interaction, Boston, 2005, p. 74-75 [ 11 ]
USER-DEFINED GESTURES (2009) – Wobbrock et al.
DUE.2 | 1 - Mobile is eating the world
091
un utente competente. Chiaramente un sistema deve essere accessibile prima di essere utilizzabile. Un sistema valutato come altamente usabile in quanto rispetta alcuni criteri di usabilità potrebbe non riuscire a essere adottato o non soddisfare gli utilizzatori. L’ a c c e t t a b i l i t à r i g u a r d a l ’ i d o n e i t à d e l s i s t e m a a l l o scopo nel contesto d’uso; questo concetto si riferisce anche alle preferenze personali, che fanno sì che gli utenti utilizzino o meno un artefatto.–
[12]
Per raggiungere questo risultato nulla può essere lasciato al caso, perciò i sistemi interfacce/interazioni utilizzano dei linguaggi altamente codificati, in cui le interazioni assumono l’aspetto di schemi che, ciclicamente, devono ripetersi. Da ciò proviene la definizione di pattern d’interazione, come regolarità percepite in un ambiente ed identificate a diversi livelli di astrazione. Ne sono un esempio, nella maggior parte delle GUI desktop, il doppio clic per aprire un oggetto rispetto al clic col tasto destro del mouse per aprire un menu a tendina (in ambienti Windows), così come la disposizione dei menu, l’evidenziazione di un elemento al passaggio del mouse o a seguito di una selezione.
David Benyon, Progettare l’interazione: metodi e tecniche per il design di media interattivi, Torino: Pearson, 2012, p. 40 [12]
CAP. DUE | La dimensione visiva – Criticità e intuizioni
092
UNDERSTANDING HOW TO USE A TV REMOTE IS MADE EASIER BY A FRIEND – Bill Moggridge, Designing Interactions
DUE.2 | 1 - Mobile is eating the world
093
Man mano che i sistemi con cui interagire progrediscono si affacciano nuove tipologie di interazioni che si sommano a quelle già comunemente adottate, creando un ulteriore livello di possibilità. Negli ultimi anni la grande innovazione portata dai dispositivi dotati di touchscreen ha introdotto tutta una nuova serie di modelli basati sui gesti effettuabili con le dita o la mano. Prima di analizzare tali pattern d’interazione, è necessario sottolineare come, mai nella storia dell’interazione – oseremmo dire, addirittura, dell’uomo – vi sia stata una tale diffusione, pervasività e assimilazione di tali gestualità a livello globale, tanto da creare una vera e propria lingua comune, che trascende i linguaggi tradizionalmente intesi (financo quello matematico). Ciò è dovuto a una serie di fattori e convergenze che hanno contribuito a rendere la gestualità con i display multi-touch sicuramente transmediale e transculturale. Primo fra tutti l’enorme sviluppo del mercato smartphone. Osservando alcuni grafici mostrati da Evans (2016) nelle sue annuali presentazioni ‘Mobile is eating t h e w o r l d ’ [13] s i n o t a c h i a r a m e n t e c o m e l a d i f f u s i o n e degli smartphone abbia raggiunto (e raggiungerà)
Benedict Evans è partner dell’azienda di venture capital Andreessen Horowitz (www.a16z. com) ed annualmente aggiorna le sue presentazioni sugli sviluppi e le implicazioni della tecnologia mobile in diversi settori lavorativi. I grafici in figura provengono da: Benedict Evans, Presentation: Mobile is [13]
CAP. DUE | La dimensione visiva – Criticità e intuizioni
eating the world, www.ben-evans.com, 29 Marzo 2016
094
fasce di popolazione a cui da sempre la tecnologia è stata preclusa per motivi economici, sociali o anche solo funzionali (persone indigenti, di paesi in via di sviluppo o con un’età avanzata), con una progressione esponenziale, come mai nessun’altra tecnologia sia riuscita prima. Ciò è dovuto al costo ormai tendenzialmente abbordabile per gli smartphone di fascia bassa, alla loro estrema facilità d’uso in unione alla sempre maggiore possibilità di acceder ad internet da, quasi, ogni angolo del pianeta (tralasciando quale sia la velocità di connessione e trasmissione dati, ovvero ciò che crea il cosiddetto digital divide).
DUE.2 | 1 - Mobile is eating the world
095
CAP. DUE | La dimensione visiva – Criticità e intuizioni
096
DUE.2 | 1 - Mobile is eating the world
097
MOBILE IS EATING THE WORLD (2016) – Benedict Evans
2.2 | 2
Se si considera come la maggior parte delle interazioni sviluppate per smartphone siano divenute dei pattern d’interazione comunemente adottati su qualsiasi dispositivo dotato di touchscreen, è possibile comprendere come oggi si sia giunti ad utilizzare queste gestualità quasi inconsciamente, costituendo dei veri e propri archetipi, con una loro tassonomia, tali da essere riconoscibili anche al di fuori del loro contesto d i r i f e r i m e n t o ( c f r. q u e s t o c a p i t o l o , ‘ C a s o S t u d i o 1 – Multi-touch gestures’). A titolo esemplificativo, basti osservare come Google abbia appositamente creato un sito internet (Material Design) dove fornisce una serie considerevole di linee guida per la progettazione di interfacce grafiche efficaci, anche attraverso la creazione di pattern gestuali condivisi. In primis divide le gestualità in: - meccaniche del tocco (ciò che devo fare) in grado di produrre differenti risultati a seconda del contesto di utilizzo; - attività del tocco (ciò che voglio ottenere) raggiungibili anche attraverso l’utilizzo di diverse meccaniche tattili. In seguito mostra nel dettaglio come avvengono le meccaniche tattili e presenta tutte le varianti dei c o m a n d i d r a g , s w i p e e f l i n g [14].
Per maggiori informazioni si consulti: www.material.io [14]
Pagina a fianco, in figura: Touch mechanics: a) Double touch; b) Swipe; c) Long press; d) Pinch open; e) Two finger swipe; f ) Rotate; Touch activities: g) Scroll; h) Pan; i) Dismiss; j) Swipe to refresh; k) Menu open; l) Tilt [15]
CAP. DUE | La dimensione visiva – Criticità e intuizioni
098
a
b
c
d
e
f
g
h
i
j
k
l
GESTURES PATTERNS [ 1 5 ] (2016) – Google, Material Design
DUE.2 | 2 - Un nuovo linguaggio comune
099
Se le guidelines, ormai divenute comuni per molti sviluppatori, rappresentano un modo per normare la progettazione di interazioni tattili, dall’altro vi sono ricerche atte a dimostrare come, anche senza tutorial o libretti d’istruzione tali gestualità siano divenute un modo di operare inconsciamente assimilato da chiunque. Ne è un esempio lo studio condotto da Wobbrock et a l . ( 2 0 0 9 ) : i n u n e s p e r i m e n t o [16], s u u n c a m p i o n e d i 2 0 persone, sono stati confrontati 27 comandi da svolgere sul piano interattivo di un tavolo, impartiti senza specificare come eseguirli, da compiere prima con una sola mano e poi con entrambe, per un totale di 1080 interazioni (20*27*2). Si è così arrivati alla definizione di un set di gestualità ricavato direttamente dagli utenti, composto da circa 20 interazioni, che ha dimostrato come sia diventato comune svolgere determinati comandi nel medesimo modus operandi – mostrando, inoltre, uno scarto medio del solo 6,7% da un set di gesti studiato a priori dai progettisti. Un ulteriore considerazione è emersa dalle gestualità non mostrate nello ‘user-defined gesture set’: alcune operazioni sono state condotte dagli utenti immaginando degli ipotetici widget presenti sullo schermo, ma che effettivamente non c’erano
Wobbrock, J. O., Ringel Morris, M., & Wilson, A. (2009). UserDefined Gestures for Surface Computing. in Proceedings of the SIGCHI Conference on Human Factors in Computing Systems (p. 1083-1092). Boston: CHI ‘09. [16]
CAP. DUE | La dimensione visiva – Criticità e intuizioni
100
– ad esempio quando non avevano informazioni su come chiudere un’applicazione, tendevano a toccare lo schermo in alto a destra (posizione solitamente occupata dalla X per chiudere i programmi). Ciò porta a considerare come anni di utilizzo di interfacce desktop, in unione alla progressiva tangibilità del mondo virtuale, abbia creato una fusione di questi due spazi d’azione. Per dirla con Bonsiepe (1993): “[…] questi oggetti grafici più che raffigurare una realtà, costituiscono una realtà. All’utente la distinzione tra mondo metaforico e m o n d o “ r e a l e ” i n t e r e s s a m o l t o p o c o . L’ u t e n t e v i v e e lavora in un unico mondo. Perciò pare più appropriato affermare che gli elementi figurativi sul monitor di un computer non raffigurano nulla, ma piuttosto p r o p o n g o n o u n o s p a z i o d ’ a z i o n e [ … ] ” [17]. Naturalmente l’analisi dei pattern d’interazione sin qui compiuta non ha valenze deterministiche quanto più probabilistiche, non a caso nella progettazione di interfacce grafiche (in particolare in ambito web) si utilizzano le euristiche come strumento di revisione,
glossario
ovvero regole che non si pongono con dettami stringenti (come le guidelines) bensì più come consigli g e n e r i c i d e r i v a t i d a l l ’ e s p e r i e n z a p r a t i c a [18].
Gui Bonsiepe “Interpretazioni dell’interfaccia con l’utente umano”, in Giovanni Anceschi, Il progetto delle interfacce: oggetti colloquiali e protesi virtuali, Milano: Domus Academy, 1993, p. 168 [17]
and Mack, R.L. (Eds.) (1994). Usability Inspection Methods, John Wiley & Sons, New York, NY.
Tra le più famose troviamo le 10 regole proposte da Nielsen in “Heuristic evaluation”, in Nielsen, J., [18]
DUE.2 | 2 - Un nuovo linguaggio comune
101
DOTS IN MOTION (2015) – Google
CAP. DUE | La dimensione visiva – Criticità e intuizioni
102
2.3
Se i pattern d’interazione sin qui analizzati sono quelli più diffusi e comuni introdotti dalla tecnologia touchscreen e ormai divenuti una forma di linguaggio universale, se ne stanno sviluppando altri, pensati per le nuove interfacce colloquiali, che presto potrebbero andare ad affiancare ed arricchire il vocabolario di quelle esistenti. Tra queste al momento la più interessante risulta quella adoperata da Google per H o m e ( c f r. c a p 2 , p a r. 2 . 3 ) c o n i s u o i D o t s i n M o t i o n [19]. Un insieme di quattro punti colorati che, perennemente in movimento, comunicano quando l’intelligenza artificiale è al lavoro per l’utente. Sono state sviluppate diverse espressioni, tra le quali: ascoltare, pensare, rispondere, non comprendere e confermare. I casi studio che andremo ad osservare ci mostreranno come le gestualità con superfici interattive siano sempre più un linguaggio comune e come queste superfici stiano uscendo dalle rigide cornici di uno schermo per diffondersi nell’ambiente circostante. Partendo dal progetto Multi-touch Gestures (Gabriele Meldaikyte) per classificare alcuni gesti e concludendo con l’interfaccia proiettata ovunque di Interactive Light (Argodesign).
Nati con l’enorme operazione di restyling operata da Google nel 2015 per creare un’ampia immagine coordinata che partisse dalla grafica ed arrivasse sino ai prodotti. Per maggiori informazioni si legga: A. Cook, J. Jarvi & J. Lee, Evolving the Google Identity, www.design.google. com, 1 Settembre 2015 [19]
DUE.3 | Casi studio
103
CASI STUDIO
1
MULTI-TOUCH GESTURES 2012 – Gabriele Meldaikyte
2
INTERACTIVE LIGHT 2016 – Argodesign
1
MULTI-TOUCH GESTURES 2012 – Gabriele Meldaikyte
La catalogazione delle gestualità per dispositivi touchscreen, e la loro traslazione in oggetti con interazioni fisiche, nasce dall’idea di conservarle e tramandarle nel futuro, qual’ora queste non dovessero più esistere.
Fonte: www.gabymel.com
scopo documentare comandi gestuali digitali, traslandone il significato su dispositivi analogici
s tato
m at e r i a l i
prototipo concettuale
PMMA, legno
performance i dipositivi possiedono una funzione ciascuno: scroll, swipe, pinch, tap, flick
i n t e r fa c c i a
plus
Ta n g i b i l e / M e c c a n i c a
Gestualità
non vi è un’interfaccia,
archetipiche
in quanto i meccanismi
la traslazione delle
elementari che sottendono
gestualità dal
agli oggetti sono resi
digitale (effimero e
visibili dalle scocche
grafico) all’analogico
trasparenti
(concreto e
interazione tramite le dita (uno o più) è possibile azionare i meccanismi di ogni oggetto, compiendo 5 diverse interazioni: scroll, swipe, pinch-to-zoom, tap, flick
meccanico), in un’operazione quasi steampunk, le fissa definitivamente come archetipi a cui rifarsi; la riconversione dal digitale all’analogico riporta i feedback ad un piano meccanico
1
MULTI-TOUCH GESTURES 2012 – Gabriele Meldaikyte
Le operazioni catalogate sono: pinch-to-zoom, ingrandire un’immagine; swipe, scorrere una mappa; scroll, scorrere le info; flick, sfogliare schede; tap, premere un pulsante.
2
INTERACTIVE LIGHT 2016 – Argodesign
Interactive Light è uno “schermo” proiettato su qualsiasi superficie utile ai nostri scopi e con la quale è più comodo interagirci. È in grado di riconoscere i gesti e può essere utilizzato con qualsiasi oggetto si abbia a disposizione.
Fonte: www.argodesign.com
scopo trasformare qualsiasi superficie in una potenziale interfaccia con cui è più comodo interagire
s tato
m at e r i a l i
prototipo
vari
performance mostrare informazioni, consentire di interagire con applicazioni di gioco o pagamento, proiettate ovunque
i n t e r fa c c i a
plus
Grafica/Digitale
Gestualità
l’interfaccia corrisponde
archetipiche
ad un riadattamento di
- La traslazione
quella per smartphone o
delle gestualità dal
tablet, semplificata così da
digitale (effimero e
poter essere proiettata ed
grafico) all’analogico
interpretata facilmente a
(concreto e
prescindere dalle proprietà
meccanico), in
superficiali del materiale su
un’operazione quasi
cui è riprodotta
steampunk, le fissa
interazione diverse possibilità a seconda del compito che si sta svolgendo, usando le più comuni gestualità per touchscreen
definitivamente come archetipi a cui rifarsi; - La riconversione dal digitale all’analogico riporta i feedback ad un piano meccanico
2
INTERACTIVE LIGHT 2016 – Argodesign
Interactive Light è stata pensata soprattutto per velocizzare tutte quelle operazioni per cui normalmente si utlizzano altri dispositivi: controllare una ricetta mentre si cucina, regolare l’intensità luminosa, controllare le email, pagare tramite carta di credito, ecc.
CONSIDERAZIONI – Multisensorialità e buone pratiche di design for all
2.4
Dalle analisi emerse in questo capitolo è evidente come se, per ovvie ragioni, il senso della vista abbia sempre dominato nel campo dell’interazione, oggi, per diversi fattori si debba riconsiderare il suo ruolo totalizzante. Una progettazione sempre più sinestetica è ciò verso
glossario
cui tende la maggior parte del design attuale; infatti, come si è osservato, la crescente transmedialità delle interfacce necessita ed abilita un’interazione logicamente multisensoriale. È indubbio come con ogni dispositivo interattivo si possa finalmente instaurare un rapporto dialogico, basato su comandi e feedback operanti sui diversi piani sensoriali. Se ne discute per i più evoluti assistenti vocali, nei quali la simmetria dovuta al “domando a voce, ottengo risposte vocali” non sempre funziona, e sarebbe da preferirsi un’interfaccia utente asimmetrica in cui “chiedo a voce, ottengo risposte con qualunque t e c n o l o g i a m e g l i o s i a d a t t i a l c o m p i t o ” [20]. E se ne discute da tempo come buona norma di Design for All, ovvero la progettazione multisensoriale come abilitatrice di inclusione sociale: “[…] se gestita correttamente, detta prassi, producendo un messaggio più chiaro ed incisivo, aumenta il comfort di fruizione, minimizza la possibilità d’errore e sfrutta le abilità r e s i d u e d e l l a p e r s o n a [ … ] ” [21].
Se ne discute in un recente articolo scritto dallo studio Argodesign (www. argodesign.com) su quali potrebbero essere gli sviluppi tecnologici più interessanti per il 2017: Argodesign Studio, Design Through the Looking Glass: Reflections on the Future of Technology in 2017, www.blog. prototypr.io, 12 Gennaio 2017 [20]
In Avril Accolla, Design for all. Il progetto per l’individuo reale, Milano: Angeli, 2009, p. 80 [21]
DUE.4 | Considerazioni – Multisensorialità e buone pratiche di design for all
115
tre
Strumenti per relazioni efficaci, le interfacce e le interazioni Uno strumento in piĂš, la percezione aptica
SENSORY HOMUNCULUS – The Internet
Il termine aptica non è ancora presente nel vocabolario italiano, anche se talvolta viene associato ai campi della percezione e del tatto, nonostante la sua etimologia greca (da haptikos, “in grado di entrare i n c o n t a t t o c o n ” [1]) e s o p r a t t u t t o i l s u o u t i l i z z o s i a riscontrabile nella lingua inglese da numerosi anni, da prima solo nella letteratura scientifica ed oggi in qualsia campo riguardante l’interazione (soprattutto come ‘feedback aptico’) e la realtà virtuale. In italiano una parola che potrebbe avere la stessa valenza, ma decisamente meno diffusa, è stereognosia o percezione stereognostica, ovvero la capacità di riconoscere, al tatto, la forma, le dimensioni e la c o n s i s t e n z a d i u n o g g e t t o [2].
Haptic, Online Etimology Dictionary, www.etymonline.com [1]
Stereognosia, Vocabolario della lingua italiana, www.treccani.it [2]
CAP. TRE | Uno strumento in più, la percezione aptica
118
Questa breve digressione è utile per capire come ad oggi ci sia molta confusione nell’utilizzo di termini afferenti al sistema somatosensoriale e soprattutto come la percezione tattile sia una macro-area al cui interno troviamo la percezione aptica. Vo l e n d o r i f a r c i a d u n o d e i p r i m i e p i ù i l l u s t r i s t u d i o s i di questa disciplina, ovvero James J. Gibson (1962), bisogna innanzitutto distinguere il tatto in attivo e p a s s i v o [3]. I l t a t t o a t t i v o e c i ò c h e s i r i f e r i s c e a l l ’ a z i o n e del toccare, in maniera quasi esplorativa, come se si stesse perlustrando con le mani (Gibson parla di scansione tattile, in analogia alla scansione visiva). In contrapposizione abbiamo il tatto passivo, fenomeno che si verifica sia quando siamo in contatto con ciò che circonda in maniera incosciente (ad es. quanto siamo seduti e non prestiamo attenzione al rapporto tra fondoschiena e seduta), sia quando siamo noi ad essere toccati da qualcosa. È quindi palese, da questa semplice spiegazione, come la percezione aptica si realizzi soltanto attraverso l’interazione con ciò che ci circonda. Alla base di questa interazione ci sono dei movimenti, attentamente codificati e studiati, attraverso i quali è possibile percepire le proprietà fisiche di un corpo.
James J. Gibson, Observation on active touch, Psychological Review, 1962, p. 477 [3]
INTRO
119
Klatzky et al. (1987) hanno definito queste procedure esplorative, ricavandone dei pattern d’interazione utili a comprendere la temperatura, il peso, il volume, la forma o le caratteristiche superficiali di un oggetto. In questo capitolo esploreremo le possibilità offerte dall’aptica nel mondo degli oggetti interattivi, concentrandoci soprattutto sulle suggestioni materiche e le possibilità offerte dalle texture degli oggetti, le quali, oltre i fini meramente estetici, si caratterizzeranno sempre più come opportunità per creare interfacce perfettamente integrate.
Panoramica delle procedure esplorative utilizzate dalle persone per determinare specifiche proprietà tattili degli oggetti (adattate da Lederman e Klatzky, 1987). [4]
CAP. TRE | Uno strumento in più, la percezione aptica
120
unsupported holding (weight)
lateral motion (texture)
enclosure (global shape; volume)
pressure (hardness)
contour following (global shape; exact shape)
static contact (temperature)
EXPLORATORY PROCEDURES [ 4 ] (1985) – Sonneveld Marieke, The tactual experience of objects
INTRO
121
INTERFACCE TANGIBILI – La progettazione sense-driven
3.1 | 1
Nonostante le interfacce grafiche esistano da quasi quarant’anni, e nonostante le prime sperimentazioni sull’integrazione del tatto, come senso attraverso cui fornire informazioni o stimoli, nelle interazioni uomo-macchina siano praticamente coeve alla nascita delle prime GUI, è solo dalla metà degli novanta’ che assistiamo ad un progressivo arricchirsi di esperienze legate alla nascita di un’interfaccia utente non solo digitale e visibile, ma anche tangibile. Un’importantissima esperienza in questo ambito è stata portata avanti da uno dei più famosi laboratori d e l M I T, o v v e r o i l T a n g i b l e M e d i a G r o u p [ 5 ] d i r e t t o d a Hiroshi Ishii. Lo scopo di questo laboratorio è stato da sempre quello di cercare di trasformare i ‘bit dipinti’ in ‘bit tangibili’, ovvero di fornire una forma fisica alle informazioni digitali. Questo obiettivo proveniva dal bisogno di andare oltre le Graphic User Interfaces, anche conosciute come interfacce a manipolazione diretta, costruite con elementi grafici in forma di finestre, icone, menu e bottoni da premere (da qui l’acronimo WIMPs interfaces). Questi elementi sono stati sempre considerati dispositivi metaforici di una realtà familiare agli utenti degli uffici, anche se questi oggetti grafici più che raffigurare una realtà, costituiscono una realtà.
Per una panoramica più ampia su ciò che il Tangible Media Group progetta all’interno del MIT Media Lab si consulti: www.tangible.media.mit.edu [5]
LITTLE TV THAT REST IN YOUR HAND (2007) – Sony, Senseware ‘07
TRE.1 | 1 - Dalle GUI alle TUI
123
Per dirla con Bonsiepe (1993) “[…] All’utente la distinzione tra mondo metaforico e mondo “reale” i n t e r e s s a m o l t o p o c o . L’ u t e n t e v i v e e l a v o r a i n u n u n i c o mondo. Perciò pare più appropriato affermare che gli elementi figurativi sul monitor di un computer non raffigurano nulla, ma piuttosto propongono uno spazio d ’ a z i o n e [ … ] ” [6]. E se questo spazio d’azione – inizialmente considerato a manipolazione diretta per la possibilità di interagire direttamente con gli elementi grafici e avere feedback visivo-uditivi al posto di scrivere lunghe righe di codice ed avere come responso altre righe di testo – divenisse il mondo tangibile che ci circonda piuttosto che essere mediato da apposite interfacce, che in fin dei conti costituiscono pur sempre un medium indiretto con cui interagire per ottenere informazioni? All’utente non verrebbe più proposto il paradigma: digitale = metaforico vs. tangibile = reale in una visione futura in cui tutte le informazioni digitali avranno una manifestazione fisica con cui poter direttamente interagire.
Gui Bonsiepe “Interpretazioni dell’interfaccia con l’utente umano” (in Giovanni Anceschi, Il progetto delle interfacce: oggetti colloquiali e protesi virtuali, Milano: Domus Academy, 1993, p. 168) [6]
CAP. TRE | Uno strumento in più, la percezione aptica
124
DIFFERENZE TRA GUI E TUI – Hiroshi Ishii , Designing Interactions
TRE.1 | 1 - Dalle GUI alle TUI
125
XPRINT [ 7 ] (2016) – Tangible Media Group, MIT
humidity responsive film in 90% RH
Struttura ad origami composta da nanoattuatori che si contraggono o espandono a seconda dell’umidità relativa circostante [7]
Progetti in questa direzione si possono già riscontrare nell’uso di materiali piezoelettrici, termocromici, elettroluminescenti o a memoria di forma, ma di sicuro le suggestioni [8]
CAP. TRE | Uno strumento in più, la percezione aptica
humidity responsive film in 10% RH
maggiori, oggi, derivano dalla cosiddetta ‘stampa 4D’: al normale stampaggio tridimensionale viene aggiunto il fattore temporale, come variabile in grado di trasformare a seconda di diversi cause esogene (tempo, luce, temperatura, umidità, ecc.) la forma dell’oggetto o la struttura stessa del materiale. 126
Naturalmente, per stessa presa di coscienza di Hiroshi I s h i i , l e T U I - Ta n g i b l e U s e r I n t e r f a c e p r e s e n t a n o dei limiti dovuti alla rigidità degli atomi, soprattutto se paragonati alla fluidità dei bits; la loro scarsa possibilità di cambiare forma o proprietà degli oggetti fisici in tempo reale, creerebbe una discrepanza con i modelli digitali alla base. Da qui deriva un’ulteriore evoluzione delle interfacce e d u n a n u o v a v i s i o n e i n t r o d o t t a d a l Ta n g i b l e M e d i a Group, quella dei Radical Atoms, secondo la quale i n u n p r o s s i m o f u t u r o [8] a v r e m o m a t e r i a l i i n g r a d o d i c a m b i a r e c o n s i s t e n z a e d a s p e t t o d i n a m i c a m e n t e [9], divenendo la controparte tangibile dei pixel sugli schermi. Non bisognerà più pensare a progettare un’interfaccia, piuttosto pensare ad un materiale come interfaccia. Da questa visione dei Radical Atoms nasceranno quindi le prime MUI – Material User Interface.
Su questo tema si guardi il discorso presso la conferenza TED del fondatore del MIT Self-Assembly Lab (vedi nota successiva): Skylar Tibbits, The emergence of 4D printing, www.ted.com/talks, Febbraio 2013 In questo campo si stanno sviluppando le sperimentazioni di un altro laboratorio del MIT, il Self[9]
TRE.1 | 1 - Dalle GUI alle TUI
Assembly Lab (www.selfassemblylab. net), sulle possibilità offerte dai materiali programmabili di trasformarsi a seconda delle istruzioni che vengono codificate nei loro atomi. Per ulteriori informazioni si legga l’articolo di Karen Eng, A peek into the brave new world of programmable materials, www.ideas.ted.com, 9 Febbraio 2017 127
3.1 | 2
Se le innovazioni per potenziare le interazioni aptiche rappresentano il nocciolo duro su cui sviluppare nuove forme di relazioni efficaci uomo-macchina, indubbiamente non bisogna trascurare una grande componente di fascinazione legata al tema dell’aptica. Essa è rintracciabile in oggetti quotidiani e con una bassa soglia di interazione, ma pur sempre indispensabili per osservare quali e quante direzioni sia possa imboccare nell’intento di coinvolgere multisensorialmente l’utente. Tra i lavori più interessanti condotti in questo campo emerge, per autorevolezza e capacità emozionale, quello del designer giapponese Kenya Hara. In linea con la tradizionale tendenza progettuale nipponica – uso predominante del bianco e minimalismo formale – Hara indaga la sfera sensoriale in diversi contesti e si focalizza sul senso del tatto, cercando di escludere tutto ciò che possa comportare distrazioni (colori, suoni, ridondanza formale). Importantissima, in questo contesto, risulta la mostra “HAPTIC” (2004) da lui pensata e curata, in cui ha coinvolto numerosi progettisti provenienti da differenti campi lavorativi (architettura, product design, grafica, moda e tessuti, interior design), chiedendo a ciascuno di ideare oggetti che portassero ad un risveglio dei sensi.
Il telecomando proposto da Panasonic per la mostra Haptic imita un essere vivente. Da spento è molle e sembra morto, ma, grazie a dei sensori di prossimità, si irrigidisce e illumina istantaneamente all’approssimarsi di una mano. [10]
CAP. TRE | Uno strumento in più, la percezione aptica
128
GEL REMOTE CONTROL [ 1 0 ] (2004) – Panasonic Design Company, Haptic
TRE.1 | 2 - Il risveglio dei sensi
129
GETA (2004) – Shuhei Hasado, Haptic
CAP. TRE | Uno strumento in più, la percezione aptica
130
Ne è nata così una raccolta di oggetti che si basano sulla filosofia progettuale chiamata da Hara ‘sensedriven’, in cui, cioè, il processo progettuale inizia non dalla tecnologia ma dalla percezione sensoriale che gli artefatti dovranno integrare e sviluppare. I progetti in mostra, passano in rassegna diversi aspetti del senso del tatto e, in un certo senso, provocano il desiderio di essere toccati, mentre li si sta solo osservando. Per dirla con le parole dello s t e s s o H a r a : “ [ … ] W h e n I f i r s t a s k e d M o r r i s o n [ J a s p e r, n.d.r.] to partecipate in the HAPTIC project, he had superb response. ‘Haptic means to make the sense d r o o l , d o e s n ’ t i t ? ’ h e s a i d . W h e n w e ’ r e h u n g r y, w e salivate at the sight of an inviting dish or savory grilled meat. That’s a gustatory response, but Morrison meant haptic as the experience of seeing something that made a l l t h e s e n s e s ‘ d r o o l ’ . [ … ] ” [ 11 ] . Creare artefatti, interattivi o meno, che facciano ‘salivare’ i sensi è una fantastica metafora.
Kenya Hara, Designing design, Baden: L. Muller, 2007, p. 80 [ 11 ]
TRE.1 | 2 - Il risveglio dei sensi
131
CAP. TRE | Uno strumento in piĂš, la percezione aptica
132
COMPOSITION “F” (2007) – Honda R&D, Senseware ‘07
TRE.1 | 2 - Il risveglio dei sensi
133
PROPRIETÀ SUPERFICIALI – Le texture
3.2 | 1
– Le textures hanno, nell’arte del costruire, una indispensabile funzione di mediazione tra l’uomo e la struttura. In genere le strutture, per quanto siano eseguite a regola d’arte, sono rigide, dure, grezze, e l’uomo, al loro contatto diretto senza mediazione alcuna, riceve una sensazione di disagio. – A t t i l i o M a r c o l l i [12] Il termine texture deriva dall’inglese e significa tessitura, nonostante abbia ormai assunto una valenza notevolmente più estesa, riguardando la struttura visiva e la percezione tattile di qualsiasi materiale. Se quest’ultimi sono di origine naturale (legno, pietre, pellami) esse sono intimamente connesse alla loro struttura chimico-fisica, mentre nei materiali artificiali (polimeri) o che hanno subito processi di lavorazione (metalli, ceramiche, compositi), le texture costituiscono il frutto di una progettazione più o meno voluta – a volte corrispondono solo al positivo delle superfici degli strumenti con cui sono lavorati i materiali. L’ i d e a z i o n e d i u n a t e x t u r e , p r i m a c h e e s s a a s s u m a valenze tridimensionali e proprietà tangibili, prende il nome di pattern (dall’inglese, con significato di motivo o disegno, ma anche di schema o modello). La precisazione è d’uopo, in quanto non ci
Teoria del campo, Parte seconda – Campo ghestaltico (in Attilio Marcolli, Teoria del campo: corso di educazione alla visione, Firenze: Sansoni, 1972, p. 124)
[12]
DODECAEDRI STELLATI (1978) – Attilio Marcolli, Teoria del campo 2
TRE.2 | 1 - Percezione visiva e globale
135
interesseremo di texture naturali, bensì parleremo di texture progettate, quindi anche di pattern, utilizzando entrambi i termini indistintamente. La texture, dunque, comunicando la superficie visibile e la materia degli oggetti, in un certo senso suggerisce all’uomo la corretta manipolazione, interpretazione ed interazione con gli stessi. Riprendendo le parole di Marcolli, quindi, la progettazione delle textures si configura come elemento nodale di mediazione tra l’uomo e gli artefatti, siano essi soltanto visivi o anche tangibili. Le proprietà texturali quando rientrano nel campo della percezione visiva posso essere progettate secondo diversi fattori che determinano l’addensamento (alta frequenza) o la rarefazione (bassa frequenza) del m o d u l o d i b a s e [13], t a l i d a o t t e n e r e c h e i l t u t t o s i a superiore alla somma delle singole parti. Quest’ultimo enunciato unitamente alle leggi della segmentazione del campo (o leggi della formazione delle unità fenomeniche), costituiscono in estrema sintesi lo studio condotto all’inizio del Novecento da K o f f k a e t a l . [14], d e l l a c o s i d d e t t a s c u o l a d i B e r l i n o , s u l l a psicologia della gestalt.
“[…] Gabbia, griglia e moduli definiscono i pesi visivi e percettivi d’insieme, componendo il progetto attraverso la reiterazione dell’elemento grafico ritmico [il modulo, n.d.r.] nella gabbia sottesa. […]” Daniela Calabi “Texture e Grana: interface structure” (in Daniela Calabi, Texture design: un percorso basic,
[13]
CAP. TRE | Uno strumento in più, la percezione aptica
Milano: Libreria CLUP, 2003, p. 40) Koffka, K., Köhler, W., Wertheimer, M., Goldstein, K., Gruhle, H. (1923). Untersuchungen zur Lehre der Gestalt. In Psychologische Forschung, IV, pp. 301-350. Berlin: Springer Dato il testo in tedesco si è fatto riferimento a Kanizsa (cfr. Bibliografia).
[14]
136
LEGGI DELLA SEGMENTAZIONE DEL CAMPO VISIVO (1980) – Gaetano Kanizsa, Grammatica del vedere
TRE.2 | 1 - Percezione visiva e globale
137
CAP. TRE | Uno strumento in piĂš, la percezione aptica
138
MARGINI SENZA GRADIENTE (1980) – Gaetano Kanizsa, Grammatica del vedere
TRE.2 | 1 - Percezione visiva e globale
139
CHICAGO TOWER [ 1 5 ] (1962) – Robert Oberdorf
CAP. TRE | Uno strumento in più, la percezione aptica
140
Questo studio è divenuto la base teorica su cui si sono sviluppati alcuni famosi esercizi di basic design – all’interno del Bauhaus di Weimar prima e del Hochschule für Gestaltung di Ulm dopo – in cui la progettazione dei pattern dotava le immagini di proprietà percettive diverse a seconda della distanza o dell’angolo di osservazione del soggetto.
Esercizio di Basic design condotto da William Huff, attraverso l’uso di immagini a mezza tonalità. In questa tavola sono impiegati elementi puntiformi di diverso diametro, organizzati in moduli esagonali, così da creare l’effetto visivo di una forma tridimensionale percepibile solo a distanza. [15]
TRE.2 | 1 - Percezione visiva e globale
141
3.2 | 2
Ben diverso è il discorso legato alle texture nell’ambito della percezione aptica. Se nel primo caso l’analisi percettiva avviene in maniera istantanea e globale – tanto da percepire composizioni di forme come un tutt’uno per poi distinguere in un secondo momento le parti costituenti – in questo secondo caso la percezione avviene in maniera lineare e graduale, secondo tappe successive che conducono infine a comprendere la natura formale e materiale del corpo toccato. Nonostante l’ampia gamma di sensazioni esperibili solo mediante la percezione tattile (ruvidezza/levigatezza, viscosità, umidità, temperatura, morbidezza/durezza o elasticità), la letteratura scientifica sembra essere mancante di leggi o principi ‘gestaltici’ che indichino come costruire texture in grado di consentire u n ’ i n t e r a z i o n e a p t i c a e f f i c a c e [16]. D i s e g u i t o s a r a n n o riportati, quindi, alcuni dei risultati ricavati da esperimenti significativi, così da tracciare un quadro di riferimento, utile alla progettazione. 1.
Uno dei primi studi a prendere in considerazione
un confronto tra pattern in rilievo è stato condotto da Carson Nolan e June Morris all’inizio degli anni ’60 e si è protratto con continui miglioramenti e
I numerosi studi sperimentali, condotti a partire dagli anni ’60, sembrano delineare per lo più consigli, basati su dati quantitativi (ad es. grandezza di un punto, lunghezza di una linea), a volte contrastanti. Non è ancora emerso un corpus di indicazioni generiche e scalabili a diversi contesti.
[16]
CAP. TRE | Uno strumento in più, la percezione aptica
Le texture sono state sviluppate secondo criteri di contrasto (continuo/ interrotto, spesso/sottile, doppio/ singolo e bordi lisci/frastagliati). L’asterisco identifica i set altamente comprensibili. Da C. Nolan e J. Morris, Improvement of tactual symbols for blind children, 1971 (cfr. Bibliografia).
[17]
142
PLASTIC LINEAR SYMBOLS [ 1 7 ] (1971) – C. Nolan e J. Morris, Improvement of tactual symbols for blind children
TRE.2 | 2 - Percezione tattile e lineare
143
PLASTIC AREAL SYMBOLS [ 1 8 ] (1971) – C. Nolan e J. Morris, Improvement of tactual symbols for blind children
CAP. TRE | Uno strumento in più, la percezione aptica
144
perfezionamenti sino agli anni ‘70. Come molti studi inerenti la dimensione performativa delle texture, questi non riguardavano in principio il campo dell’interazione uomo-macchina, ma un miglioramento delle performance di apprendimento per bambini con disabilità visiva (cecità o ipovedenza). In particolare lo studio in questione focalizzava la sua attenzione su documenti particolarmente significativi solitamente comunicati per immagini, ad esempio le carte geografiche. Con un’operazione prettamente grafica, ovvero la retinatura, venivano tradotte informazioni visuali in segni tattili: il mare assumeva un pattern puntinato molto fitto, i confini tra gli stati erano rimarcati con spesse linee, mentre ogni nazione assumeva un pattern differente. Da qui il nome areal symbols, stanti ad indicare pattern usati in cartografia per demarcare aree geografiche differenti. Lo studio di questi pattern ha portato a risultati interessanti per ciò che concerne il mondo della disabilità visiva, ma appaiono a noi poco significativi sia per il campione usato (solo ragazzi non vedenti), sia per le conclusioni generiche, le quali indicano come sotto una certa soglia di grandezza solo pochi dei p a t t e r n t e s t a t i n o n v e n i s s e r o r i c o n o s c i u t i [19].
Le texture sono state sviluppate secondo criteri di contrasto (continuo/ interrotto, regolare/irregolare, densità del pattern e dimensione degli elementi). L’asterisco identifica i set altamente comprensibili. Da C. Nolan e J. Morris, Improvement of tactual symbols for blind children, 1971 (cfr. Bibliografia).
[18]
TRE.2 | 2 - Percezione tattile e lineare
Da alcuni esperimenti recenti si è notato come la dimensione minima, affinchè una texture sia riconoscibile, si attesta sorprendentemente sui 13 nm (in caso di sfregamento, altrimenti nel tocco statico sugli 0,2 mm). Per ulteriori informazioni si consulti Skedung et al. (2013), Feeling Small: Exploring the Tactile Perception Limits.
[19]
145
2.
Tra le più importanti figure in questo campo
troviamo gli studi condotti da Susan Lederman e Roberta Klatzky che dagli anni ’70 ad oggi continuano ad investigare tutto ciò che risulta collegato alla percezione tattile. Tra i loro lavori risulta interessante l’analisi condotta sugli studi di Nolan e Morris, precedentemente citati, in cui si esamina come le conclusioni siano state alquanto premature e soprattutto la scelta degli areal symbols sia stata del tutto arbitraria (Lederman e Kinch, 1979). Quest’ultima considerazione si rivela piuttosto significativa e mostra un aspetto fallace degli studi sperimentali, anche successivi: la scelta dei pattern da testare è operata tramite criteri visivi. Cionostante emerge come nella realizzazione delle pseudomap vi siano due discriminanti importanti: differenti texture realizzate con altezze differenti. Da qui emerge come il più alto tasso di ridondanza (texture+altezza) produca una maggiore differenziazione e riconoscibilità delle aree (Lederman, 1982). Una delle discriminanti più importanti analizzata nel corso dei vari esperimenti è la contrapposizione tra superfici lisce e superfici ruvide, assumendo come ruvidezza quella caratteristica tipica delle superfici texturizzate.
Mappa realizzata per studiare la leggibilità di diversi simboli insieme (lineari, puntiformi o combinati), sfruttando lo spazio di separazione tra essi e le loro diverse altezze. Da qui nascerà l’osservazione di Lederman e Klatzky sulla ridondanza come elemento fondamentale per distinguere attraverso il tatto. [20]
CAP. TRE | Uno strumento in più, la percezione aptica
146
PSEUDOMAP [ 2 0 ] (1971) – C. Nolan e J. Morris, Improvement of tactual symbols for blind children
TRE.2 | 2 - Percezione tattile e lineare
147
PRINCIPI PER LA COSTRUZIONE DI PATTERN [ 2 1 ] TRIDIMENSIONALI PER LA PERCEZIONE APTICA (2017) – Marco Piscopo
CAP. TRE | Uno strumento in più, la percezione aptica
148
Da qui il tentativo di ottenere una maggior grado di ruvidezza per implementare il feedback aptico, attraverso la combinazione di diversi fattori (Lederman e K l a t z k y, 2 0 0 9 , 2 0 1 0 ) : - spazialità, il gap presente tra i diversi elementi costituenti la texture; la sensazione di ruvidezza è determinata maggiormente da cambiamenti nella larghezza delle parti piatte (grooves) rispetto a quelle in rilievo (ridges); fino ad un massimo di 3,5 mm di distanza tra gli elementi, la ruvidezza sembrerebbe aumentare uniformemente col crescere della spaziatura; - altezza, dei singoli elementi costituenti la texture; sin da 1 micron (0,001 mm) è possibile distinguere al tatto una superficie liscia da una texturizzata; la variazione di altezza tra elementi crea un’elevata ruvidezza. Una condizione base affinché si verifichi la percezione della texture è legata al movimento delle dita sulle superficie, in quanto il semplice contatto non basterebbe a percepirne le differenze – come già riscontrato nelle procedure esplorative mostrate ad inizio capitolo (Lederman, 1987).
Basilare nella percezione è il movimento della mano sulla texture. Inoltre l’uso di più principi è fortemente consigliabile per ottenere quella ridondanza in grado di aumentare la percezione aptica. Pare invece che non siano fattori discriminanti nella percezione aptica: - la dimensione e l’orientamento degli
[21]
TRE.2 | 2 - Percezione tattile e lineare
elementi (sugli assi x,y); - l’inclinazione (sull’asse z); - la densità o frequenza degli elementi. Queste considerazioni sono basate sugli di Nolan e Morris, Lederman e Klatzky, nonchè su altre prove sperimentali (vedi M. Grunwald, Human Haptic Perception, 2008, “Haptic banknote design”, p. 541-546). 149
3.2 | 3
Il braille è indubbiamente il più famoso linguaggio per non vedenti conosciuto al mondo. Questa piccola sezione non vuole essere un approfondimento storicotecnico su di esso, bensì vuole evidenziare come, date le sue caratteristiche peculiari, esso rappresenti una sorta di texture evoluta con cui veicolare informazioni complesse, a cui potersi rifare. Nella sua funzione informativa, il braille si configura come un linguaggio conosciuto da pochi, costituito da un alfabeto composto con misure precise e realizzato mediante un pattern grafico ripetuto (una matrice di punti 2x3). Nella sua funzione figurativa, esso rappresenta una texture riconoscibile da tutti, data la sua diffusione storico-geografica, ma non decodificabile. Questo suo doppio livello percettivo lo rende una metatexture – ampiamente semplice dal punto di vista grafico ma notevolmente complesso, per i normovedenti, da quello comunicativo. Se si veicolassero informazioni meno complesse, rendendo al contempo il modulo grafico più semplice da interpretare tattilmente per chiunque, potrebbe nascere una nuova forma di linguaggio adatto anche a tutti coloro che non hanno problemi di vista.
CAP. TRE | Uno strumento in più, la percezione aptica
150
TACTILE GRAPHICS STARTER KIT (1994) – American printing house for the blind
TRE.2 | 3 - Una metatexture, il braille
151
L’INTERAZIONE APTICA – Casi Studio
3.3
La potenzialità texturale risiede nel suo essere un elemento di rottura, in qualche maniera di per sé portatore di informazione - ad esempio indicante una parte con maggiore grip o di maggior pregio - ma anche di rumore in grado di turbare le rigide maglie costruttive. Per dirla con le parole di Gillo Dorfles (1964): “Ora, è proprio codesto rumore che accompagna il messaggio rigidamente organizzato della trama o del reticolo, a costituire l’elemento più altamente informativo (perché inatteso e impreveduto); sicché, potremo affermare che -paradossalmentein questi oggetti plastici è il rumore a determinare l’accrescimento dell’elemento informativo e quindi ad accrescerne altresì il valore estetico. Interferenza, dunque, di ordine e disordine, di programmazione e di randomità: questi gli elementi costitutivi che -in queste strutturazioni basate sull’indagine tissuraledeterminano il sorgere d’un fattore estetico, e quindi - i n p a r o l e p i ù p o v e r e - d ’ u n a ‘ p i a c e v o l e z z a ’ f r u i t i v a ” [22]. Le texture appena esaminate trovano applicazione in alcuni dei progetti esposti come casi studio. In questi si cerca di sfruttare la possibilità di usarle come potenziamento estetico, ma soprattutto come abilitatrici di interazioni con gli oggetti stessi.
Le parole si riferiscono ai lavori in metacrilato di Ugo La Pietra, designer e artista che ha cercato di introdurre questo rumore nell’arte programmata attraverso il suo famosissimo effetto randomico. Da Ugo La Pietra, Globo tissurato: il metacrilato nell'arte e nell'arte applicata, Firenze: Alinea, 2007, p. 6 [22]
STRUTTURAZIONI BLOCCO DI METACRILATO (1966) – Ugo La Pietra
TRE.3 | Casi studio
153
CASI STUDIO
1
MANDO 2006 – BTicino
2
TANGIBLE TEXTURAL INTERFACES 2012 – Eunhee Jo
3
HIBOU 2013 – Celia Torvisco, Raphaël Pluvinage
4
CILLLIA 2016 – Tangible Media Group
1
MANDO 2006 – BTicino
Mando è un telecomando domotico multifunzione, una chiave elettronica e un portachiavi, progettato
da Avril
Accolla per BTicino. Cerca di soddisfare un’utenza con esigenze altamente diversificate.
Fonte: Accolla A. (2009), Design for All. Il progetto per l’individuo reale
scopo gestire funzione domotiche (controllo luci, audio, clima) e di sicurezza (come chiave elettronica)
s tato
m at e r i a l i
fuori produzione
polimeri
performance possibilità di associare ad ogni tasto una funzione
i n t e r fa c c i a
plus
Ta n g i b i l e / M e c c a n i c a
Minimo
l’interfaccia semplificata
apprendimento
è costituita da 4 pulsanti
Avril Accolla
e presenta diversi
ha progettato
codici identificativi:
per la BTicino
contrasto tattile (rilievo/
un telecomando
avvallamento), contrasto
che seguisse i
visivo (tono/saturazione)
dettami del Design
interazione premendo i pulsanti presenti nella parte frontale o avvicinando il retro leggermente concavo, in cui vi è la presenza della c h i a v e t r a s p o n d e r, a l l a serratura elettronica
for All, creando un’interfaccia con tanti gradi di libertà ma intuitivamente usabile, attraverso un’interazione tattile (simboli in rilievo, superfici concave) e visiva (colori in contrasto) semplificata
1
MANDO 2006 – BTicino
I pulsanti presentano diverse possibilità di lettura/ decodifica: si può leggere un numero od una figura od un concetto. E’ inoltre possibile compiere diverse associazioni: verticalmente/in crescendo, orizzontalmente/ figura-non-figura, diagonalmente/pari-dispari
2
TANGIBLE TEXTURAL INTERFACES 2012 – Eunhee Jo
I l Ta n g i b l e Te x t u r a l I n t e r f a c e ( T T I ) è u n s i s t e m a a u d i o che incorpora una superficie tattile. Quest’ultima è caratterizzata dal tessuto che riveste l’oggeto e viene deformato attraverso l’interazione dell’utente.
Fonte: www. eunheejo.com/new-tangible-interfaces
scopo integrazione di superfici tattili in oggetti o ambienti
s tato
m at e r i a l i
prototipo
tessuto elasticizzato
performance il dispositivo possiede 4 funzioni principali: avanti, indietro, controllo del volume ed equalizzatore
i n t e r fa c c i a
plus
Ta n g i b i l e / D i g i t a l e
Materiali sinestetici
la rappresentazione delle
l’introduzione di
funzioni avviene tramite
un materiale (il
icone luminose; quando
tessuto) per certi
non attive, l’interfaccia è
versi estraneo
nascosta dal tessuto che la
all’area semantica
ricopre
dell’interazione,
interazione è possibile deformare il tessuto premendo in prossimità dell’icona luminosa corrispondente alla funzione che si vuole attivare; in alternativa si può scorrere la mano sul tessuto
consente performance sconosciute in questo contesto (elasticità, deformazione); inoltre permete di integrare/nascondere l’interfaccia del dispositivo all’interno dell’oggetto stesso
2
TANGIBLE TEXTURAL INTERFACES 2012 – Eunhee Jo
Scorrendo le dita sul tessuto è possibile controllare le seguenti funzioni: traccia (backward, da destra a sinistra; forward, da sinistra a desta), volume (turn up, dal basso verso l’alto; turn down, dall’alto verso il basso), equalizzatore (movimento circolare sino alla lettera corrispondente al genere di equalizzazione desiderata)
3
HIBOU 2013 – Celia Torvisco, Raphaël Pluvinage
Hibou è una radio che nasce dalla collaborazione tra un ingegnere elettronico ed un doratore. Quest’ultimo ha infatti provveduto a dipingere sul corpo in ceramica una vernice (al palladio) conduttiva, così da trasformare i motivi ornamentali nell’interfaccia stessa del dispositivo.
Fonte: www.designboom.com/design/hibou-gilded-ceramic-radio
scopo implementazione di pattern ornamentali per scopi funzionali (controllo e comando)
s tato
m at e r i a l i
prototipo
ceramica, palladio
performance il dipositivo possiede 3 funzioni principali: accensione/ spegnimento, gestione di canali radio e controllo volume
i n t e r fa c c i a
plus
Ta n g i b i l e / D i g i t a l e
Estetica interattiva
la gestione delle funzioni
creare motivi estetici
avviene tramite pattern
rendendoli funzionali
in palladio stampati sulla
alle perfomance
superficie in ceramica
del dispositivo.
dell’oggetto
L’ i n t e r f a c c i a v i s i b i l e
interazione è possibile usare la radio premendo o scorrendo le dita direttamente sui motivi incisisi sul corpo in ceramica
e in sintonia con l’oggetto, è data dai pattern comunemente usati in ambito grafico, divenuti ora tangibili e textures del dispositivo
3
HIBOU 2013 – Celia Torvisco, Raphaël Pluvinage
Tramite le texture è possibile controllare le seguenti funzioni: accensione/spegnimento (turn on/off, premendo il cilindro posto al centro in alto), canali (push, premendo su ogni “triangolo” si cambia canale), volume (turn up/down, scorrendo dall’alto basso verso il basso e viceversa sul pattern zigrinato, si imposta il volume)
4
CILLLIA 2016 – Tangible Media Group
Nato come sperimentazione della stampa 3D su microscala (50 micron), il progetto Cilllia consente di progettare e fabbricare texture super sottili, una sorta di peluria, su superfici piane o curve. Queste texture presentano numerose proprietĂ , tra cui la possibilitĂ di divenire degli attuatori passivi e sensoti tattili, in grado di rilevare le vibrazioni in seguito a sfregamento (ad es. con le dita).
Fonte: Ou J. et al. (2016), Cilllia - 3D Printing Micro-Pillar Structures for Surface Texture, Actuation and Sensing
scopo sperimentare la possibilità di progettare e fabbricare hairstructures programmabili per abilitare nuove funzionalità
s tato
m at e r i a l i
prototipo sperimentale
resina polimerica
performance qualsiasi operazione codificabile e programmabile
i n t e r fa c c i a
plus
Ta n g i b i l e / D i g i t a l e
Interfaccia
La gestione delle funzioni
programmabile e
avviene tramite:
stampabile
- la disposizione dei
grazie a dei pattern
“peli-strutture” (altezza,
d’interazione, è
larghezza, inclinazione del
possibile progettare
singolo pelo, densità della
a priori la texture
peluria)
di un oggetto
- direzione e velocità di
così che questa
swiping (es. strofinio di un
sia l’interfaccia
dito)
di comando del
- la frequenza delle
dispositivo.
vibrazioni prodotte dallo
Inoltre, i feedback,
swiping
primariamente
interazione E’ possibile gestire diverse operazioni tramite la sola interazione di swiping
di natura aptica, possono essere combinati con suoni che ne amplifichino la percezione
4
CILLLIA 2016 – Tangible Media Group
Swipe gesture: scorrendo un dito sulla superficie pelosa e flettendo le strutture (peli) si origina una vibrazione (variabile a seconda dell’orientamento delle micro-strutture, della direzione e della velocità del gesto). Quindi orientamenti differenti o direzioni di scorrimento opposte, consentono la codifica di operazioni diverse
CONSIDERAZIONI – La nuova grammatica dell’interazione aptica
3.4
Il progetto Cilllia è importante per comprendere le potenzialità insite nello sviluppo di interfacce basate su proprietà dei materiali e interazioni aptiche. A questo proposito è interessante osservare come d a g l i s t u d i [23] c o n d o t t i d a C h r i s H a r r i s o n e S c o t t Hudson (2008), emerga la possibilità sfruttare le texture naturali di qualsiasi materiale per creare una superficie di comando tramite la frizione con le dita. Infatti, grazie ad appositi sensori sonori, è possibile percepire il suono (impercettibile alle orecchie umane) prodotto dallo sfregamento delle dita su una superficie e codificarlo in un comando per gestire un qualsiasi dispositivo connesso. Ciò presenta il grande vantaggio di: - sfruttare le superfici di cui sono naturalmente dotati gli oggetti; - codificare diversi pattern gestuali così da poter svolgere diverse operazioni; - poter progettare a monte delle texture che sfruttino questa proprietà. Inoltre, sempre da questo studio, è emerso come lo spettro delle frequenze emesse dalla frizione delle dita su una superficie, essendo molto alto (oltre i 3000Hz), sia facilmente separabile da tipici rumori ambientali,
Harrison, C., & Hudson, S. E. (2008). Scratch input: creating large, inexpensive, unpowered and mobile finger input surfaces. Proceedings of the 21st annual ACM symposium on User interface software and technology (p. 205-208). New York: UIST ‘08. [23]
TRE.4 | Considerazioni – La nuova grammatica dell’interazione aptica
173
in casa o in ufficio, ad esempio la voce di una conversazione (90-300Hz) o di un canto (80-1200Hz) e le tipiche vibrazioni meccaniche, di frigoriferi o lavastoviglie, (50-60Hz). In aggiunta, la propagazione del suono attraverso i solidi è molto più efficiente che attraverso l’aria, così da ottenere un’ulteriore riduzione del rumore di fondo ed un suono in grado di arrivare più lontano. I grafici mostrano alcuni dei risultati ottenuti da questo studio, in merito all’ideazione di nuovi pattern d’interazione. Se da un lato questi si dimostrano altamente affidabili e facilmente comprensibili, dall’altro è emerso anche un loro limite. Infatti, diversamente da altre interazioni (tendenzialmente bi/tridimensionli), queste presentano caratteristiche di monodimensionalità; affinché quindi risultino acusticamente uniche non è possibile utilizzare set di comandi visivamente differenti (ad es. gestualità che t r a c c i n o s e g n i c o m e M / W, V / L , X / T ) m a a c u s t i c a m e n t e identici.
Nella pagina accanto: figura 2 - rapporto tra velocità di movimento nell’eseguire un gesto/ figura (linea, cerchio, triangolo, quadrato) su una superficie e suono prodotto (ampiezza). All’aumentare della velocità corrisponde ampiezza (volume) e frequenza del suono maggiore; figura 3 - esempio di set [24]
CAP. TRE | Uno strumento in più, la percezione aptica
di possibili interazioni codificabili; figura 4 - il grafico mostra come all’aumentare della complessità dei gesti diminuisca la precisione di riconoscimento da parte dei sensori.
174
GESTURE RECOGNITION [ 2 4 ] (2008) – Harrison C. e Hudson S., Scratch input: creating large, inexpensive, unpowered and mobile finger input surfaces
Figure 2. Amplitude profiles for different gestures
Figure 3. Distinct multi-part gestures composed of taps, lines and circles
Figure 4. Average accuracy for the six test gestures
TRE.4 | Considerazioni – La nuova grammatica dell’interazione aptica
175
per informazioni sulla parte di progetto della tesi non consultabile scrivetemi a marcopiscopo@live.it
GLOSSARIO
Breakdown tecnologici, p.21 Benyon, D. (2012), Progettare l'interazione: metodi e tecniche per il design di media interattivi, cap. 3 - Usabilità, p. 47
– Quando si usa un martello, si guida o si scrive a mano con una penna, di solito ci si concentra sull'attività stessa: si sta martellando, si sta guidando, si sta scrivendo. Soltanto quando qualcosa interferisce con il corretto funzionamento di queste tecnologie si diventa consapevoli della tecnologia stessa. Se ci si colpisce il dito con il martello, se si sterza per evitare una buca in mezzo alla strada o se la penna non funziona, allora l'uso non consapevole della tecnologia si trasforma in un'interazione consapevole con essa. Winograd e Flores (1986) denominano questi fenomeni “breakdown”, interruzioni. Uno degli obiettivi del design di sistemi interattivi è quello di evitare questi breakdown, di fornire alle persone il modo di fare ciò che desiderano senza essere realmente consapevoli delle tecnologie che consentono loro di svolgere queste attività. – Euristiche, metodologie, p.101 Vocabolario della Lingua Italiana Treccani, www.treccani.it
– [der. del gr. εὑρίσκω «trovare, scoprire»] - Nel linguaggio scientifico, detto di ipotesi che viene assunta precipuamente come idea direttrice nella ricerca dei fatti, e del metodo stesso di ricerca così condotta: mezzo euristico, in senso lato, mezzo di ricerca. In particolare, in matematica, procedimento euristico, qualsiasi procedimento non rigoroso (a carattere approssimativo, intuitivo, analogico, ecc.) che consente di prevedere o rendere plausibile un risultato, il quale in un secondo tempo dovrà essere controllato e convalidato per via rigorosa. – GUI - Graphical User Interface, p.23 Hiroshi Ishii, in Moggridge, B. (2007), Designing Interactions, cap. 8 - Multisensory and Multimedia, p. 527
– Questo diagramma [cfr. cap. 3 - 3.1, p. 125] illustra l'interfaccia utente grafica che è stata originata per la famosa workstation Xerox Star nei primi anni ottanta. L'interfaccia utente grafica fornisce una varietà di componenti, come le finestre, menu o le icone, ma rappresenta questi componenti come pixel immateriali. Il mezzo di base è la rappresentazione dei pixel sullo schermo del computer: questo è intangibile. Per controllare queste rappresentazioni, l'interfaccia utente grafica fornisce telecomandi generici, come un mouse o una tastiera. Una delle caratteristiche principali dell'interfaccia utente grafica è la separazione delle rappresentazioni immateriali dai telecomandi general purpose, che consente flessibilità e malleabilità. –
242
Interaction design, what is, p.23 Gillian Crampton Smith, in Moggridge, B. (2007), Designing Interactions, Foreward, Interview of January 30, 2002, p. xi
– Se dovessi riassumere l'interaction design in una frase, direi che si tratta di plasmare la nostra vita di tutti i giorni attraverso gli artefatti digitali - per il lavoro, per il gioco e per l'intrattenimento. Quando andiamo a comprare qualcosa per la nostra casa, non ci limitiamo a comprare un tostapane perché tosterà cose per noi. Noi compriamo anche a causa di come ci sembra e per ciò che dice di noi. Con un oggetto elettromeccanico, come una radio, per esempio, si ha una miscela di cose fisico-meccaniche e cose elettroniche. Ma con le cose del computer, non c'è quella connessione necessaria tra le cose fisiche e cose virtuali - le cose sullo schermo. Così si può effettivamente progettarle; in modo che ciò che vediamo sullo schermo può essere completamente diverso da quello che sta succedendo all'interno del computer. […] – IoT - Internet of Things, p.52 www.technopedia.com
– L'Internet delle cose è un concetto difficile da definire con precisione. In realtà, ci sono molti gruppi differenti che hanno definito il termine, anche se il suo uso iniziale è stato attribuito a Kevin Ashton, esperto di innovazione digitale. Ogni definizione condivide l'idea che la prima versione di Internet era basata su dati creati da persone, mentre la versione successiva è su dati creati da cose. Nel 1999, Ashton l'ha spiegato meglio in questa citazione tratta da un articolo del RFID Journal: "Se avessimo dei computer che sapessero tutto ciò che ci sia da sapere sulle cose - utilizzando dati raccolti senza alcun nostro aiuto - saremmo in grado di monitorare e calcolare tutto, e ridurre notevolmente sprechi, perdite e costi. Sapremmo quando le cose necessitano di sostituzione, riparazione o richiamo, e se siano nuove o ormai obsolete". La maggior parte di noi pensa di essere collegata in termini di computer, tablet e smartphone. L'IoT descrive un mondo in cui qualsiasi cosa può essere collegata e comunicare in modo intelligente. In altre parole, con l'Internet delle cose, il mondo fisico sta diventando un unico grande sistema informativo. –
GLOSSARIO
243
Legge di Moore, p.42 Riccò, B. (2008), Enciclopedia della Scienza e della Tecnica Treccani, www.treccani.it
– Legge empirica che descrive lo sviluppo della microelettronica, a partire dall’inizio degli anni Settanta, con una progressione sostanzialmente esponenziale, perciò straordinaria; la legge fu enunciata per la prima volta nel 1965 da Gordon Moore, uno dei fondatori di INTEL e dei pionieri della microelettronica, che la ribadì pubblicamente nel 1974. Essa afferma che la complessità dei microcircuiti (per es., misurata dal numero di transistori per chip o per area unitaria) raddoppia periodicamente, con un periodo originalmente previsto in 12 mesi, allungato a 2 anni verso la fine degli anni Settanta e dall’inizio degli anni Ottanta assestatosi sui 18 mesi. […] Questa legge non riguarda soltanto la densità di transistori, essenzialmente dovuta alla riduzione delle loro dimensioni, ma prevede miglioramenti esponenziali di tutte le principali caratteristiche dei microcircuiti: in particolare aumentano la velocità e l’affidabilità dei gate logici, mentre ne diminuisce il costo unitario. Benché assolutamente empirica, la legge di Moore è stata seguita quasi con la precisione di un fenomeno naturale […]. – Sinestesia, p.115 Vocabolario della Lingua Italiana Treccani, www.treccani.it
– Nel linguaggio della stilistica e della semantica, particolare tipo di metafora per cui si uniscono in stretto rapporto due parole che si riferiscono a sfere sensoriali diverse (per es., silenzio verde nel sonetto «Il bove» di Carducci, colore squillante, voce calda); quando l’accostamento non è occasionale ma tende a ripetersi (per varie contingenze storico-culturali e stilistiche) può determinarsi un mutamento semantico, può nascere cioè una nuova accezione della parola (per es., il lat. clarus, etimologicamente appartenente alla sfera sensoriale auditiva, è passato alla sfera visiva, e tale è il suo valore fondamentale nel latino classico e nelle lingue romanze, nelle quali, a partire dal linguaggio musicale, ha nuovamente assunto una accezione acustica, come in suoni chiari, voce chiara). – Transmediale, p.88 Lessico del XXI Secolo, www.treccani.it
– Prodotto, storia, contenuto, servizio capace di viaggiare tra più piattaforme distributive e di incarnarsi su media differenti secondo le regole della convergenza. Il suo significato è dunque simile a quello di crossmediale, ma con una sfumatura diversa qualora usato facendo riferimento alla definizione transmedia storytelling di Henry Jenkis: si sottolinea infatti la capacità del prodotto, storia, contenuto, servizio di aggiungere brandelli di senso e narrazione a ogni sua incarnazione sulle diverse piattaforme. –
244
RACCOLTA BIBLIOGRAFICA
Abruzzese, A. (2003). Lessico della comunicazione. (V. Giordano, A cura di) Roma: Meltemi. Accolla, A. (2009). Design for all. Il progetto per l'individuo reale. Milano: Angeli. Anceschi, G. (1993). Il progetto delle interfacce: oggetti colloquiali e protesi virtuali. (G. Anceschi, A cura di) Milano: Domus Academy. Benyon, D. (2012). Progettare l'interazione: metodi e tecniche per il design di media interattivi (XII ed.). (G. Riva, A cura di) Torino: Pearson. Calabi, D. (2003). Texture design: un percorso basic. Ricerche ed applicazioni di Visual design. Milano: Libreria CLUP. Cosenza, G. (2009). Semiotica dei nuovi media. In I. d. Treccani, & T. Gregory (A cura di), XXI Secolo. Comunicare e Rappresentare (p. 225-231). Roma: Istituto dell'Enciclopedia Treccani. Diamanti, S. (2013). L'interazione in pratica. Milano: Angeli. Gibson, J. J. (1962). Observations on active touch. Psychological Review, Vol. 69(No. 6), p. 477-491. Grunwald, M. (2008). Human Haptic Perception: Basics and Applications (IX ed.). Basilea: Birkhäuser. Hara, K. (2007). Designing Design. Baden: L. Muller. Harrison, C., & Hudson, S. E. (2008). Scratch input: creating large, inexpensive, unpowered and mobile finger input surfaces. Proceedings of the 21st annual ACM symposium on User interface software and technology (p. 205-208). New York: UIST '08. Japan Creation Executive Committee. (2007). Senseware: Tokyo Fiber '07. (K. Hara, A cura di) Tokyo: Asahi Shimbun. Kanizsa, G. (1980). Grammatica del vedere: saggi su percezione e gestalt. Bologna: Il mulino. Klatzky, R. L., & Lederman, S. J. (2010). Multisensory Texture Perception. In M. J. Naumer, & J. Kaiser, Multisensory Object Perception in the Primate Brain (p. 211-230). New York: Springer. La Pietra, U. (2007). Globo Tissurato: il metacrilato nell'arte e nell'arte applicata. Firenze: Alinea.
246
Lederman, S. J. (1982). The perception of texture by touch. In W. Schiff, & E. Foulke, Tactual perception: A sourcebook (p. 130-167). New York: Cambridge University Press. Lederman, S. J., & Kinch, D. H. (1979). Texture in tactual maps and graphics for the visually handicapped. Journal of Visual Impairment & Blindness, 73(6), 217-227. Lederman, S. J., & Klatzky, R. L. (1987). Hand Movements: A Window Into Haptic Object Recognition. Cognitive Psychology(19), 342-368. Lederman, S. J., & Klatzky, R. L. (2009). Haptic perception: A tutorial. Attention, Perception, & Psychophysics, 71(7), 1439-1459. Leroi-Gourhan, A. (1977). La memoria e i ritmi. In A. Leroi-Gourhan, Il gesto e la parola (XII ed., p. 258-482). Torino: Einaudi. Mac Lean, K. E. (2008). Haptic Interaction Design for Everyday Interfaces. Reviews of Human Factors and Ergonomics, Vol. 4(No. 1), 149- 194. Maeda, J. (2006). Le leggi della semplicitĂ . Milano: B. Mondadori. Moggridge, B. (2007). Designing Interactions (XXIV ed.). Cambridge (Mass.), London: The MIT Press Munari, B. (2004). I laboratori tattili. Mantova: Corraini (Prima ed. 1985). Nolan, C. Y., & Morris, J. E. (1971). Improvement of tactual symbols for blind children. Dept. of Health, Education and Welfare. Louisville: American Printing House for the Blind, Inc. Norman, D. A. (2014). La caffettiera del masochista: il design degli oggetti quotidiani. Firenze, Milano: Giunti (Prima ed. 1988). Ou, J., Dublon,
G., Cheng, C.-Y., Heibeck, F., Willis, K., & Ishii, H. (2016). Cilllia - 3D Printing Micro-Pillar Structures for Surface Texture, Actuation and Sensing. Proceedings of the SIGCHI Conference on Human Factors in Computing Systems (p. 5753-5764). Santa Clara: CHI '16.
Poupyrev, I., Gong, N.-W., Fukuhara, S., Karagozler, E., Schwesig, C., & Robinson, K. (2016). Project Jacquard: Interactive Digital Textiles at Scale. Proceedings of the SIGCHI Conference on Human Factors in Computing Systems (p. 4216-4227). Santa Clara: CHI '16. RACCOLTA BIBLIOGRAFICA
247
Shneiderman, B., & Plaisant, C. (2005). Principles, Guidelines and Theories. In B. Shneiderman, & C. Plaisant, Designing the user interface: strategies for effective human-computer interaction (4 ed., p. 74- 75). Boston: Addison Wesley. Skedung, L., Arvidsson, M., Chung, J., Stafford, C. M., Berglund, B., & Rutland, M. W. (2013). Feeling Small: Exploring the Tactile Perception Limits. Scientific Reports, 3(2617). Tratto da www.nature.com: http://www.nature.com Sonneveld, M. H., & Schifferstein, H. (2008). The tactual experience of objects. In H. N. Schifferstein, & P. Hekkert, Product Experience (p. 41- 67). Elsevier. Wobbrock, J. O., Ringel Morris, M., & Wilson, A. (2009). User-Defined Gestures for Surface Computing. in Proceedings of the SIGCHI Conference on Human Factors in Computing Systems (p. 1083- 1092). Boston: CHI '09.
248
RACCOLTA SITOGRAFICA
ARTICOLI Argodesign Studio. (2017, Gennaio 12). Design Through the Looking Glass: Reflections on the Future of Technology in 2017. Tratto il giorno Aprile 7, 2017 da Prototypr: https://blog.prototypr.io/design- through-the-looking-glass-reflections-on-the-future-of- technology-in-2017-39bad2547f0b Bell, K. (2016, Maggio 20). Google is bringing its futuristic gesture-sensing radar to actual products. Tratto il giorno Aprile 7, 2017 da Mashable: http://mashable.com/2016/05/20/google-project-soli- products/ Brownlee, J. (2016, Aprile 4). Conversational Interfaces, Explained. Tratto il giorno Aprile 7, 2017 da Fast Company: https://www. fastcodesign.com/3058546/conversational-interfaces- explained Carroll, J. M. (s.d.). Human Computer Interaction - brief intro. Tratto il giorno Aprile 7, 2017 da The Interaction Design Foundation: https:// www.interaction-design.org/literature/book/the-encyclopedia- of-human-computer-interaction-2nd-ed/human-computer- interaction-brief-intro Cook, A., Jarvis, J., & Lee, J. (2015, Settembre 1). Evolving the Google Identity. Tratto il giorno Aprile 7, 2017 da Google Design: https://design. google.com/articles/evolving-the-google-identity/ Dourish, P. (2001, Ottobre). Where The Action Is: The Foundations of Embodied Interaction. Tratto il giorno Aprile 7, 2017 da Dourish: http:// www.dourish.com/embodied/ Eng, K. (2017, Febbraio 9). A peek into the brave new world of programmable materials. Tratto il giorno Aprile 7, 2017 da TED: http://ideas.ted. com/a-peek-into-the-brave-new-world-of-programmable- materials/ Ericsson ConsumerLab. (s.d.). TV and Media 2016. Tratto il giorno Aprile 7, 2017 da Ericsson: https://www.ericsson.com/networked-society/ trends-and-insights/consumerlab/consumer-insights/reports/tv- and-media-2016#pageheader Evans, B. (2016, Marzo 29). Presentation: Mobile is eating the world. Tratto il giorno Aprile 7, 2017 da Benedict Evans: http://ben- evans.com/benedictevans/2016/3/29/presentation-mobile-ate- the-world Fasola, G. (2016, Dicembre 5). Sempre piĂš schermi e sempre piĂš video: passiamo 250
un anno e mezzo della nostra vita a decidere cosa guardare in tv. Tratto il giorno Aprile 7, 2017 da Corriere della Sera: http:// www.corriere.it/tecnologia/cyber-cultura/cards/sempre-piu- schermi-sempre-piu-video-passiamo-anno-mezzo-nostra-vita- decidere-cosa-guardare-tv/social-tv.shtml Giardina, G. (2016, Maggio 9). Reportage dalla Braun Collection, dove è nato il design che ha ispirato tutti (Apple compresa). Tratto il giorno Aprile 7, 2017 da Digital Day: http://www.dday.it/redazione/ 19876/reportage-dalla-braun-collection-dove-e-nato-il- design-che-ha-ispirato-tutti-apple-compresa Intercom. (2014, Agosto 18). The Dribbblisation of Design. Tratto il giorno Aprile 7, 2017 da Medium: https://medium.com/intercom-inside/the- dribbblisation-of-design-406422ccb026 Ion, F. (2013, Aprile 4). From touch displays to the Surface: A brief history of touchscreen technology. Tratto il giorno Aprile 7, 2017 da Arstechnica: https://arstechnica.com/ g adgets/2013/04/ from-touch-displays-to-the-surface-a-brief-history-of- touchscreen-technology/ Klement, A. (s.d.). Designing features using Job Stories. Tratto il giorno Aprile 7, 2017 da Intercom: https://blog.intercom.com/using-job-stories- design-features-ui-ux/ Material Design. (s.d.). Patterns - Gestures. Tratto il giorno Aprile 7, 2017 da Material Design: https://material.io/guidelines/patterns/gestures. html Nielsen, J. (1995, Gennaio 1). 10 Usability Heuristics for User Interface Design. Tratto il giorno Aprile 7, 2017 da Nielsen Norman Group: https:// www.nngroup.com/articles/ten-usability-heuristics/ Noe, R. (2013, Maggio 29). A History of Braun Design, Part 4: Kitchen Appliances. Tratto il giorno Aprile 7, 2017 da Core77: http:// www.core77.com/posts/24950/a-history-of-braun-design- part-4- kitchen-appliances-24950 Riccò, B. (2008). Legge di Moore. Tratto il giorno Aprile 7, 2017 da Treccani: http://www.treccani.it/enciclopedia/legge-di-moore_ (Enciclopedia-della-Scienza-e-della-Tecnica)/ Space10. (2016, Settembre 7). Conversational interfaces: The next big technological revolution? Tratto il giorno Aprile 7, 2017 da Medium: https://medium.com/conversational-interfaces/ RACCOLTA SITOGRAFICA
251
conversational-interfaces-the-next-big-technological- revolution-4efea1d97606 Technopedia. (s.d.). Internet of Things (IoT). Tratto il giorno Aprile 7, 2017 da Technopedia: https://www.techopedia.com/definition/28247/ internet-of-things-iot Tibbits, S. (2013, Febbraio). The emergence of "4D printing". Tratto il giorno Aprile 7, 2017 da TED: https://www.ted.com/talks/skylar_tibbits_the_ emergence_of_4d_printing Waldrop, M. M. (2016, Febbraio 9). The chips are down for Moore’s law. Tratto il giorno Aprile 7, 2017 da Nature: http://www.nature.com/news/ the-chips-are-down-for-moore-s-law-1.19338 Williams, O. (2016, Novembre 4). How design is being transformed by things we can’t see. Tratto il giorno Aprile 7, 2017 da Medium: https:// medium.com/conversational-interfaces/how-design-is-being- transformed-by-things-we-cant-see-b4bf278a45f6 IMMAGINI Colby WalkMac (The First Mac Laptop). (s.d.). Tratto il giorno Aprile 7, 2017 da Chuck Colby: http://chuckcolby.com/walkmac.html Company History. (s.d.). Tratto il giorno Aprile 7, 2017 da Frigidaire: http://www. frigidaire-intl.com/company-history Devices for Mindless Communication. (s.d.). Tratto il giorno Aprile 7, 2017 da Gerard Rallo: http://www.gerardrallo.net/ Egidio Bonfante, poster artwork for calculator Divisumma 18, 1973. (s.d.). Tratto il giorno Aprile 7, 2017 da Design is fine: http://www. design-is-fine.org/post/131813928809/egidio-bonfante- poster-artwork-for-calculator G-speak. (s.d.). Tratto il giorno Aprile 7, 2017 da Oblong: http://www.oblong. com/g-speak/ H Rice Cooker [TOSHIBA RC-10VWG]. (2013). Tratto il giorno Aprile 7, 2017 da Good Design Award: http://www.g-mark.org/ award/describe/39764?token=ZLaJGbY6lp Harmut Böhm. (n.d.). Tratto il giorno Aprile 7, 2017 da Harmut Böhm: http:// www.hartmut-boehm.de/index.html 252
Household Ads of the 1920s. (s.d.). Tratto il giorno Aprile 7, 2017 da Vintage Ad Browser: http://www.vintageadbrowser.com/household-ads- 1920s/38 Interactive Light. (s.d.). Tratto il giorno Aprile 7, 2017 da Argodesign: http://www. argodesign.com/work/interactive-light.html Knocki. (2017, Aprile 7). Tratto da Knocki: http://knocki.com/ Modello di motrice a vapore - Macchina di Watt. (s.d.). Tratto il giorno Aprile 7, 2017 da Museo Nazionale Scienza e Tecnologia Leonardo Da Vinci: http://www.museoscienza.org/dipartimenti/catalogo_ collezioni/scheda_oggetto.asp Nuimo. (s.d.). Tratto il giorno Aprile 7, 2017 da Senic: https://www.senic.com/en/ Nuimo: Seamless Smart Home Interface. (s.d.). Tratto il giorno Aprile 7, 2017 da Kickstarter: https://www.kickstarter.com/projects/802159142/ nuimo-seamless-smart-home-interface Project Jacquard. (s.d.). Tratto il giorno Aprile 7, 2017 da Atap: https://atap. google.com/jacquard/ Project Soli. (s.d.). Tratto il giorno Aprile 7, 2017 da Atap: https://atap.google. com/soli/ Research Projects. (s.d.). Tratto il giorno Aprile 7, 2017 da Self-Assembly Lab: http://www.selfassemblylab.net/research_projects.php xPrint. (2016). Tratto il giorno Aprile 7, 2017 da Tangible Media Group: http:// tangible.media.mit.edu/project/xprint/
RACCOLTA SITOGRAFICA
253
/////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////// Te s i d i l a u r e a m a g i s t r a l e / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / /////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////// /////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////// A c t i v e To u c h . S v i l u p p o d e l l ’ i n t e r a z i o n e a p t i c a a t t r a v e r s o l a p e r c e z i o n e t e x t u r a l e . / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / / Una grammatica di base per la progettazione.////////////////////////////////////////////////////////////////////////////////////////////////////////// /////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////// Politecnico di Milano Scuola del Design C.d.L.M. in Design del Prodotto per l’Innovazione/////////////////////////////////////////// Relatore: Prof. Stefano Maffei Laureando: Marco Piscopo - 833318 A.A. 2015/16//////////////////////////////////////////////////////// ///////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////