UNIVERSITA’ DEGLI STUDI DI SIENA Facoltà di Lettere e Filosofia Corso di Laurea in Scienze della Comunicazione Indirizzo Gestione delle Tecnologie per la Comunicazione
Confronto sperimentale fra le modalità sensoriali di un Head Up Display per un sistema di assistenza alla guida in condizioni di scarsa visibilità. Implicazioni teoriche e progettuali
Relatore: Chiar.mo Prof. Michele Mariani Correlatore: Chiar.mo Prof. Oronzo Parlangeli
Tesi di Laurea di: Mauro D’Alessandro
Anno Accademico 2004-2005
1
Indice Indice .......................................................................................................................... 2 Introduzione................................................................................................................. 4 Capitolo 1.................................................................................................................... 7 1. 2.
Cos’è un Head-Up Display? ............................................................................................7 Analisi del Driving Task ....................................................................................................9 2.1 La visione.................................................................................................................9 2.2 La guida come task gerarchico..............................................................................11 2.3 La guida come attività multitask.............................................................................12 2.4 Situation Awareness (SA) .......................................................................................13 3. Teorie dell’Attenzione.....................................................................................................16 4. Driver Distraction e Cognitive Capture ...........................................................................19 5. Tipi di attenzione: Queuing Theories vs. Parallel Allocation Models ...............................23 5.1 Multiple Resource Model .......................................................................................26 5.2 Limti del modello....................................................................................................29 6. Ricapitolando.................................................................................................................30
Capitolo 2...................................................................................................................33 1. 2. 3. 4.
Warning Design .............................................................................................................33 Che cos’è un Warning ...................................................................................................34 Percezione del rischio ....................................................................................................36 Human Factors Guidelines.............................................................................................38 4.1 Display ...................................................................................................................40 4.1.1 Tipo ............................................................................................................... 40 4.1.2 Posizione ....................................................................................................... 41 4.1.3 Grandezza ..................................................................................................... 42 4.2 Immagine...............................................................................................................42 4.2.1 Distanza......................................................................................................... 42 4.2.2 Colore............................................................................................................ 43 5. Multimodal Warnings .....................................................................................................44 5.1 Ridondanza ...........................................................................................................44 5.2 Visione ...................................................................................................................45 5.2.1 Simboli e icone .............................................................................................. 45 5.2.2 Animazioni ..................................................................................................... 47 5.2.3 Guidelines ...................................................................................................... 47 5.3 Udito......................................................................................................................48 5.3.1 Guidelines ...................................................................................................... 50 5.4 L’effetto cross modality..........................................................................................50 5.4.1 Visione vs Udito ............................................................................................. 52 5.4.2 Guidelines ...................................................................................................... 52
2
Capitolo 3...................................................................................................................55 1. 2.
Obiettivi della ricerca......................................................................................................55 Scopo dell’esperimento .................................................................................................56 2.1 I quesiti di questa ricerca .......................................................................................57 3. Esperimento ..................................................................................................................58 3.1 Scenario ................................................................................................................58 3.1.1 Task 1............................................................................................................ 60 3.1.2 Task 2............................................................................................................ 60 3.2 Classificazione dei warning ....................................................................................61 3.3 Caratteristiche dei task e agganci teorici................................................................62 4. Metodo ..........................................................................................................................64 4.1 Partecipanti............................................................................................................64 4.1.1 Disegno Sperimentale.................................................................................... 66 4.1.2 Condizioni sperimentali .................................................................................. 66 4.1.3 Materiale usato .............................................................................................. 68 4.1.4 Descrizione dell’apparato sperimentale.......................................................... 71 4.2 Procedura..............................................................................................................71 4.2.1 Training.......................................................................................................... 72 4.2.2 Familiarizzazione col sistema e Practice Lap.................................................. 72 4.2.3 Esecuzione della prova .................................................................................. 73 4.2.4 Questionario .................................................................................................. 74 5. Variabili ..........................................................................................................................75 5.1 Dipendenti .............................................................................................................75 5.1.1 Task1............................................................................................................. 75 5.1.2 Task2............................................................................................................. 75 5.1.3 Misurazioni soggettive.................................................................................... 75 5.2 Indipendenti ...........................................................................................................76 5.3 Misurazioni della performance................................................................................76 6. Ipotesi attesa .................................................................................................................77
Capitolo 4...................................................................................................................79 1.
Risultati ..........................................................................................................................79 1.1 Task 1....................................................................................................................79 1.1.1 Tempi di Reazione (TdR) ................................................................................ 80 1.1.2 Errori.............................................................................................................. 82 1.2 Task 2....................................................................................................................85 1.2.1 Tempi di Reazione su stimolo “auto”.............................................................. 86 1.2.2 Errori su stimolo “auto” .................................................................................. 88 1.2.3 Tempi di Reazione su stimolo “segnale stradale” ........................................... 90 1.2.4 Errori su stimolo “segnale stradale”................................................................ 92 2. Dati Soggettivi................................................................................................................94 2.1 Questionario e rating soggettivi..............................................................................94 2.2 Domande aperte....................................................................................................98 2.2.1 Interviste ...................................................................................................... 100 3. Discussioni e problemi aperti .......................................................................................104
Appendici .................................................................................................................108 Bibliografia................................................................................................................118 Riferimenti web .........................................................................................................121
3
Introduzione Il tema della sicurezza stradale è oggi uno dei domini di maggiore interesse per l’innovazione tecnologica. L’industria automobilistica negli ultimi vent’anni ha compiuto enormi progressi nella ricerca di sistemi che da un lato rendano più sicure le condizioni di guida con sistemi di supporto all’attività del guidatore (sistemi attivi di sicurezza), e dall’altro minimizzino il danno degli incidenti con l’introduzione di nuovi materiali di rinforzo per le autovetture, e l’ideazione di strumenti come l’airbag o le cinture di sicurezza (sistemi passivi di sicurezza). I dati relativi alle morti provocate da incidenti stradali, indicano che più del 65% dei morti su strada perde la vita durante le ore notturne, nonostante solo il 28% dei km annui di un automobilista venga percorsa durante la notte. Risulta chiaro come i fattori di scarsa visibilità concorrano in modo decisivo a determinare queste cifre drammatiche. Condizioni come la percezione della profondità, la nitidezza dei contrasti, la discriminazione dei colori e la visione periferica subiscono un notevole degrado nelle ore successive al tramonto, causando difficoltà soprattutto nelle categorie di guidatori più deboli per quato riguarda fattori psico-motori, quindi i guidatori anziani, e fattori di prontezza nelle reazioni ad eventi inattesi come i neo patentati. Questi pochi dati danno l’idea di come un intervento massiccio e mirato di tecnologie attive per il miglioramento delle condizioni stradali e dei sistemi di sicurezza on-board, sia necessario e auspicabile, come dimostrano le numerose attività di ricerca esistenti relative ai sistemi di supporto alla guida notturna che prendono il nome di NVES (Night Vision Enhancement System). Ciononostante, come numerosi studi confermano, l’introduzione di tecnologie digitali all’interno dell’abitacolo innesca problematiche che coinvolgono la capacità di display, spie e navigatori di distogliere l’attenzione di chi guida da ciò che è maggiormente importante: la strada. Il presente studio si pone l’obiettivo di dimostrare, con una serie di test utente consistenti in brevi simulazioni di guida, che la progettazione di un display di supporto alla guida 4
notturna, si debba adattare alla necessità dell’utente di mantenere l’attenzione focalizzata sui consueti compiti che la guida richiede, supportando la percezione, e mai spostandone l’oggetto. La tesi qui sostenuta e dunque la seguente: l’utilizzo di più canali sensoriali (nella fattispecie visione e udito), farà in modo che il sistema di informazioni si integri all’interno del flusso di percezione-azione, minimizzando deviazioni e degradi all’attenzione del guidatore. La progettazione di questo tipo di display, si è basata sul tentativo di confrontare diverse soluzioni di design e di testarne l’efficacia, rispetto ad alcune variabili ritenute fondamentali, in un esperimento di multiple tasking. Il percorso dell’elaborato si articolerà in questo modo.
Il primo capitolo esporrà le definizioni più importanti per la comprensione dell’intero frame di riferimento tecnico e applicativo. Sarà poi affrontata una
task analysis della guida, e quindi si cercherà di inquadrare i principali agganci teorici utilizzati per la strutturazione dell’esperimento, dalle principali teorie cognitiviste sull’attenzione, si focalizzerà lo sguardo sui modelli di riferimento più esplicitamente orientati alla descrizione di attività di processamento multiplo.
Il secondo capitolo si rivolgerà invece alla parte di design di sistemi di warning. Dopo una introduzione ad alcuni concetti di base e ad alcuni modelli teorici sul comportamento in situazioni di rischio, sarà proposto un percorso attraverso le linee guida di design che caratterizzano la progettazione di display informativi. In particolare si chiarirà il concetto di display multimodale e di multimodal warning, e si affronteranno le problematiche poste dall’uso di più canali percettivi in ambito di design.
Il terzo capitolo apre alla parte centrale della tesi. Inizia dunque la descrizione approfondita della preparazione e dell’implementazione dei test di simulazione al centro dello studio. Saranno descritti gli scenari d’uso presi 5
come riferimento, le strumentazioni e i materiali usati, e verranno richiamati gli agganci teorici e di design esposti nei precedenti due capitoli. Infine ci sarà la descrizione della struttura sperimentale usata e di tutta la parte relativa alla prova da eseguire, dal questionario pre-test, fino alle interviste finali.
Come conclusione, il quarto ed ultimo capitolo riguarderà i risultati dei test. I dati quantitativi, processati mediante t-test, saranno sistematizzati seguendo la classificazione dei task richiesti nella prova. Verranno selezionati e presentati i risultati maggiormente significativi sotto forma di tabelle e grafici. La sezione dedicata ai questionari e alla raccolta di dati soggettivi, verrà infine esposta con commenti e osservazioni utili sul gradimento e l’usabilità del sistema proposto.
6
Capitolo 1
1. Cos’è un Head-Up Display? L’Head-Up Display è uno strumento che fornisce simboli e immagini virtuali nel campo visivo di un conducente di veicoli aerei o terrestri. La funzione principale dell’Head-Up Display è quella di fornire informazioni riguardo la navigazione, la posizione del veicolo, e di possibili ostacoli nel campo visivo frontale (forward field of view – FFOV). La comune accezione del termine Head-Up Display si riferisce alla modalità di proiezione di informazioni simboliche su schermi semitrasparenti montati fra il pilota ed il parabrezza del velivolo in modo da sovrimporre la simbologia di alcune strumentazioni alle immagini reali dell ambiente visibile dal pilota. Questa soluzione favorisce la visulizzazione simultanea del campo visivo frontale (FFOV) e di alcuni elementi di informazione simbolica proveniente dalle strumentazioni interne, questo al fine di ridurre o annullare lo sforzo derivante dal continuo scanning visivo parabrezza-plancia di commando. HUDs vengono usati nel dominio dell’aviazione militare dai tempi della Seconda Guerra Mondiale. Già dal 1946 si inizia ad ipotizzarne l’uso finalizzato al trasporto aereo civile, ma è solo dai primi anni ’70 che il loro perfezionamento e adattamento a queste nuove esigenze permettono ai primi aerei civili (B727-class dell’Alaska Airlines) di esserne forniti .
In ambito automotive gli studi per l’applicazione di HUD sono recenti e rappresentano nella maggior parte dei casi ancora dei work in progress, sebbene di grande interesse. Va evidenziato il fatto che la progettazione automobilistica (Fig. 1.1a) si è orientata su un approccio più soft rispetto al concetto di HUD usato in aviazione (Fig 1.1b), in quanto nei primi studi sul campo si è notato come la
7
soluzione migliore fosse localizzare il display in una posizione decentrata abbastanza da non costituire una fonte di distrazione troppo intrusiva, ma al tempo stesso non troppo spostata rispetto al FFOV del conducente al fine di conservare I principali vantaggi dell’HUD, che riassumiamo: • permettere al conducente di mantenere lo sguardo sulla strada il più possible rispetto agli strumenti tradizionali posti nella plancia di commando, e ai display per la navigazione satellitare GPS che per il loro posizionamento vengono denominati Head-Down Display (HDD). In tal modo favorire un rilevamento migliore e più veloce di oggetti o eventi inattesi. • fornire immagini ad una distanza focale maggiore rispetto alle strumentazioni tradizionali al fine di ridurre lo sforzo da accomodamento ottico che ogni visual shift di per sè richiede (soprattutto relativamente ai conducenti d’auto più anziani) .
Fig. 1.1a
Fig. 1.1b
Head Up Display usati in ambito automotive (a) e in ambtio aerospaziale (b). Nel primo caso c’è la rappresentazione fedele della scena reale, spesso vengono usati display a scomparsa. Nel secondo caso si presentano informazioni sootoforma di dati e icone che si adattano alla grandezza e alla distanza degli oggetti e degli ostacoli.
8
2. Analisi del Driving Task Nei prossimi paragrafi si procederà alla task analysis della guida con un occhio di riguardo alle componenti percettive relative alle caratteristiche della guida notturna.
2.1 La visione Si definisce Campo Visivo (FOV) l’area percepita da un occhio non in movimento. Le normali condizioni di visione sono quelle in cuil’oggetto messo a fuoco è proiettato sulla fovea . La fovea è la parte più centrale e sensibile della retina.La fovea ha un diametro di 1.5 mm (5.2°) ed è composta a sua volta da un nucleo centrale: La foveola che ha un diametro di soli 0.3 mm (1°). La superficie della retina è formata da Fotoricettori: i Coni e i Bastoncelli. I primi sono specializzati nella distinzione dei colori e dei dettagli in condizioni di luminosità medio alta, mentre i secondi registrano oggetti in condizioni di luce scarsa. La superficie della fovea è composta da coni ma non da bastoncelli, per cui non è possibile, in condizioni di luce molto debole distinguere gli oggetti. Mentre la visione centrale ricopre un’area limitata attorno al punto osservato, la visione periferica corrisponde ad un raggio di circa 90° a partire dal bordo esterno della fovea. Perciò l’esattezza con cui possiamo definire ed identificare informazioni visive diminuisce in proporzione al suo spostamento verso l’esterno del FOV. Si noti come in compiti di guida gran parte delle informazioni visive provengano da un’area esterna dal FOV centrale (ad es. dagli specchietti retrovisori):
9
Il Functional FOV si definisce come quella parte del FOV in cui stimoli presentati fuori dal punto osservato possono essere distinti ed identificati con esattezza sufficiente; il Functional FOV corrisponde ad un area non più ampia di 5° a partire dal punto osservato. Durante la guida Il FOV funzionale svolge un ruolo fondamentale, infatti il 70–90% dei movimenti di fissazione oculare si
esegue all’interno di
quest’area. Una delle principali linee guida per la sicurezza della guida è di fornire tutte le informazioni rilevanti all’interno del FOV funzionale al fine di evitare spostamenti dello sguardo dalla strada per lunghi periodi di tempo. Questo tipo di comportamento porta ad esempio a dei ritardi nel rilevamento di decelerazioni delle automobili antecedenti (Lamble; Laakso; Summala1999 ). Durante la guida notturna, tuttavia ci sono delle problematiche
psico-
percettive molto importanti che si sommano. La ridotta visibilità notturna comporta un degrado significativo in abilità visive come la discriminazione dei contrasti, la percezione della profondità (percezione stereoscopica), la capacità di accomodamento retinico e i tempi di reazione visiva in generale. Statisticamente, infatti, il numero di incidenti notturni (riscontrati nelle ore successive al tramonto) è 3 o 4 volte superiore a quello degli incidenti che avvengono durante il giorno. La spiegazione di questo degrado sta nel fatto che durante la notte la percezione visiva è dominata dalla discriminazione di bordi a basso contrasto (scarsa luminosità), di conseguenza i fotoricettori maggiormente coinvolti in questa attività sono, come abbiamo visto, i bastoncelli. L’occhio umano però è abituato a rispondere molto più lentamente all’azione percettiva dei bastoncelli rispetto a quella dei coni, ed ecco che si presentano problemi per la visione dell’automobilista.
10
2.2 La guida come task gerarchico Come ogni tipo di azione volontaria, anche la guida di un’automobile è orientata a degli obiettivi (goal). Questi obiettivi sono raggiunti grazie alla determinazione di sotto-obiettivi soddisfatti dall’esecuzione con successo di particolari azioni. Goals di alto livello determineranno perciò la creazione di sub-goals di livello inferiore. Nella guida possiamo definire come obiettivo primario quello di arrivare ad una determinata destinazione col minor dispendio di risorse (quindi senza collisioni e nel minor tempo possibile). Ad esempio al fine di visitare un amico che si trova in campagna (goal principale), posso decidere di raggiungerlo in auto (1° sub-goal) anche se non conosco la strada esatta, a quel punto mi serve una mappa per visualizzare la via più breve e vantaggiosa (2° sub-goal); una volta determinato anche questo fattore le mie azioni proseguiranno in questa logica gerarchica di determinazione e raggiungimento di obiettivi, fino alla soddisfazione del goal principale. Un modello gerarchico presuppone che livelli di ordine inferiore siano controllati da obiettivi di ordine superiore. Nel nostro caso questo significa che decisioni strategiche
(che stabiliscono l’obiettivo o sotto-obiettivo da
raggiungere) come la selezione del tragitto da seguire, attivano e controllano comportamenti di livello tattico ( relativi al modo in cui raggiungere l’obiettivo). Un buon esempio è la decisione di attivare il sub-goal “esegui un sorpasso“, solo ed esclusivamente nel caso in cui la decisione è attiva verranno innescati i comportamenti ad essa associati (“guarda lo specchietto retrovisore”“accelera”- “muoviti verso sinistra”-…). Un’altra importante proprietà dei task gerarchici consiste nel fatto che decisioni di alto livello non influiscono in maniera deterministica sui comportamenti di livello inferiore ad esse associate, bensì si limitano a delinearne i requisiti necessari e sufficienti lasciando che le specifiche dei
11
livelli ancora inferiori avvengano in base ai requisiti ambientali (processo bottom-up).
2.3 La guida come attività multitask Guidare un’auto è un’attività che richiede l’esecuzione di più sub-tasks simultanei, su vari livelli, sia tattici che operazionali: controllo della velocità, mantenimento della corsia e della giusta traiettoria (lane keeping), gestione delle funzioni dell’auto (cambi di marcia, etc.), orientamento visivo, etc. Questi compiti vanno spesso eseguiti in parallelo, Aasman (1995) ha infatti proposto di considerare come sub-task specifico la coordinazione dei subtasks (multitasking). Quindi non solo il guidatore è chiamato alla gestione integrata fra sotto compiti dello stesso livello, ma alla loro coordinazione in un contesto dinamico che riesce a cambiare con enorme velocità. Un esempio classico è quello dell’approccio ad un incrocio, dove molti sub-task sono coinvolti contemporaneamente e vanno eseguiti in tempo breve coinvolgendo diverse capacità visive e motorie, ma anche e soprattutto il riconoscimento e l’interpretazione di scenari ambientali dinamici a cui adattare in tempo reale le proprie azioni. A riprova della complessità delle situazioni di guida citate infatti si è notato (e lo si nota nella vita di tutti i giorni) che i guidatori novizi approcciano agli incroci a velocità molto bassa e che inoltre spesso in situazioni molto complesse commettono errori in sub-tasks specifici a causa della poca abilità nella coordinazione del multitasking. In un contesto simile è fondamentale considerare la necessità di sviluppare un tipo di comportamento che sia in grado non solo di evitare errori, bensì di anticipare l’occorrenza di situazioni rischiose. Durante la guida l’uso degli organi sensoriali è gestito in gran parte dalle aspettative, la mente ricerca informazioni nell’ambiente da confrontare con le 12
aspettative formatesi con l’esperienza; gli errori nei compiti di guida sono perciò più spesso attribuibili ad aspettative errate piuttosto che a fattori sensoriali. Possiamo perciò affermare che la capacità di anticipazione e previsione sono ciò che distingue un guidatore esperto da uno inesperto. Un guidatore esperto infatti è capace di eseguire performance congiunte bilanciando azioni feedforward-driven (comportamento anticipatorio) e feedback-driven (comportamento compensatorio)(Hollnagel- 2001). Inoltre nel contesto di un’analisi del comportamento di guida c’è da sottolineare quanto sia fondamentale per l’acqiusizione di capacità anticipatorie, la possibilità di rilevare in tempo reale ogni tipo di informazione riguardo al contesto esterno e al veicolo, e la possibilità di aggiornare rapidamente il proprio modello mentale dello stato attuale del contesto. Quest’ultima capacità viene chiamata (nonostante le varie e diverse definizioni esistenti) Situation Awareness.
2.4 Situation Awareness (SA) La Situation Awareness (letteralmente: consapevolezza della situazione) coinvolge “la percezione, la selezione e la comprensione di informazioni, la
selezione di azioni, e la proiezione di informazioni nel futuro” (Endsley 1995). La definizione di Endsley, di stampo cognitivista, descrive SA come un concetto a tre livelli che coinvolgono elementi di percezione, comprensione e proiezione. Il primo livello è il risultato della percezione di elementi contestuali disgiunti, il secondo livello, descritto come un vero e proprio modello mentale, determina la comprensione della situazione corrente e dei suoi significati, il terzo livello consiste nell’abilità di predire gli stati futuri degli elementi del primo livello.
13
Approcci di orientamento ecologico hanno invece posto l’accento sulla nozione di corrispondenza per sottolineare che la consapevolezza dell’operatore deve adrire ai costrutti reali della situazione, ad esempio Flach (1995) scrive: ”SA definisce il problema della performance umana in termini di comprensione dei cambiamenti adattivi in atto fra operatore e ambiente” . L’idea di base è che la performance, e la cognizione in generale non procedono in isolamento dall’ambiente; in questa cornice teorica Adams, Tenney e Pew (1995) hanno usato il Ciclo Percettivo di Neisser (1976) per spiegare come un operatore raggiunge SA. Il Ciclo Percettivo di Neisser descrive l’interdipendenza di percezione, conoscenza e azione. Un individuo che compie una qualsiasi azione governata da uno scopo (nello schema Exploration), provoca dei cambiamenti nell’ambiente circostante, la percezione di questi cambiamenti lo informa circa l’efficacia delle sue azioni; queste infomazioni costituiscono il feed-back necessario all’individuo per arricchire la conoscenza relativa ad una situazione data (secondo Neisser questo processo è la base dell’apprendimento umano). Questo tipo di conoscenza ,rappresentata nella mente sotto forma di schemi, regola le decisioni circa le successive azioni da effettuare e il campionamento dell’informazione saliente che andrà ad arricchire gli schemi già immagazzinati o ne creerà di nuovi. In tal modo l’informazione coerente con uno schema posseduto sarà percepita e compresa più rapidamente e accuratamente, favorendo il manifestarsi di comportamenti di tipo anticipatorio. Gli schemi giocano perciò un ruolo fondamentale nel processo di raggiungimento di SA. A tal riguardo Endsley (1995) sostiene che gli schemi siano esempi prototipici di situazioni a cui il contesto attuale è confrontato, quando lavviene il matching fra situazione-task e schema vengono selezionate azioni appropriate con rapidità. In questo modo Adams, Tenney e Pew (1995) sostengono che gli schemi non solo dirigono l’azione (exploration), ma che
14
inoltre formino la base dichiarativa per l’acquisizione di skill e per il raggiungimento di task competence specifiche1. Il ciclo percezione-azione di Neisser (fig. 1.2) ci torna utile nell’analisi del driving task in quanto riesce a descrivere la situation awareness come un processo attivo che porta all’acquisizione di conoscenze e competenze fondamentali per l’aggiornamento dei task-goals da parte dell’operatore umano. In uno scenario del genere la tecnologia può riuscire a favorire l’apprendimento di nuove competenze e la messa in atto di comportamenti specifici (nel nostro caso coadiuvare la guida notturna grazie al miglioramento delle capacità di rilevamento di informazioni).
Fig.1.2 Il ciclo percettivo di Neisser
1
A tal riguardo gli autori si rifanno al modello cognitivo ACT-R (Anderson, 1993; Anderson &Lebière,1998)
15
3. Teorie dell’Attenzione La psicologia inizia ad interessarsi al concetto di attenzione come fondamento teorico a partire dagli anni ’50, infatti scuole come la Gestalt, gli Associazionisti, i Comportamentisti e i teorici della Psicoanalisi si erano fino ad allora interessati all’attenzione con definizioni deboli e scarso approfondimento. Fondamentale per la riabilitazione dell’attenzione nella comunità scientifica, fu l’opera di Broadbent (1958), che ne studiò i meccanismi selettivi responsabili della limitatezza della capacità di elaborazione. Questo approccio di orientamento strutturalista, prese il nome di Teoria del Filtro proprio perché prevedeva la presenza di una struttura nel processo di elaborazione
dell’informazione responsabile della selezione e che costituisce una strozzatura, l’imbuto oltre il quale non può passare tutta l’informazione (Bagnara 1984) . Semplificando, secondo Broadbent il sistema di elaborazione è funzionalmente diviso in due parti, la prima, periferica, ha il compito di registrare le informazioni in arrivo, la seconda, elaboratore centrale (nella terminologia di Broadbent,
P-system ), di processarle.
L’elaboratore centrale possiede capacità limitate ed è “protetto” da un filtro che:
• Svolge la sua funzione ad un livello periferico del sistema, prima cioè di ogni elaborazione sul messaggio. • Ne seleziona la quantità d’entrata in base alle loro caratteristiche sensoriali, fisiche e/o spaziali.
Questo modello fu prima attenuato da studiosi come Moray, Gray e Wedderrburn (1960), infine modificato dagli esperimenti di Anne Treisman (1960). Facendo aumentare il grado di somiglianza fra i due messaggi in arrivo al sogg. dell’esperimento, la Treisman dimostrò che la selezione può avvenire anche a livelli avanzati del processo di elaborazione, ad esempio sulla base 16
del significato delle parole. Questi esperimenti contribuirono ad una rilettura del concetto di filtro attenzionale come concetto più flessibile e sensibile a fattori semantici o di rilevanza interna al soggetto. Un filone teorico che si è discostato dalle assunzioni precedenti è stato quello delle Teorie di Capacità dell’Attenzione. In questo caso le risorse attenzionali sono concepite come una quantità di energia che viene impiegata a differenti livelli in base ai task. La proposta principale in questo ambito è quella di Daniel Kahneman (1973), la sua ipotesi è che l’esecuzione di qualsiasi compito richieda due condizioni necessarie:
• La disponibilità di informazioni rilevanti e specifiche. • La disponibilità di una sufficiente quantita di attenzione, sforzo o impegno (in questo caso questi termini sono sinonimi). Questo sforzo è completamente non-specifico, cioè varia al variare dei compiti solo quantitativamente e mai qualitativamente.
Secondo Kahneman il livello di attivazione di un organismo è strettamente connesso sia alla quantità di sforzo attentivo, sia alla qualità della prestazione nei termini in cui la capacità limitata del sistema di elaborazione delle informazioni è concepita come questa quantità di sforzo erogato dall’organismo. Gli studi sperimentali sono stati così focalizzati sulla misurazione della variazione quantitativa di attenzione al variare del livello di attivazione del soggetto2. Evidentemente il tipo di misurazione fisiologica adottato dagli sperimentatori ha assunto un ruolo di primo piano per il fatto che andava dimostrato come il livello di attivazione dei soggetti fosse dipendente dal
2
I ricercatori ottennero dei risultati soddisfacenti utilizzando la risposta pupillare in compiti a difficoltà variabile in cui veniva dimostrato come all’aumentare della complessità del task, la pupilla dei sogg. subiva una dilatazione rilevante. 17
compito e non da fattori esterni e/o soggettivi, e questo fu uno dei punti in cui la teoria di Kahneman subì le critiche più accanite. Questo approccio, come abbiamo visto, è portato ad una concezione molto flessibile delle capacità del sistema, che si discosta nettamente da una visione strutturale in cui una parte è assegnata al compito di filtro (come invece pensava Broadbent). Qui lo studio dell’attenzione è rivolto più ai processi che da essa sono condizionati, che dalla localizzazione di strutture e sottosttrutture. Come vedremo più avanti, un approccio più recente ma di simile natura è quello sviluppato da Wickens (1980, 1984, 1991), Klapp e Netick (1988), chiamato Multiple Resource Model
sviluppato per spiegare gli effetti di
alterazione strutturale e di time-sharing emergenti in alcuni tipi di compito, e che non possono essere spiegati in maniera soddisfacente con altri modelli teorici.
18
4. Driver Distraction e Cognitive Capture Ritornando al tema dell’attenzione durante la guida, va sottolineato come l’avvento di numerose tipologie di strumentazioni digitali ne abbia riportato in assoluto primo piano l’interesse applicativo. I dispositivi tecnologici on-board per il miglioramento delle condizioni di guida pongono però degli importanti interrogativi sul piano sia dell’efficacia e dell’usabilità, sia su quello della sicurezza. Va studiato cioè il potenziale vantaggio che strumenti telematici come un display per la vision enhancement, comportano, all’interno dei cambiamenti introdotti nel comportamento degli individui. Una delle controindicazioni più evidenti, testabile da ognuno nella consuetudine giornaliera, è proprio la distrazione provocata dalle strumentazioni elettroniche presenti a bordo dell’auto (dall’autoradio, al cellulare, fino ai più moderni display per la navigazione satellitare etc.). In ambito di guida, la distrazione è definita come “la mancanza di
riconoscimento dell’informazione necessaria all’esecuzione dei driving-tasks in modo sicuro, a causa di eventi, azioni, persone, oggetti dentro o fuori l’auto, che concorrono a deviare l’attenzione del conducente dale attività di guida” (Treat, 1980)3. La U.S. National Highway Traffic Safety Administration (NHTSA) in uno studio sul comportamento degli automobilisti americani ha distinto quattro tipi di distrazione:
• Visual Distraction: si presenta quando il conducente fissa il suo sguardo su elementi irrilevanti per la guida, quando lo sguardo è fissato su elementi che sono rilevanti ma non in quell momento (si verifica un mancato shift-attenzionale verso il target visivo maggiormente rilevante), oppure quando avviene il cosiddetto fenomeno “guardare ma non vedere”
3
American Automobile Association Foundation for Traffic Safety 19
in cui il conducente non riesce a riconoscere un pericolo in un elemento che si trova nel suo campo visivo. • Auditory Distraction: questo fenomeno si verifica quando la nostra attenzione è catturata da suoni o rumori non provenienti dal contesto stradale, ad esempio da una conversazione con un passeggero, dall’autoradio, o da dispositivi viva-voce per telefoni cellulari. • Biomechanical (Physical) Distraction: consiste in una mancanza o errore nelle consuete azioni necessarie alla guida sicura, si verifica quando si tangono le mani in posizione errata, si guida con una sola mano, o si tiene una posizione sbagliata e potenzialmente a rischio. • Cognitive Distraction: include tutti I processi mentali che assorbono l’attenzione del guidatore al punto di distoglierlo dall’interazione continua con l’ambiente circostante o di rallentarne i tempi di reazione. Questo tipo di distrazione è la più studiata in Human-Computer Interaction perchè coinvolge tutti I comportamenti indotti dale strumentazioni interattive come telefoni cellulari e display on-board. E’ importante notare innanzitutto che le categorie illustrate non sono rigide e spesso si influenzano presentandosi simultaneamente, e come il contesto applicativo in cui questo studio agisce è fortemente orientato all’approfondimento di questo tipo di tematiche psicologiche. In questa parte del lavoro sono stati e saranno privilegiati I temi strettamente connessi alla
cognitive distraction, mentre nel capitolo seguente si
approfondirà lo tutto ciò che concerne la visual distraction e si esporranno le relative linee guida per il design di warning strategies.
Parlando di cognitive distraction e di Head-Up Display non si può non fare riferimento ad una vasta letteratura sperimentale esistente in ambito aereonautico e aerospaziale. Come abbiamo visto è stato in questo campo che si sono sperimentati e prodotti I primi display per la vision enhancement,
20
ed in questo campo si è svolta e continua a svolgersi la mole di studi maggiore sull’usabilità di queste tecnologie. Studiosi ed esperti di Human Factors hanno individuato alcune task-categories di estremo interesse a partire dall’area spaziale in cui il pilota ha la possibilità di recuperare informazioni in tre domini: far-domain; near-
domain e aircraft-domain. Il far-domain comprende oggetti come altri aerei che sono situati all’esterno del veicolo e che vanno rilevati ed elaborati. Il near-domain invece richiede il processamento di informazioni provenienti dalle strumentazioni (nel nostro caso HUD o HDD). Infine l’aircraft-domain riguarda tutte le elaborazioni relative strettamente all’attività di pilotaggio del velivolo e controllo della rotta. Wickens (1997) ha dimostrato come ad ognuna delle task-categories sopra indicate può essere associato un meccanismo attenzionale. Fonti di informazioni provenienti dal near e dal far-domain richiedono infatti un tipo di attenzione selettiva, mentre tutto ciò che riguarda la guida e il controllo del mezzo richiede la distribuzione parallela di risorse attentive in quanto è necessario integrare informazioni provenienti dai domini near e far con conoscenze specifiche e feed-back continui dalle diverse parti dell’aircraft. Secondo Wickens, perciò il processamento di informazioni provenienti da un HUD va concepito in termini di design, come il punto di contatto fra far e near domain, quindi deve permettere diversi tipi di comportamento: sia la focalizzazione su informazioni specifiche derivanti dalla simbologia usata nel display, sia il processamento parallelo di informazioni provenienti dall’esterno e di informazioni simboliche e sia lo switch fra I due domini e le consuete attività di controllo e pilotaggio. Ognuno di questi scenari ha delle implicazioni psicologiche sull’attenzione del pilota. Uno dei problemi principali rilevati dai ricercatori è quello della cosiddetta Cognitive Capture (o Attention Capture), che si definisce come una incapacità o impossibilità di rilevamento di eventi dovuta alla fissazione dell’attenzione (quindi dello sguardo) su aspetti o elementi che ne attraggono 21
e catturano tutte le risorse. Questo fenomeno si verifica sia con HUD tradizionali (del tipo descritto a pag.1, cioè schermi semitrasparenti sovrimposti al parabrezza del mezzo) sia con HUD come quelli usati in ambito automotive e sia con HDD. Un aspetto fondamentale è la rilevante quantità di errori svolti in sede di test dai piloti nel rilevameno di eventi inattesi, dovuta alla difficoltà di effettuare switch tempestivi da un dominio all’altro, quindi di spostare lo sguardo dal display (near-domain) all’esterno (far-domain) in presenza di informazioni importanti relative ad eventi critici ed inattesi. Altri studi sul ruolo cognitivo degli HUD hanno messo in luce come sistemi VES (vision enhancement system) possano degradare il rilevamento di eventi o oggetti presenti nel campo visivo periferico (PFOV: Peripheral Field Of View ) del conducente. Inoltre il grado di arousal (attivazione dell’organismo) provocato da eventi inattesi anche in compiti primari molto semplici, può provocare una forte degradazione della performance in compiti secondary di rilevazione di informazioni presenti nel PFOV (Baddeley, 1972; Leibowitz & Appelle, 1969; Mackworth, 1965; Webster & Haslerud, 1964; Zahn & Haines, 1971). Fenomeni come la Cognitive Capture possono manifestarsi con frequenza ancora maggiore introducendo tecnologie come un HUD a bordo di mezzi di trasporto che non vengono di norma assegnati ad operatori altamente specializzati come I piloti di veicoli aerei. Vanno perciò presi in considerazione come punti di riferimento sia per l’approfondimento di una task-analysis della guida di automobili, sia per il design appropriato di strumentazioni per il miglioramento delle condizioni di sicurezza.
22
5. Tipi di attenzione: Queuing Theories vs. Parallel Allocation Models In questo paragrafo esamineremo i principali modelli di riferimento per le ricerche sull’attenzione rivolte alle applicazioni di Human Computer Interaction; partendo da modelli che teorizzano il multitasking come una successione di esecuzioni di compiti a diverso grado di priorità (Queuing Theories), passeremo a teorie che postulano la possibilità di esecuzione parallela in compiti che investono diverse risorse cognitive (Parallel Allocation Models). Infine analizzeremo, all’interno di quest’ultimo blocco, il modello a nostro avviso più adatto a prevedere l’interferenza in attività multitask, di informazioni presentate su più canali sensoriali: Il Multiple resource Model.
Come abbiamo visto l’interazione fra il formato delle informazioni presentate dall’HUD e le capacità dell’operatore di rilevare informazioni salienti nel ambiente circostante offrono una opportunità molto interessante di studiare le basi psicologiche dell’information processing. Nel nostro caso l’efficacia del processamento dipenderà dalle capacità dell’operatore di gestire le sue risorse attenzionali rivolgendole da un lato ai continui cambiamenti in atto nell ambiente esterno, dall’altro ad eventuali rilevamenti significativi da parte del sistema di vision enhancement, quindi all’interno dell’HUD. Nasce così l’esigenza di studiare i meccanismi che governano la gestione delle risorse attenzionali a partire da quei modelli in grado di descrivere e prevedere la decadenza qualitativa in performance multitask, che si presenta in quanto funzione della concorrenza di diverse strutture per le stesse “risorse”. Gli studi più specifici per quanto riguarda i modelli dell’attenzione in situazioni di guida (in campo aeronautico-aerospaziale e automobilistico) si
23
dividono in due blocchi: le cosiddette Queuing Theories (letteralmente Teorie della Lista) e i Parallel Allocation Models.
Le Queuing Theories rendono conto della assegnazione seriale di tutte le risorse per il processamento di informazioni ad un task piuttosto che ad un altro (task selection ). Queste teorie derivano dai modelli classsici sulla distribuzione dei visual scanning da parte dei piloti aeronautici (Senders, 1966, 1983), e sono serviti come base per la programmazione di modelli predittivi e di simulatori della performance umana in compiti complessi (HOS: Human
Operator Simulator, Werry, 1976; Harris et al. 1987; Strieb et al., 1981; etc.).
Incorporano due componenti fondamentali: • Il costo derivante dallo spostamento (switching) visivo e cognitivo da un task (o canale) ad un altro. • Le aspettative sul costo derivante dal mancato controllo dell’altro task4
Essenzialmente questi modelli assumono che quando due o più tasks competono per le risorse attentive (richiesta simultanea di esecuzione del compito), l’operatore attua un algoritmo per stliare l’ordine in cui i tasks verranno eseguiti. L’algoritmo si basa sulle priorità definite dell’operatore, sulle aspetative relative alla ritardata esecuzione di un task, e sulle aspettative relative al beneficio apportato dall’immediata esecuzione di un task. I task vengono così ordinati in una lista (queue) e messi in attesa fino all’esecuzione completa dei concorrenti che lo precedono. Fondamentale in questo contesto il ruolo del tempo come variabile decisiva sia per la misurazione della difficolta di un task, e soprattutto come risorsa principale per la quale i task competono.
4
In base alle teorie classiche dell’Utilità (Edwards, Lindman, and Phillips, 1965; Edwards, 1986), questo costo atteso è uguale al costo attuale dell’evento negativo derivante dal mancato controllo, moltiplicato per la probabilità che tale evento occorra. 24
Questa categoria di modelli si configura secondo alcuni come una rielaborazione dei modelli del canale unico sviluppati in psicologia (Welford, 1967). I limiti principali delle Queuing Theories sono legati principalmente a tre classi di problemi che si presentano in situazioni multitask ad alto grado di complessità:
• Processamento parallelo: è dimostrato come in numerose circostanze l’estrazione di informazioni visive salienti avviene simultaneamente a compiti di controllo manuale o altre attività a bassa complessità (Leibowitz & Dichgans, 1980; Leibowitz, 1986), come compiti a risposta vocale (McCleod, 1977). Inoltre la condivisione temporale fra task è pressocchè perfetta in situazioni in cui task di controllo manuale vengono eseguiti parallelamente a scambi di informazioni acustiche e verbali, scenario tipico di una conversazione durante la guida (Wickens, Sandry & Vidulich, 1983).
• Structural Alteration Effect: una variazione nella struttura di un compito, che non ne modifica la difficoltà comporta effetti sostanziali sulla performance di un task secondario di controllo manuale (Wickens, 1980, 1984); questo effetto si è riscontrato spesso in seguito a variazioni della modalità di risposta da manuale a vocale (Tsang & Wickens, 1988; Wickens, Sandry & Vidulich, 1983; Vidulich, 1987). Secondo la prospettiva delle Queuing Theories se una variazione non coinvolge il tempo necessario all’esecuzione del task, nessuna interferenza di questo tipo è prevedibile.
• Difficulty Insensitivity: equivale al contrario delllo Structural alteration effect. Descrive circostanze in cui aumentando la difficoltà di un task, incrementando il tempo di performance, quindi, in accordo con le Queuing Theories, producendo maggiore interferenza fra i tasks, la 25
performance su un task concorrente rimane inalterata (Wickens, 1980, 1984). Questo fenomeno è stato osservato in situazioni in cui compiti di controllo manuale continuo sono in concorrenza con compiti di scambio vocale, incrementi nella difficoltà di un task non interferiscono nell’esecuzione dell’altro.
I modelli teorici di Parallel Resource Allocation (assegnazione parallela delle risorse) derivano tutti dalgli studi di Kahneman (par. 1.4) sulle Capacità Attenzionali in cui si ipotizza che tutti i task competono per un singolo e indifferenziato pool di risorse. Questi modelli in contrasto con le teorie appena citate, assumono che il processamento parallelo di informazioni non solo è
possibile, ma che
l’interferenza fra task è il risultato della competizione di risorse non solo temporali. All’interno di questo frame teorico gli studi sperimentali più significativi e rilevanti (soprattutto relativamente al nostro contesto applicativo) sono quelli effettuati da C.D. Wickens che hanno dato vita al cosiddetto Multiple Resource
Model.
5.1 Multiple Resource Model Il Multiple Resource Model è stato sviluppato al fine di descrivere il processamento parallelo di due task e prevedere il tipo di interferenza in funzione della loro difficoltà (resource demand) e dei meccanismi di processamento condivisi (resource composition). L’ipotesi è dunque che due tasks mostreranno maggior interferenza se la resource demand aumenterà, e se entreranno in concorrenza per le medesime le risorse cognitive (resource overlap).
26
Inoltre si assisterà ad un’interazione fra la difficoltà dei task e la sovrapposizione delle risorse, quindi maggiore sarà il grado di resource overlap, maggiore sarà l’effetto che la difficoltà di un task imprimerà sul livello di performance dell’altro. La versione più recente del modello (Wickens & Liu, 1988) identifica tre importanti dicotomie ognuna delle quali mette in relazione due dimensioni strutturali del processamento parallelo di informazioni.
• Stadio di processamento: Iniziale vs Ritardato La dimensione dello stadio in cui avviene l’elaborazione (processing stage) identifica due tipi di risorse: quelle relative all’attività percettivocognitiva (ad es. la lettura del display, il monitoraggio di informazioni, comprensione vocale, etc.), e quelle relative all’attività di risposta (manipolazione dei controlli, attivazione di comandi, comandi vocali,etc.). Tasks che richiedono dispendio di risorse appartenenti alla prima classe possono concorrere con task che richiedono dispendio a risorse della seconda classe. Questa prima dimensione è la meno utile per un’analisi predittiva della performance, anche se fornisce un’ottima base descrittiva delle diverse funzioni qualitative della performance umana.
• Modalità di processamento: Acustica vs Visiva Questa dimensione permette di effettuare dei confronti predittivi fra le modalità di presentazione delle informazioni. Relativamente ai codici percettivi da sfruttare il designer di sistemi di controllo e di sicurezza si deve confrontare con questo tipo di dimensione e scegliere se utilizzare display acustici o visivi, se integrare le modalità e come, rispetto allo scenario applicativo specifico. Il multiple resource model ha il vantaggio di offrire linee guida dirette ad orientare questo tipo di studi. In un contesto ad
27
alto carico di informazioni visive, un display acustico migliorerà prevdibilmente le performance di time-sharing.
• Codice di processamento: Verbale vs Spaziale Quest’ultima dimensione è forse la più importante dal punto di vista del design. Infatti dicotomizza le operazioni cognitive di risposta che possiedono una base linguistico-simbolica da quelle che di matrice spaziale-analogica, ed è rilevante per i tre stadi dell’information processing (percezione, elaborazione, risposta): per prima cosa è fondamentale ad uno stadio percettivo in quanto mette in evidenza eventuali ambiguità di informazioni simboliche non-verbali (vettori, icone, simboli geometrici e rappresentazioni di vario tipo, che seppur intuitive possono attivare comportamenti errati) o la possibilità di sfruttare informazioni ridondanti. In secondo luogo risulta decisiva per l’elaborazione e per quei processi che coinvolgono la memoria di lavoro. Diversi ricercatori hanno infatti distinto una memoria di lavoro “spaziale” da una “verbale” (Baddeley, 1986; Baddeley & Hitch, !974; Baddeley & Lieberman, 1980; Wickens & Sandry, 1982); in cui la prima è addetta a trattenere e ripetere materiale visivo e informazioni sulle condizioni spaziali e di mantenimento della traiettoria, e la seconda invece rivolta a materiale verbale e numerico e al supporto delle operazioni logiche, anche in questo caso il task specifico può richiedere l’adozione di una modalità piuttosto che un’altra in base alle necessità testate dell’operatore. Infine questa dicotomia definisce il processo di risposta che il task richiede: verbale se ad esempio si ha a che fare con comandi vocali, spaziale se i comandi sono manuali (questo tipo di comandi sono definiti
28
spaziali in base al mapping sfruttato, si consideri un joy-stick o una cloche piuttosto che il volante di un’auto)5.
Il modello ipotizza che due compiti risulteranno maggiormente interferenti se entrambi richiedono risorse spaziali o verbali attraverso i diversi stadi di elaborazione. Naturalmente l’interferenza aumenterà se la competizione per il codice di elaborazione avverrà all’interno dello stesso stadio di elaborazione (ad es. percezione visivo-spaziale e memoria di lavoro spaziale) piuttosto che in stadi diversi del processo (ad es. memoria di lavoro spaziale e risposta manuale). Semplificando quindi, maggior interferenza fra tasks che richiedono elaborazione alla stessa area di risorse, invece che distribuire lo sforzo fra le risorse disponibili.
5.2 Limti del modello Il modello presenta delle limitazioni che rendono difficile il passaggio da un livello qualitativo di analisi molto accurato ed efficace, ad uno quantitativo che ne renda più preciso il potenziale esplicativo e predittivo, queste limitazioni derivano dagli sforzi rivolti, nei numerosi studi condotti in laboratorio e su simulatore, all’analisi dell’interferenza fra classi di task eterogenei. In primo luogo il grado di sovrapposizione di risorse dipende da una definizione precisa del concetto di “risorsa”. In secondo luogo non esiste una misura standard per la quantificazione della domanda di risorse, applicabile ad una classe eterogenea di tasks.
5
Leibowitz & Dichgans (1980) hanno introdotto una quarta dicotomia interessante soprattutto in ambito di controllo del veicolo, che si riferisce a due diversi sistemi di percezione visiva: ambient vs focal vision 29
Infine non esiste una scala di valori su cui misurare il decremento ( o l’incremento) di interferenza fra compiti diversi per i quali esistono diverse misurazioni della performance.
6. Ricapitolando In questo capitolo sono state introdotte le basi teoriche dello studio sperimentale che verrà affrontato in seguito. Sono state definite le caratteristiche e le potenzialità applicative dell’Head UP Display e si è fatto riferimento al contesto in cui questa tecnologia verrà utilizzata: condizioni di guida notturna e scarsa visibilità esterna. In seguito è stata affrontata la task analysis dell’attività di guida automobilistica a partire dai fattori psico-percettivi riguardanti la visione, fino alla descrizione della guida come attività che coinvolge un sistema gerarchico di scopi che regolano una molteplicità di sotto-scopi in maniera simultanea e coordinata (multitasking). Abbiamo quindi evidenziato come la progettazione di tecnologie integrate all’interno di attività di questo tipo non possa prescindere da uno studio delle basi psicologiche che ne regolano lo svolgimento. Sono state individuate come fondamentali le categorie che distinguono un semplice comportamento corretto da un comportamento esperto: fra tutte la capacità anticipatoria (strettamente legata alla formazione e al recupero in memoria di aspettative corrette), la disponibilità di risorse attenzionali e la Situation Awareness definita come “la percezione, la selezione e la comprensione di informazioni, la
selezione di azioni, e la proiezione di informazioni nel futuro” (Endsley 1995). All’interno di un quadro generale delle teorie psicologiche cognitiviste e non, riguardanti il concetto di attenzione, si è ristretto lo sguardo agli approcci più strettamente rivolti allo studio di attività specifiche di guida sia aerospaziale che automobilistica, rilevando come la categorizzazione dei comportamenti a 30
rischio durante i consueti task faccia esplicito riferimento a fenomeni di perdita di attenzione, in particolare al fenomeno denominato Cognitive Capture (o Attention Capture), definito come “una incapacità o impossibilità di rilevamento
di eventi dovuta alla fissazione dell’attenzione (quindi dello sguardo) su aspetti o elementi che ne attraggono e catturano tutte le risorse”. Questo fenomeno possiede una evidente rilevanza ai fini del presente studio. Infine sono stati illustrati I due blocchi teorici principali relativamente allo studio di attività multitask: Le Queuing Theories e i Parrallel Allocation Models. Questi ultimi riescono a descrivere in maniera adeguata il processamento parallelo di informazioni in continuo cambiamento. In particolare è stato approfondito e scelto, come base teorica per I test più avanti descritti, il Multiple Resource Model che si pone l’obiettivo di predire l’aumento o la diminuzione di interferenza fra task che concorrono al medesimo pool di risorse cognitive (Wickens & Liu, 1988). Secondo il modello, due compiti risulteranno maggiormente interferenti se entrambi richiedono risorse spaziali o verbali attraverso i diversi stadi di elaborazione.
31
32
Capitolo 2
1. Warning Design In questo capitolo affronteremo la parte relativa al design di sistemi di allarme, passeremo in rassegna le variabili che entrano in gioco nella strutturazione di una strategia di comunicazione del pericolo che si adatti il piÚ possibile alle esigenze dell’utente. Partendo dalla definizione di warning, vedremo come il pericolo agisce sulla cognizione esaminando alcune teorie sulla percezione del rischio e sul comportamento in situazioni critiche. In seguito ci soffermeremo sui fattori ergonomici di riferimento per la scelta dei warning usati nell’esperimento.
33
2. Che cos’è un Warning Un Warning è un artefatto prodotto da uno o più designer in relazione ad una situazione o un prodotto (che costituiscono il referente del warning) associati ad un livello variabile di rischio6. La sua funzione è quella di fornire all’utente di quel prodotto o situazione, informazioni relative al rischio a cui presumibilmente è esposto, che siano aggiuntive rispetto a quelle che ha o crede razionalmente di avere. Il designer, quindi, cerca in qualche modo di influenzare il comportamento dell’utente. Come è evidente, in una situazione di rischio improvviso durante la guida notturna è necessario che i messaggi forniti siano immediatamente percepiti, interpretati, associati al livello di pericolo, e che inducano all’azione adeguata il ricevente. Per riuscire a progettare questo tipo di comunicazione è necessario approfondire alcuni aspetti del tipo di messaggio che sarà necessario utilizzare. Tutti i sistemi di allarme (dalle etichette sui prodotti tossici, fino ai più sofisticati sistemi di allarme) svolgono due principali funzioni: una funzione di avvertimento (alerting function) e una funzione informativa. Come esempio possiamo pensare alle etichette situate dietro ai prodotti tossici o pericolosi per i bambini, che spesso consistono in due componenti base: una parola stampata in grande, come “ATTENZIONE!”, detta signal word , che svolge la funzione di avvertire l’utente che il prodotto ha delle controindicazioni e di farlo prima che questi lo usi in modo inadeguato. una serie di istruzioni elencate più in basso a caratteri piccoli che spiegano dettagliatamente le precauzioni necessarie, informano, cioè, circa il comportamento conforme al warning. La alerting function comprende la componente emotiva, attrattiva e motivazionale del messaggio e concerne variabili relative alla capacità di attivare nell’utente il giusto grado di arousal (scelta della signal word, della 6
Per rischio si intende una misura globale di variabili come la gravità del pericolo, la pericolosità delle conseguenze ed altri elementi generici. 34
simbologia, del colore, della forma, dei segnali acustici etc.). in altre parole la alerting function consiste nella parte iconica del warning. La funzione informativa ha invece la particolarità di istruire, più o meno esplicitamente, rispetto ad usi o comportamenti corretti, al fine di evitare incidenti o rischi di altro tipo. Numerosi studi si sono occupati di testare l’efficacia di warnings in base al grado di esplicitezza delle informazioni fornite. In ogni caso comunque, entrano in gioco variabili contestuali: messaggi esplicitamente e dettagliatamente informativi possono infatti annullare la loro maggiore efficacia in scenari come quello preso in considerazione in questa sede, in cui il tempo a disposizione per il “convincimento” dell’utente è molto breve. Le due componenti dei sistemi di warning illustrate sono visualizzabili come i due estremi di un continuum al cui interno si posiziona l’infinità di progetti e sistemi implementati per ogni tipo di referente. La funzione di alert non è quindi mai completamente estranea a quella informativa, piuttosto si deve pensare al design di warning come ad un flusso di elementi sia iconici che informativi che si integrano all’interno di una attività in corso con il fine di cambiarne l’andamento (Stanton 1994).
35
3. Percezione del rischio Come abbiamo visto nel primo capitolo il comportamento individuale durante la guida è di tipo adattivo ed è fortemente influenzato dal rapido flusso di informazioni proveniente dall’esterno. I criteri soggettivi di adattamento dell’azione risentono in maniera particolare, durante la guida, della percezione della pericolosità della situazione corrente, esistono cioè delle soglie di tolleranza del rischio all’interno delle quali il comportamento dell’automobilista si svolge normalmente secondo le caratteristiche soggettive abituali senza bisogno di correzioni allo schema abituale d’azione; queste soglie riguardano alcuni valori strategici del task, come la velocità del veicolo, la distanza dalle altre vetture e dai bordi della strada, la posizione di guida, etc., e concorrono alla formazione di una soglia generale di regolazione della tolleranza al pericolo. Nel caso in cui il cambiamento di determinate condizioni ambientali provochino il superamento di questa soglia, il sistema di azioni subirà una variazione e verranno poste in atto misure reattive d’emergenza. Le condizioni ambientali che influiscono sulla soglia di tolleranza del rischio possono riguardare sia fattori naturali come le condizioni metereologiche e di visibilità, sia fattori relativi ad eventi improvvisi causati dal flusso del traffico, e naturalmente l’introduzione di strumentazioni digitali di sicurezza all’interno delle auto rende estremamente complesso e interessante il rapporto fra l’azione umana e le funzioni della tecnologia. La teoria più interessante riguardo l’interazione fra il comportamento individuale e il rischio percepito è la Risk Homeostasis Theory (Wilde 1982; 1994). Questa teoria ipotizza che il comportamento umano tenda a compensare la riduzione di percezione del rischio dovuta a fattori contestuali, con un’innalzamento del livello di pericolosità dell’azione, e questo al fine di mantenere costante il livello di attivazione provocato dalle soglie di tolleranza sopra descritte. In altre parole l’individuo sarà portato a compensare l’abbassamento del rischio intrinseco dovuto alla presenza di un sistema di 36
sicurezza con una guida meno sicura; di conseguenza la strategia migliore sarebbe quella di agire sui costi-benefici del comportamento rischioso (quindi innalzamento dei costi, abbassamento dei benefici), piuttosto che agire sulla manipolazione del pericolo ambientale intrinseco (ad es. miglioramento della visibilità , miglioramento del sistema di frenata, ‌), in quanto questo fattore verrebbe in ogni caso compensato dalla maggiore assunzione di rischio. Le conseguenze di tali considerazioni sulla progettazione di sistemi di warning sono evidentemente numerose e di vario tipo, basti pensare alla cospicua discussione che questa teoria continua a stimolare in campo accademico. Come vedremo nei prossimi paragrafi, la funzione principale, nella progettazione di sistemi di warning e quella di favorire una corrispondenza il pÚ possibile aderente fra scenari critici e percezione del pericolo intrinseco, in modo da influenzare il comportamento verso una minore tendenza all’assunzione di rischio.
Fig.2.1: Risk Homeostasis Theory
37
4. Human Factors Guidelines In questo paragrafo e per il resto del capitolo affronteremo una analisi delle principali linee guida di design e human factors. L’aspetto ergonomico di un sistema di night vision dovrà necessariamente tenere conto di diverse aree di utenza. È
presupponibile infatti, che un
sistema di night vision eserciti maggiori benefici su persone di età avanzata e su giovani neopatentati, relativamente a fattori sia fisiologici (l’accomodamento retinico su tutti), che cognitivi come quelli già affrontati. A tal proposito uno studio delle variabili ergonomiche può suggerire interessanti strade per la progettazione centrata sull’utente, come vedremo infatti la scelta di progettare un’interfaccia multimodale trova riscontri positivi anche relativamente ad approcci di design di interfacce mirati al superamento di barriere sensoriali per soggetti con disabilità di vario tipo. Le linee guida che esporremo saranno orientate dalle cause delle interferenze cognitive esposte nel primo capitolo: inefficienze nello stadio di codifica e percezione avranno perciò implicazioni nel posizionamento, nelle scelte dei colori e nel grado di luminosità del display; inefficienze nello stadio di processamento cognitivo avranno invece implicazioni importanti per quanto riguarda la modalità e la quantità di informazioni fornite dal display. Tenere conto della vasta serie di considerazioni scaturite dalla task analysis significa creare una corrispondenza il più possibile diretta e univoca fra la situazione contestuale (intesa nel nostro caso come presenza o meno di variabili critiche) e il sistema percettivo e cognitivo dell’utente. In campo ergonomico la costruzione di questo “ponte” fra mondo esterno e stato mentale dell’utente è chiamata mapping. Nel nostro campo d’indagine si parlerà di Urgency Mapping per definire la capacità del sistema di warning di comunicare il grado di criticità del pericolo in corso mediante le caratteristiche sensoriali, fisiche, iconiche o informative della simbologia usata (fig.2.2).
38
Nei prossimi paragrafi passeremo in rassegna i parametri ergonomici fondamentali per il raggiungimento di un mapping soddisfacente, sia per quanto riguarda le specifiche del display, sia per quanto riguarda le modalità sensoriali dell’interfaccia.
Fig.2.2: Urgency mapping. Nel diagramma in alto la corrispondenza positiva fra urgenza percepita e pericolo reale produce un mapping appropriato. Nel secondo diagramma avviene il contrario, la criticità del contesto non è rappresentata da un corrispondente livello di urgenza nei warnings
39
4.1 Display 4.1.1 Tipo I display per la night vision possono essere di due tipi: Head Up (HUD) e Head Down (HDD). La maggior parte degli studi ha focalizzato lo sguardo sull’head up a causa del suo enorme potenziale innovativo e del suo concept attrattivo. Inoltre numerose ricerche hanno evidenziato la scarsa capacità degli HDD di presentare informazioni in tempo reale in modo efficace e il maggior sforzo percettivo richiesto. Per quel che riguarda l’HUD i benefici attesi derivano da due caratteristiche fondamentali: • La posizione che permette di mantenere lo sguardo sulla strada meglio e per più tempo di quanto accade con le tradizionali strumentazioni montate dietro il volante. Questo causa una migliore e più rapida rilevazione di oggetti ed eventi esterni all’auto. • La distanza focale che è maggiore rispetto a quella delle tradizionali strumentazioni montate dietro il volante. Il beneficio maggiore rispetto a questa caratteristica è un decremento dello sforzo dovuto all’accomodamento retinico (i benefici maggiori saranno riscontrabili in un target di guidatori anziani). D’altra parte alcuni ricercatori hanno sottolineato come anche gli HUD possano comportare un deterioramento della guida in caso di sovraccarico di informazioni presentate; o di errori nella scelta di alcune misurazioni che vedremo in seguito. Le conclusioni più consistenti a tal riguardo sostengono che i conducenti d’auto rilevano meno oggetti nel campo visivo periferico in presenza di display che senza display (Bossi et al. 1997); sono maggiormente distratti dal display all’aumentare delle informazioni presentate al suo interno (Ward et al.); e che i tempi di reazione aumentano in presenza di display (Ward et al. 1995). Nonostante la forte attrattiva insita nela progettazione e nello studio di queste
40
strumentazioni, i vantaggi reali degli HUD sono molto difficilmente predicibili e dipendono dalle applicazioni e dalle priorità asegna in te in fase di progettazione.
4.1.2 Posizione Si definisce optical flow la percezione dinamica dell’intera scena visibile, ad esempio come il guidatore vede gli oggetti quando il suo veicolo li incontra e supera. La visione periferica è in questo caso un concetto chiave. La posizione del display perciò, deve il più possibile evitare di interferire con l’optical flow a rischio di inibire giudizi corretti su distanza e velocitàda parte dell’utente. La location migliore dipende dal tipo di informazione che si intende fornire, se la semplice scena in tempo reale, segnali di warning o di evidenziamento di ostacoli, o entrambe le cose. I risultati migliori si ottengono progettando l’informazione sottoforma di conformal overlay7, ma è pressocchè impossibile nelle automobili raggiungere la perfetta conformalità, allineando, cioè, l’immagine virtuale alla linea di sguardo . La location ottimale di simboli ed icone di warning è stata indagata da Yoo et al. (Yoo et al. 1999). Ecco le conclusioni più rilevanti dei loro studi: • Un certo effetto di interferenza dell’HUD risulta evidente, inogni caso tempi di reazione e probabilità di rilevazione degli oggetti non risultano significativamente peggiori quando effettuati contemporaneamente a task di rilevazione all’interno di HUD. • Il posizionamento più gradito ai soggetti è risultato essere 10 gradi al di sotto della linea di sguardo.
7
Si parla di conformal overlay quando la simbologia usata si sovrappone alla scena reale in modo dinamico, ovvero spostandosi e adattandosi ai movimenti degli oggetti reali. La simbologia usata concorre ad aumentare le informazioni reperibili dall’utente in accordo con i principi gestaltici di raggruppamento e prossimità. Progetti di questo tipo sono sviluppati in campo aeronautico-spaziale e solo da pochi anni si inizia a pensare a possibili applicazioni in campo automotive. 41
• Per quanto riguarda i warning i soggetti non gradiscono che vengano posti lateralmente a più di 5 gradi dal centro del display. Le posizioni più gradite sono quelle che riducono al minimo la sovrapposizione con la scena rappresentata nel display.
4.1.3 Grandezza La grandezza ottimale (angolo visuale)differisce a seconda della distanza. Per una distanza di 2,5 m, il display risulta maggiormente leggibile ad un angolo visuale di 0,8 gradi , mentre ad una distanza di 2,0 m l’angolo ottimale risuta di 0,9 gradi (Isuzuka et al. 1991; Kato et al. 1992).
4.2 Immagine Questo paragrafo concerne la rappresentazione visiva della scena stradale. Ogni rappresentazione deve replicare il contesto esterno in modo da minimizzare la distrazione e permettere la rilevazione immediata di potenziali pericoli.
4.2.1 Distanza La distanza standard, generalmente descritta in letteratura sugli HUD, risulta compresa fra i 2,5 e i 2,0 m.. Anche in questo caso i parametri variano a seconda del tip di informazione da visualizzare. L’obiettivo è di evitare effetti di
42
cognitive capture, difficoltà di accomodamento ottico, perdita di optical flow, riduzione di visione periferica nella scena in corso, degrado nell’abilità di giudizio di grandezze e distanze, ed altri effetti visivi.
4.2.2 Colore Da una serie di studi sono state estratte le seguenti linee guida: • Evitare di usare colori all’interno di HUD; limitarsi all’uso di sottili linee fosforescenti (Weintraub e Ensing, 1992). • In uno studio sul contrasto fra display e sfondo e sul confronto fra vividezza del colore e luminosità del display, Inzuka et al. (Inzuka et al., 1991) sostengono che i risultati migliori si ottengono usando il verde come colore dominante del display. • Se l’uso del colore si rende necesario, evitare di usare i colori rosso e blu. Il blu è difficile da focalizzare, mentre il rosso risulta poco compatibile con la visione notturna (Semple at al., 1971; Weintraub e Ensing, 1992).
43
5. Multimodal Warnings Per Multimodal Warning si intende la progettazione di strategie di allarme basate sulla presentazione di informazioni che sfruttano più canali sensoriali. Le interfacce multimodali possiedono delle potenzialità di pervasione che segnali isolati non hanno, naturalmente l’integrazione di messaggi di diversi tipi va studiata a partire dalle caratteristiche specifiche del target e del task specifici. In contesti in cui il compito possiede un alto grado di complessità come in caso di task simultanei e paralleli, la distribuzione di informazione su più canali può senz’altro alleggerire il carico attenzionale destinato alla rilevazione di informazioni (Wickens, 1984). In ogni caso il valore aggiunto dei sistemi di interfaccia multimodali non si limita ad essere una mera ridonndanza di informazioni, bensì come avremo modo di approfondire in seguito, quello di permettere la distribuzione di informazioni su canali specifici, tenendo conto di alcuni parametri di psicologia della percezione come la dominanza etc.
5.1 Ridondanza La ridondanza è il concetto base per intraprendere un’analisi sulla multimodalità delle interfacce. Per ridondanza si intende la presentazione delle medesime informazioni su più canali sensoriali. Approcci di design basati sulla ridondanza si stanno sviluppando per quanto riguarda le interfacce destinate a persone con deficit sensoriali (non-vedenti; non-udenti, etc.), cognitivi, e persone anziane8. Le possibilità tecniche per lo svilupo di interfacce multimodali esistono da lungo tempo, e sono soggette a specifici standard e linee guida, da pochi anni
8
Questo tipo di approccio prende il nome di Design for All 44
però la diffusione su larga scala ne ha permesso l’approfondimento dellla ricerca, e si sono iniziati ad avere i riscontri più consistenti, basti pensare allo sviluppo di sistemi di interfaccia tattile (touch screen), o di mouse per pc dotati di sistemi di vibrazione attiva. Questo tipo di sistemi contribuiscono non solo alla diffusione di tecnologie altrimenti inaccessibili a fasce di utenza con disabilità di vario genere, ma anche alla integrazione di funzionalità di enorme interesse per tutti i possibili utenti. Il principio della ridondanza ha avuto modo di esssere espanso e approfondito grazie a ricerche di recente nascita raggiungendo risultati di indubbio interesse. Naturalmente, come in tutti i campi di recente nascita, non tutte le linee guida che verranno esposte hanno avuto una validazione scientifica vera e propria, mentre per lo più si basano su principi presi in prestito dal campo della psicologia della percezione.
5.2 Visione 5.2.1 Simboli e icone I simboli visivi usati per i sistemi di warning si dividono in testo; simboli grafici o icone, e animazioni. Le linee guida per l’utilizzo del testo nei sistemi di warning si riferiscono per lo più a considerazioni sulla cosiddetta procedural
explicitness ovvero la capacità di istruire rispetto all’uso corretto di un prodotto o di un artefatto che potrebbe in caso di malfunzionamento rivelarsi pericoloso per caratteristiche fisiche o per situazioni critiche di vario tipo. Più rilevanti ai nostri fini uno sguardo ai simboli visivi e alle loro potenzialità. Modley (1966) e Dreyfuss (1972) hanno elencato tre tipologie di simboli: • Rappresentazionali o image-related: quei simboli che rappresentano direttamente l’oggetto di riferimento. Secondo Modley questa categoria di
45
simboli è soggetta a cambiamenti culturali nel tempo, e non sempre il messaggio che intendono esprimere risulta chiaro e privo di ambiguità. • Astratti o concept-related: in questo caso il simbolo si riferisce al concetto chiave del messaggio, numerosi sono gli esempi provenienti dal codice stradale, si pensi al segnale “svolta a destra” simbolizzato da una freccia orientata a destra su sfondo blu. In questo caso l’ambiguità è risolta da una forte standardizzazione che rende il simbolo largamente condiviso. • Arbitrari: i simboli arbitrari basano la loro comprensibilità esclusivamente sulla standardizzazione. Significati assegnati da lungo tempo che vengono culturalmente compresi e condivisi (si pensi al punto esclamativo che nel codice stradale è associato alla presenza di pericolo). L’uso di simboli all’interno di strategie di warning di ogni tipo deriva da una serie di motivi fondamentali ed intuitivi: • La loro universalità, per cui anche individui appartenenti ad altre nazionalità o culture possono spesso riconoscere simbologie ad alta standardizzazione • La riconoscibilità immediata, per cui ognuno può accorgersi della presenza di un segnale di pericolo in modo istantaneo e a distanze maggiori rispetto alla relativa espressione verbale • La loro resistenza al degrado fisico. Un segnale di stop riesce ad essere riconoscito per l’insieme delle sue caratteristiche percettive, anche in condizioni di degrado del segnale stesso o delle condizioni percettivocognitive (rumore, distrazione etc.). Naturalmente l’uso dei simboli come messaggi di warning è strettamente legato al contesto d’uso e risulta tutt’altro che privo di problematiche. Nel caso di strategie di warning strettamente legate al riconoscimento, alla comprensione e all’induzione all’azione istantanei, la scelta migliore è quella di riferirsi a simbologie altamente standardizzate e chiaramente percepibili nel più ampio numero di situazioni.
46
5.2.2 Animazioni Le animazioni sono una componente estremamente utile nella presentazione di informazioni visive a causa della loro ineguagliata capacità di attrarre l’attenzione. Gli esseri umani sono molto bravi a monitorare eventuali cambiamenti nel loro campo visivo, anche nelle sue zone periferiche piuttosto che in direzione dello sguardo. Quindi anche piccoli movimenti agli angoli del campo visivo verranno rilevati e attireranno losguardo nelle loro direzione. Naturalmente si tratta di una proprietà che possiede tanti pregi quanti difetti, infatti se nel dominio delle interfacce le icone animate possono fornire significati aggiunti e migliorare la comprensione di rapporti fra oggetti e concetti di vario tipo, in domini come quello del design di warning queste capacità si scontrano con l’elevato potere distraente del movimento delle immagini.
5.2.3 Guidelines Per quanto riguarda gli stimoli visivi elenchiamo qui alcune linee guida basilari che torneranno utili nella strutturazione del test illustrato nel presente studio: • Rendere le icone e i simboli sempre discriminabili: ogni icona o simbolo che rappresenti un particolare stato del sistema deve sempre essere discriminabile dalle altre icone o simboli che rappresentano stati del sistema diversi. • Salvaguardare la comprensibilità dei simboli attraverso i cambiamenti: ogni simbolo usato deve restare discriminabile attraverso i cambiamenti visivi del sistema che non riguardano la sua presenza. • Non usare solo il colore come discriminante fra i diversi simboli usati.
47
• Preservare la coerenza stilistica e di registro fra le diverse icone usate: se si ricorre a simbologie appartenenti ad esempio al codice stradale per indicare un pericolo, restare nel medesimo codice grafico per indicare anche tutti gli altri stati possibili. • Assicurarsi della comprensibilità: a seconda del target di riferimento è possibile in alcuni casi che il designer dia per scontata la comprensione di segnali usati che invece non tutti i possibili utenti sono in grado di codificare. • Assicurarsi della corretta parametrizzazione dei simboli: se i simboli fanno riferimento a diversi gradi di intensità di una grandezza (ad es. di pericolo), assicurarsi che ognuno sia facilmente associabile ad un grado di valore minore o maggiore a seconda dei casi. • Assicurarsi dell’apprendibilità in caso di utilizzo di simboli astratti.
5.3 Udito Nel campo dei warning acustici di tipo non verbale la letteratura disingue due approcci opposti. Il primo è l’approccio ecologico
sviluppato da Gaver; a partire dai
fondamenti della psicologia ecologica di J.J. Gibson, Gaver sostiene che suoni provenienti dal mondo riescono ad evocare sensazioni immediatamente collegabili alla matrice del suono stesso e possono perciò essere utilizzati come metafore del tipo di informazione che si vuole trasmettere. L’assunto è che la tendenza innata dell’ascoltatore è quella di ricercare la fonte del suono percepito (oggetti, eventi o azioni) piuttosto che le caratteristiche del suono stesso. Per questo motivo il suono o rumore che un’oggetto provoca viene automaticamente messo in relazione con un contesto ben definito di eventi senza bisogno di investimenti cognitivi derivanti da apprendimento o associazioni complesse (esempi di questo tipo di approccio derivano dai suoni 48
delle interfacce per pc come il rumore della carta stropicciata che cade in un contenitore, facilmente associabile al trasferimento di un file nel cestino). Il secondo approccio, proposto da Blattner et al. fonda i suoi presupposti sulle qualità acustiche della musica, per cui semplici toni musicali possono essere utilizzati o combinati fra loro per emettere informazioni di ogni tipo. In questo modello l’unità significativa di base è chiamata motive , una nota o serie ritmata di note uguali con pitch e durata assegnati; secondo Blattner un singolo motive può essere assegnato a qualunque tipo di evento e usato come base per la parametrizzazione di tutta una serie di eventi simili. Gaver ha coniato il termine “auditory icon” per descrivere l’uso metaforico di suoni reali all’interno delle interfacce, mentre Blattner ed i suoi colleghi hanno fatto ricorso al termine “earcons” per denominare i suoni studiati per le applicazioni di Human-Computer Interaction e Warning Design. Le differenze concettuali fra questi due modelli si riassumono con molta chiarezza nel concetto già esplorato di mapping. Secondo l’approccio di Gaver l’auditory icon più efficace è quella che riesce a sfruttare un mapping di tipo nomic . Con questo termine si intende descrivere una corrispondenza diretta fra rappresentazione e referente, causata dalle caratteristiche fisiche che hanno originato l’evento di riferimento, nel nostro caso un suono.
Un secondo tipo di mapping sfruttato dagli
ecologisti è di tipo metaforico , in cui si sfruttano somiglianze di significato fra il suono di riferimento e la rappresentazione ad esso associata. L’inconveniente di questo modello è che si stabilisce una corrispondenza molti-a-molti fra suoni di riferimento e icone in cui il concetto di discriminabilità del simbolo può venire meno con una certa facilità. Al contrario creando mapping arbitrari, secondo Blattner si aggira questo tipo di inconveniente, e al prezzo di aggiungere una certa quantità di sforzo per l’apprendimento iniziale delle corrispondenze create, ottenere sul lungo termine una maggiore interiorizzazione delle classificazioni dei diversi warning.
49
5.3.1 Guidelines • Sfruttare il nomic mapping: se è possibile, usare suoni associabili alla funzione (o stato del sistema) di riferimento per caratteristiche fisiche. • L’apprendibilità dell’informazione acustica: le auditory icons sono più adatte per sistemi che non prevedono una fase di apprendimento, mentre le earcons, a causa del mapping arbitrario che sfruttano, necessitano di una fase di familiarizzazione delle associazioni suono-funzione. • La parametrizzazione incrementa il valore informativo dei warning: variare una o più dimensioni del suono (preferibilmente più di una) che si usa per associarle ad aumenti o diminuzioni di criticità dello scenario, può conferire maggior apprendibilità ed efficacia ai warning acustici. • Differenziare le dimensioni del suono in modo discriminabile. • Se possibile sfruttare la spazializzazione del suono. • Assicurarsi che i suoni usati riescano ad attirare l’attenzione: i fattori cruciali per la detezione del suono sono il ritmo e il pitch.
5.4 L’effetto cross modality Progettare interfacce multimodali non significa però progettare più interfacce unimodali. Nonostante la ridondanza sia la base di partenza per la strutturazione di sistemi di questo tipo, bisogna tenere in considerazione alcuni fattori di fondamentale importanza: • L’interazione fra diverse modalità sensoriali. Può una modalità sensoriale interferire significativamente sulla percezione di un’altra modalità? Un esempio significativo a riguardo deriva dall’esperimento “banana blu” in cui ad alcuni soggetti veniva richiesto di mangiare dei frutti precedentemente colorati di blu. I risultati mostrarono come molti dei
50
partecipanti non riuscirono a riconoscere il gusto dei diversi frutti mangiati. • La congruenza fra diverse modalità sensoriali. È possibile che informazioni con medesime caratteristiche fisiche, ma di diverse modalità, vengano percepite come diverse? Esempi chiari di incongruenza sensoriale derivano dalla percezione dei suoni: a parità di durata gli stimoli sonori sono percepiti come più lunghi degli stimoli visivi. • I conflitti fra diverse modalità sensoriali.quando l’informazione presentata in due modalità differisce, come viene percepità? Un ottimo esempio in questo caso è dato dalla dominanza visiva nel dominio spaziale, fenomeno che ci permette di compiere inferenze sulla fusione di suono e immagini a partire dalla percezione visiva (ad es. l’attribuzione delle voci dei doppiatori italiani di un film agli attori stranieri di quello stesso film). Un simile effetto si verifica anche nella relazione fra visione e tatto: se percepiamo visivamente un pezzo di ferro come curvo, il prenderlo in mano e verificare che si tratta di un oggetto perfettamente dritto non ci convincerà della realtà e continueremo a credere che sia curvo. L’efficacia delle interazioni multimodali non è perciò funzione della semplice sincronizzazione di diversi stimoli, e benchè questo sia un aspetto necessario, non sarà mai sufficiente affinchè la percezione delle informazioni fornite sia congruente con i risultati desiderati. Nei prossimi paragrafi ci soffermeremo sulle relazioni percettive che intercorrono fra la vista e l’udito, e elencheremo una serie di linee guida per il design di multimodal warnings orientate alla chiarificazione delle rispettive dominanze di queste due modalità sensoriali, che costituiscono il fulcro del persente studio.
51
5.4.1 Visione vs Udito La visione domina l’udito nel dominio spaziale, questo fenomeno è conosciuto come visual capture (Hai, Pick & Ikeda…), gli effetti più consistenti di questo fenomeno si riscontrano nella stima delle grandezze (Teghtsoonian & Teghtsoonian…). L’udito invece, domina la vista nel dominio temporale (Handel & Buffardi…; Geldard…; Goodfellow; Lechelt; ). Incongruenze sulla durata percepita sono squilibrate a favore dell’udito, ovvero un evento acustico sembrerà più lungo di un evento visivo. Per quanto riguarda slittamenti attenzionali fra vista e udito, non ci sono indicazioni su costi cognitivi addizionali (Spence & Driver).
5.4.2 Guidelines • Evitare task cross-modali: compiti che coinvolgono più modalità sensoriali sono difficili per l’utente, la risposta al warning dovrebbe coinvolgere task il più possibile semplici. • Rendere le informazioni coerenti fra le diverse modalità: l’aspetto spaziale e quello temporale dell’informazione fornita deve essere coordinato e reso congruente dal punto di vista percettivo. • Evitare il sovraccarico cognitivo derivante da switching attenzionale. • Destinare le informazioni alla modalità sensoriale più adatta: tenere conto del contesto in cui si svolge il task, del tipo di risposta che il task richiede e dei rapporti di dominanza fra le modalità che si intende sfruttare. • Tenere conto delle interazioni, delle congruenze e dei conflitti fra i canali sensoriali usati. • Task che coinvolgono information-processing di alto livello non sempre beneficiano della multimodalità: non ricorrere all’uso di warning 52
multimodali se non si riscontra un vantaggio reale nell’esecuzione delle performance richieste; spesso task ad alto livello di complessità necessitanò di avvertimenti semplici, immediati e unimodali. • Modalità complementari: alcuni canali sensoriali hanno enormi differenze percettive (visione e tatto; visione e udito; etc.), sfruttare le loro complementarità può significare fornire dei warning estremamente completi e privi di ambiguità.
53
54
Capitolo 3
1. Obiettivi della ricerca In relazione alla discussione presentata nel capitolo 1 relativamente alla relazione che intercorre fra la struttura del comportamento di guida e il sistema percettivo-cognitivo umano, questo studio si propone, mediante la descrizione del test di simulazione effettuato, di validare gli assiomi della “Multiple Resource Theory” esposti nei precedenti capitoli. La ricerca si basa su un test di laboratorio volto a simulare uno scenario di guida notturna. Esso rappresenta un tentativo di dimostrare come la condizione necessaria, anche se evidentemente non sufficiente, per consolidare l’efficacia di un sistema di Night Vision, così come per tutte le tecnologie on-board per la sicurezza stradale, sia quella di stabilire e rispettare delle linee guida di progettazione al fine di strutturare un’interfaccia che sia al tempo stesso • Il più efficace possibile. Quindi verificando la validità del concept su cui si basa un sistema NVES9, misureremo la sua capacità di supportare effettivamente l’utente durante l’esecuzione dei task richiesti. • Il meno intrusiva possibile, ovvero che si plasmi letteralmente sulla normale gerarchia di skill di cui il comportamento di guida di un’auto è costituito, favorendone lo svolgimento nel modo più naturale possibile .
9
Night Vision Enhancement System 55
2. Scopo dell’esperimento Il presente studio è stato effettuato in laboratorio durante il mese di luglio 2005. L’approfondimento sulla task analysis esposto nel primo capitolo è stato orientato alla estrazione di alcuni concetti fondamentali sui quali basare le misurazioni durante la fase sperimentale. Questi concetti meritano di essere elencati e definiti: • Detection : la distanza alla quale il conducente riesce a percepire un’oggetto anche senza riuscire a riconoscerlo. • Recognition : la distanza alla quale un’oggetto può essere visto e identificato. • Lane Keeping: la capacità del conducente di mantenere l’auto lungo la corretta traiettoria disegnata dalla carreggiata. Si tratta del più importante skill costituente la guida, e all’interno della simulazione implementata in questo studio, è stato simulato da un task di tracking su uno stimolo mobile, per motivi che saranno chiariti più avanti. • Tracking: Letteralmente “tracciare”, o “seguire la traccia”. Si tratta di un compito spesso usato in esperimenti di psicologia della percezione e psicologia cognitiva, consiste nel seguire i movimenti di uno stimolo visivo. L’obiettivo del test è dunque quello di dimostrare come, durante lo svolgimento regolare dell’attività di guida, simulato come vedremo da un task primario di tracking, la detection e il riconoscimento di ostacoli ed oggetti all’interno di un’HUD, simulate da un task secondario durante l’esperimento, sono non soltanto facilitate da uno spostamento percettivo dell’attività di risposta (dal pieno e unico coinvolgimento della visione periferica, all’interessamento di capacità simboliche come la discriminazione di diversi tipi di segnale acustico) che segue al presentarsi di un ostacolo, ma risultano interferire in modo trascurabile sulla performance visiva e, in generale, sull’esecuzione dei sotto-compiti che strutturano il task di guida di un’automobile. 56
2.1 I quesiti di questa ricerca Le evidenze sperimentali che si cerca di ottenere sono perciò riconducibili ai seguenti quesiti: • Come interferiscono al livello percettivo e cognitivo attività che richiedono lo stesso set di risorse visive durante la guida? • È possibile che un sistema NVES supporti la sicurezza nella guida notturna senza introdurre a sua volta variabili di rischio derivanti dalla dispersione di risorse attenzionali? • È possibile che diverse configurazioni dell’interfaccia del sistema di night vision risultino positivamente significative nella detection e nel riconoscimento di ostacoli in movimento durante la guida notturna? • È ipotizzabile che al variare delle configurazioni dell’interfaccia ci sia un incremento consistente nell’apprendibilità dei codici usati, che riduca ulteriormente il carico cognitivo apportato dall’introduzione dell’HUD?10
Oltre alle evidenze sperimentali derivanti dalle misurazioni oggettive saranno esplorate variabili di gradimento soggettivo riconducibili ai seguenti quesiti: • Che grado di interesse e di curiosità suscita in una popolazione di soggetti la possibilità di usufruire di un sistema di supporto alla guida come quello simulato in questa sede? • Quali sono le soluzioni di design dell’interfaccia che risultano maggiormente usabili e user-friendly? • Le modalità di interazione col sistema sono quelle attese? • Come viene percepito dai soggetti lo sforzo conseguente all’introduzione di una tecnologia di questo tipo all’interno di un’attività così consolidata come la guida. 10
a questo quesito non corrisponderranno evidenze sperimentali oggettive, bensì solo dati estratti dalle interviste ai partecipanti al test. Si cercherà in ogni caso di porre le basi per approfondimenti mirati a chiarire la relazione fra codici percettivi usati e facilità di apprendimento e risposta. 57
3. Esperimento Nei prossiimi paragrafi sarà esposta una descrizione dettagliata dell’esperimento, sia per quanto riguarda la struttura teorica (articolazione dei task, classificazione dei warning, etc.), sia per quanto riguarda le componenti realizzative (apparato, materiali, etc.).
3.1 Scenario11 Il soggetto interagisce con un video quicktime che ha la funzione di simulare una situazione di guida. Il video è proiettato sullo schermo di un pc e riproduce uno scenario di guida notturna in una strada rurale scarsamente illuminata. Il soggetto dell’esperimento interagisce col video mediante un volante da game-consolle e relativa pedaliera; sul punto più alto del volante verrà fissato un puntatore laser. Prima dell’inizio della performance i sogg. verranno istruiti sulla natura dell’esperimento e sui task da eseguire. L’esperimento si basa sulle performance relative a due task simultanei e, seguendo le linee guida del multiple resource model, si propone di indirizzare la progettazione di un setting sperimentale capace di simulare l’attività di guida nelle sue componenti percettivo-cognitive. L’esperimento è volto quindi a testare l’efficacia di diversi tipi di warning rispetto al sistema di vision enhancement studiato, e di rilevare misurazioni sufficientemente precise sulla loro capacità distrattiva sul conducente.
11
L’esperimento descritto in queste pagine è stato realizzato prendendo spunto dall’articolo di
Bossi L. et al; (1997): The Effect of Vision Enhancement Systems on Driver Peripheral Visual Performance. In "Ergonomics and Safety of Intelligent Driver Intefaces" 58
I sogg. dovranno confrontarsi con quattro condizioni sperimentali differenziate in base alla strategia di warning utilizzata. In ognuna delle condizioni I sogg. dovranno eseguire i seguenti task (nella figura 3.1 è riprodotto un frame del video nel momento in cui appaiono i diversi stimoli da rilevare).
Fig. 3.1: frame estratto dal video dell’esperimento. In basso a sinistra la simulazione di Head Up Display riproduce la scena reale con visione schiarita e presentazione di warning visivo. La luce rossa che appare sull’auto al centro del video grande rappresenta l’accensione dello stop.
59
3.1.1 Task 1 Il sogg. del test deve seguire un’automobile ripresa costantemente nel video (ad una distanza più o meno di 10 metri) lungo tutto il tragitto riuscendo a puntarne la targa con la luce del laser montato sul volante (in letteratura questo tipo di task è denominato “car following”). Inoltre viene richiesto al sogg. di rilevare l’accensione degli Stop dell’auto antistante (che verranno attivati in alcuni momenti critici del percorso) premendo uno dei pedali a disposizione. Ogni volta che il sogg. perderà il tracking dell’auto gli verrà attribuito un errore, allo stesso modo se non rileverà entro un tempo limite (di qualche secondo) l’accensione degli stop.
3.1.2 Task 2 Questo task è strettamente connesso alle capacità del sistema di Vision Enhancement. Infatti si presuppone che il sistema sia in grado di rilevare e mostrare ostacoli (in particolare pedoni) in condizioni di visibilità scarsa e di allertare il conducente dell’auto tramite un’appropriata strategia di warning. Al sogg. del test è richiesto di rilevare e riconoscere nel minor tempo possibile il target mostrato dal sistema all’interno del display simulato, mediante la pressione sul secondo dei pedali in uso e il riconoscimento vocale del tipo di target (ad es. mentre il sogg. procede con il task 1 avviene la presentazione di uno stimolo-target, in quel momento dovrà premere il pedale stabilito e al tempo stesso dire a voce alta di che tipo di stimolo si tratta a seconda, come vedremo avanti, delle condizioni sperimentali).
60
3.2 Classificazione dei warning La strategia di warning è basata sui dati comunemente rilevabili dal sistema di Vision Enhancement: • La posizione dell’ostacolo rispetto alla traiettoria del nostro veicolo • La grandezza dell’ostacolo (quindi se si tratta di un pedone o di un veicolo) A partire da questi dati la classificazione delle situazioni critiche è strutturata su due livelli di criticità: • INFORMATIVE nel caso in cui l’ostacolo si trova in una posizione tale da non presentare un pericolo concreto di collisione (lateralmente rispetto alla nostra traiettoria) e ad una distanza sufficiente ad eseguire una manovra preventiva. Nel nostro caso come, abbiamo visto, sono stati associati a questa categoria segnali stradali. • IMMINENT nel caso in cui l’ostacolo si trova sulla nostra traiettoria di marcia e la sua distanza presenta un elevato grado di pericolosità. In questo caso l’associazione è relativa alle auto provenienti in senso opposto. In ognuno di questi due livelli di pericolosità verranno adottate diverse soluzioni di design (colore e forma dei warning visivi, modulazione di alcune variabili acustiche nei warning sonori).
61
3.3 Caratteristiche dei task e agganci teorici Nella figura 3.1 vengono schematicamente rappresentate le caratteristiche dei task psico-percettivi sopra esposti in relazione al Multiple Resource Model.
Processing Codes
Linguistico-simbolici
Analogico-spaziali
Processing Stages Stadio Iniziale
Task1: Follow the car
(Attività Percettivo-cognitive)
Task2: Attentional SwitchPeripheral Vision
Task1: Follow the car
Evento critico su T2
Stadio Ritardato (Attività di risposta)
Task2 : Rilevamento e riconoscimento del segnale acustico
(Task2: Rilevamento visivo ostacoli)
Task1: Premere pulsante (in caso di stimolo) Task2:
•
Rilevamento visivo ostacoli
•
Premere pedale B
Fig.3.2: Tabella di riferimento del Multiple Resource Model
62
I task richiesti dalla simulazione concorrono durante lo stadio iniziale di esecuzione alle medesime risorse di tipo analogico-spaziali (visione centrale e periferica; attività di controllo spaziale rispetto alla presentazione di stimoli visivi). In condizioni standard le diverse attività di elaborazione e di risposta di eventi critici inattesi devono in ogni caso ricorrere a risorse dello stesso tipo; la nostra ipotesi prevede invece uno spostamento dell’elaborazione del tipo di evento critico verso codici di processamento simbolici e in generale verso diverse modalità di processamento. In tal modo un’attivita di reazione al pericolo come può essere un frenata più o meno brusca in seguito al presentarsi improvviso di un pedone oppure un cambio improvviso di direzione al fine di evitare un animale che attraversa la strada, riescono ad essere attivate parallelamente al mantenimento del controllo complessivo dell’auto all’utilizzo della visione periferica per eventi esterni all’autovettura e in generale allo svolgimento di altri subtask della guida. Ci si aspetta cioè che il sistema riesca a migliorare le performance di timesharing e abbassare le probabilità di errore nel tipo di risposta al rischio.
63
4.
Metodo
L’esperimento si basa sulle performance relative a due task simultanei, seguendo le linee guida del multiple resource model. In seguito all’analisi di questo modello teorico è stata stilata una tabella (fig.3.1) che prende in considerazione i task richiesti a partire dalle dicotomie illustrate (processing stage e processing codes)12, al fine di indirizzare la progettazione di un setting sperimentale capace di simulare l’attività di guida nelle sue componenti percettivo-cognitive. L’esperimento si propone quindi di testare l’efficacia di diversi tipi di warning rispetto al sistema di vision enhancement studiato, e di rilevare misurazioni sufficientemente precise sulla loro capacità distrattiva sul conducente.
4.1 Partecipanti Il test è stato somministrato ad un totale di quaranta soggetti (venti uomini e venti donne) studenti dell’università di Siena, di età compresa fra i diciannove e i trentadue anni. Il requisito necessario alla partecipazione all’esperimento è stato il possesso di una regolare patente di guida europea. I partecipanti sono stati divisi in quattro diversi gruppi corrispondenti alle quattro diverse condizioni sperimentali e assegnati al proprio gruppo con modalità random. Gli altri dati richiesti sono stati, oltre ai normali dati anagrafici, l’altezza, eventuali difetti di vista, gli anni da cui si possiede la patente di guida, ed eventuali esperienze precedenti con sistemi per il supporto alla guida notturna
12
Cap.1 pp.17-19 64
(nessuno dei soggetti ha risposto affermativamente a questa domanda, che è stata scartata dal set di dati analizzati). A partire dai dati raccolti il campione di soggetti analizzato è risultato composto come mostrano i seguenti grafici:
Composizione Gruppi d'Età
25
35
18-25
26-35
Fig. 3.3: distribuzione del campione per gruppi d’età
Composizione per Anni di Guida 6 14
20 0-4
5\9
10\15
Fig. 3.4: distribuzione del campione per anni di guida
65
Composizione per Difetti di Vista 1 4
12
3
_
CL
GL
Gstigma
Fig. 3.5: distribuzione del campione per difetti di vista13
4.1.1 Disegno Sperimentale Il disegno sperimentale scelto è stato perciò di tipo beetween subjects (10 x 4) . Ognuno dei partecipanti, assegnato casualmente ad uno dei quattro gruppi, ha dovuto svolgere il test nella condizione corrispondente.
4.1.2 Condizioni sperimentali Le quattro diverse condizioni sperimentali si differenziano in quanto a modalità di warning usata:
• Condizione di controllo. in questa condizione il sogg. non usufruisce della simulazione di display VES, ciò implica che il task 2 venga riadattato. Ai sogg. verrà dunque chiesto di rilevare gli stessi ostacoli delle altre 13
nomenclatura difetti di vista: “_” = nessun difetto; “CL” = miopia/lenti a contatto; “GL” =miopia/occhiali; “Gstigma” =astigmatismo/occhiali 66
condizioni, posti negli stessi punti del percorso, in condizioni di visibilità più scarsa e senza l’aiuto del display né dei warning. Il sogg. dovrà inoltre localizzare l’ostacolo sempre nel minor tempo possibile (quindi in presenza di un ostacolo di tipo INFORMATIVE premere il pedale 1 e dire a voce alta in che posizione si trova rispetto al suo veicolo); questo al fine sia di misurare l’efficacia del sistema confrontandolo con performance in cui non è presente, sia al fine di rendere il più possibile equiparabili le performance nelle varie condizioni.
• Condizione “solo display”. In questa condizione i sogg. usufruiscono del display, quindi di una visione migliorata del percorso notturno, ma non ci sono warning di nessun tipo. Il task 2 è identico alla condizione di controllo con la differenza che ora i sogg. possono presumibilmente rilevare i target guardando il display.
• Condizione “visual warning”. In questa condizione siamo in presenza di una strategia di warning solo visivo. Ad ognuna delle due situazioni di pericolo viene associato un segnale (icona lampeggiante) di diverso colore: un triangolo di color arancio con un punto esclamativo bianco nel mezzo per gli eventi di tipo INFORMATIVE; un cerchio rosso con un punto esclamativo bianco nel mezzo per gli eventi di tipo IMMINENT.
• Condizione “ multimodal warning ”. In questo caso alla condizione 3 vengono aggiunti dei warning acustici diversi nei due diversi casi per tono e frequenza. I warning acustici verranno presentati con qualche decimo di secondo di anticipo rispetto a quelli visivi. In questa condizione e nella precedente il task 2 viene eseguito come illustrato all’inizio.
67
4.1.3 Materiale usato Il video usato per la simulazione è stato girato nel mese di settembre del 2004 sulla strada S.2 Cassia nel tratto fra Siena e Monteriggioni. Le riprese sono state effettuate in orari compresi fra le 19 e le 21 per riuscire ad ottenere un livello soddisfacente di oscurità che al tempo stesso non impedisse di scorgere gli ostacoli necessari al test (auto e segnaletica), e di distinguere con sufficiente chiarezza la sagoma dell’auto ed i limiti della strada. La videocamera usata è stata unita ad una base di materiale plastico con del nastro adesivo al fine di assicurarne la maggiore stabilità possibile; in seguito il blocco camera + base è stato fissato su cruscotto di un’Opel Astra SW, in posizione corrispondente al volante. È stata scelta questa posizione al fine di avere, durante le riprese, un feed-back costante della scena e del posizionamento dell’auto da seguire – una Ford Fiesta di colore bianco -, inoltre in questo modo si è riusciti ad avere una soddisfacente ampiezza del campo visivo che potesse comprendere l’intera larghezza della strada, senza correre il rischio di perdere in alcune curve porzioni importanti della carreggiata opposta. In seguito le riprese sono state selezionate per estrarne pezzi che rispondessero alle necessità fondamentali dell’esperimento: • durata di 3-5 minuti circa • qualità soddisfacente in quanto a visibilità, luminosità e contrasto • un numero uguale di eventi critici, quindi automobili e segnali stradali il montaggio del video è stato effettuato con Final Cut Pro HD , le riprese sono state tagliate in base ai parametri appena esposti, per poi essere sottopste a dei filtri che le rendessero maggiormente aderenti alle esigenze sperimentali. In base ai quattro tipi di video è stata poi aggiunta al video principale la simulazione di display, anch’essa filtrata per rappresentare nel modo più realistico possibile il tipo di immagine fornita dal sistema di vision enhancement. Sono quindi state aggiunte le sovrimpressioni delle icone (per le condizioni 3 e 4) e i segnali acustici corrispondenti agli eventi 68
INFORMATIVE e IMMINENT . nella figura 3.2 nella pagina successiva, sono elencati il numero degli stimoli-evento presentati durante il video, l’istante di apparizione in video e la loro durata in secondi. La compressione necessaria al software per essere lanciato e usato dal software di data logging è stata effettuata con MPEG Streamclip che ha convertito i quattro file in formato mpg2. Montaggio e compressione dei video sono stati effettuati su un computer Apple PowerBook G4 15’. La durata complessiva del video nella sua versione finale è stata di 3’; 33’’; 10’’’ Il computer usato per la somministrazione del test è stato invece un PC Toshiba con schermo a 16’. La strumentazione necessaria alla simulazione si è basata essenzialmente su un volante con pedaliera per videogame. È stato usato un volante “Racing
Wheel Formula GP” della Logitech, completo di porta di collegamento USB e driver di interfacciamento PC.
69
Tipo di evento
Istante di
Durata
presentazione 1
Warning Imminent
00:17:12
00:02:58
2
Stop
00:25:24
00:04:17
3
Warning Imminent
00:42:09
00:03:06
4
Stop
00:51:19
00:04:18
5
Warning Informative
00:53:01
00:03:15
6
Warning Imminent
01:14:05
00:01:11
7
Stop
01:17:12
00:02:04
8
Warning Imminent
01:28:07
00:06:00
9
Stop
01:55:13
00:04:18
10
Warning Informative
02:01:05
00:08:08
11
Warning Informative
02:11:09
00:03:15
12
Stop
02:15:19
00:04:18
13
Warning Imminent
02:23:04
00:02:16
14
Warning Informative
02:34:11
00:03:15
15
Warning Informative
02:39:12
00:03:07
16
Warning Imminent
02:59:06
00:04:16
17
Stop
03:00:09
00:04:18
18
Warning Informative
03:05:24
00:04:16
19
Warning Informative
03:14:10
00:04:16
20
Warning Imminent
03:21:05
00:07:03
21
Stop
03:25:15
00:04:18
fig.3.2 Tabella descrittiva degli eventi-stimolo
70
4.1.4 Descrizione dell’apparato sperimentale Il soggetto interagisce con un video in formato mpg2 che ha la funzione di simulare una situazione di guida. Il video è proiettato sullo schermo di un pc14 e riproduce uno scenario di guida notturna in una strada rurale scarsamente illuminata. Il soggetto dell’esperimento interagisce col video mediante un volante da game-consolle e relativa pedaliera. Il volante controlla i movimenti di un piccolo cursore rosso, che si sposterà sull’asse orizzontale dello schermo fungendo da feed-back visivo per l’esecuzione del task1 Prima dell’inizio della performance i sogg. sono stati istruiti sulla natura dell’esperimento e sui task da eseguire.
4.2 Procedura L’esperimento si è diviso in tre fasi fondamentali: la prima di training, la seconda di familiarizzazione col sistema, la terza di esecuzione del test e la quarta di risposta al questionario e debriefing. La terza che ha coinciso con l’esecuzione del test vero e proprio. La quarta e ultima in cui il sogg. ha dovuto riempire il questionario sull’usabilità del sistema. Durante questa fase sono state raccolte delle brevi impressioni relative alle conversazioni tenute in seguito allo svolgimento del test.
14
HP Pentium 4 con Display panoramico wxga bright view alta definizione da 15,4’’ 71
4.2.1 Training Durante la prima fase di training il soggetto è stato introdotto al test. Sono stati forniti accenni sul campo di indagine in questione e sul tipo di tecnologia oggetto di studio. In seguito c’è stata una conversazione di qualche minuto in cui venivano esposte le caratteristiche dell’apparato e della strumentazione da usare, venivano chiariti i concetti di tracking , detection, recognition , e la definizione di warning strategy all’interno dell’approccio usato. È stato letto poi un protocollo di una pagina15 in cui si spiegavano con esattezza le fasi del test e i task paralleli da svolgere. Lo scopo principale di questo tipo di training iniziale è quello di consentire a tutti i soggetti di approcciarsi all’esecuzione del test con una base di conoscenze il più possibile standardizzata. Alla fine della conversazione di training il soggetto veniva invitato a riempire la prima sezione del questionario relativa ai dati anagrafici e la schermata introduttiva del software di data logging con i miedesimi dati.
4.2.2 Familiarizzazione col sistema e Practice Lap In questa fase il soggetto è stato sottoposto ad un practice lap al fine di acquisire un livello base di dimistichezza cognitiva e motoria necessario all’esecuzione significativa del test. I motivi di questa scelta sono emersi durante le fasi precedenti all’inizio dei test, in cui ci si è resi conto delle difficoltà oggettive di alcuni soggetti di sessioni pilota a raggiungere un grado minimo di comprensione e familiarità con le componenti base dei diversi task, quindi dal tipo di oggetto da
15
il documento differiva nei diversi gruppi sperimentali solo per quanto riguarda la descrizione degli stimoli che sarebbero occorsi in corrispondenza degli eventi critici. 72
riconoscere, al pedale o bottone da premere, passando per il tracking dell’auto etc.. Dunque la scelta di utilizzare alcuni stralci di girato scartati nella fase realizzativa per il montaggio di un video della durata di dieci minuti circa durante il quale i soggetti si sarebbero cimentati con gli stessi task e le stesse interazioni col sistema. L’obiettivo principale è stato perciò quello di consentire una familiarizzazione con il tipo di interazione richiesta, con la strumentazione usata (non tutti hanno rapporti familiari con periferiche da videogame anche se si tratta di riproduzioni di volanti d’auto) e soprattutto con i tipi di stimoli da identificare.
4.2.3
Esecuzione della prova
Durante lo svolgimento della prova sono stati invitati i soggetti al cosiddetto
cognitive walkthrough, ovvero a pensare a voce alta durante l’interazione col video e a esprimere perplessità, incertezze o osservazione di qualunque tipo al riguardo. In diversi casi si è dovuto invitare i soggetti a mantenere una posizione di guida corrretta, quindi entrambe le mani sul volante e lo sguardo fisso sul video, in conseguenza di abitudini non proprio ortodosse degli stessi soggetti durante la normale guida.
73
4.2.4 Questionario Alla fine della prova ai soggetti sono stati posti dei questionari rivolti a indagare alcune variabili soggettive di interesse rilevante per i nostri obiettivi. Gran parte del questionario è composto da scale Likert sull’usabilità, sulla facilità di interazione col sistema e di esecuzione dei task, sulla quantità di sforzo mentale richiesta dal test e sull’utilità percepita nei confronti della strategia di warning implementata. Dopo ogni risposta su scala likert veniva richiesto ai soggetti un breve commento nell’eventualità di basso gradimento. Altre domanda aperte sono state poste al fine di raccogliere ulteriori ossservazioni di qualsiasi tipo e suggerimenti da parte dei partecipanti. Il questionario completo è riportato nelle appendici.
74
5. Variabili 5.1 Dipendenti Le variabili dipendenti fanno riferimento ai due diversi task:
5.1.1 Task1 • Numero di errori sul tracking dell’auto antistante (T1 misses) • Tempi di reazione sul rilevamento degli stop • Errori di mancato rilevamento degli stop.
5.1.2 Task2 • Errori nel rilevamento e/o riconoscimento dei tipi di target • Tempi di reazione sul riconoscimento e sul rilevamento dei target.
5.1.3 Misurazioni soggettive • Questionario relativo all’efficacia percepita, all’usabilità e al gradimento della tecnologia. • Impressioni estratte mediante cognitive walkthrough • Impressioni tratte dal debriefing finale
75
5.2 Indipendenti • Tipo di warning • Ordine di presentazione degli stimoli (stop dell’auto da seguire - target presentat ). Gli stimoli presentati saranno 21 (7 target imminent, 7 target
informative, 7 accensioni degli stop). Al fine di valutare e misurare con sufficiente precisione la distrazione dei sogg. gli stimoli delle due classi verranno presentati sia simultaneamente (ad es. un target di tipo IMMINENT si presenta nello stesso momento in cui vengono accesi gli stop dell’auto antistante, in questo caso diventa interessante studiare le reazioni dei sogg. relativamente alla precedenza data a due diversi tipi di input esterno); sia a breve distanza l’uno dall’altro ( prima il target e subito dopo gli stop e viceversa); sia indipendentemente.
5.3 Misurazioni della performance Come sarà approfondito nel capitolo seguente le performance dei soggetti verranno raggruppate a partire dalla condizione sperimentale affrontata nel test e analizzate sia confrontando le medie delle perfomance dei diversi gruppi, sia effettuando un’analisi delle varianze. Saranno inoltre effettuati dei confronti in base alla distribuzione campionaria della differenza fra medie al fine di stabilire il grado di significatività dei risultati ottenuti confrontando uno ad uno i singoli gruppi sui singoli stimoli presentati durante l’esperimento. Si tenterà, infine un calcolo dell’Effectivenes score a partire dai dati sugli errori commessi dai componenti dei diversi gruppi sperimentali.
76
6. Ipotesi attesa A partire dalle premesse teoriche esposte l’ipotesi sperimentale attesa sarà di otenere delle medie decrescenti sui valori relativi alle performance di detection, quindi tempi maggiori nelle reazioni agli stimoli nel gruppo di controllo e man mano a decrescere fino al gruppo 4 in cui sono attese le medie più basse. Di ottenere un minor numero di errori sul riconoscimento degli stimoli relativi al task 2 (auto e segnali). Di ottenere al tempo stesso un numero di errori e valori medi sui tempi di reazione anch’essi decrescenti per quanto riguarda il task 1. in tal caso una verifica dell’ipotesi confermerebbe il minor grado di interferenza dei task legati alla presenza del display con i normali sub-task di guida.
77
78
Capitolo 4
1. Risultati I dati ottenuti sono stati analizzati al fine di evideziare le differenze specifiche fra i singoli gruppi sperimentali rispetto alle variabili dipendenti. A causa della relativa scarsità del numero di soggetti per gruppo sperimentale sono stati effettuati dei t-test al fine di stabilire la significatività delle differenze fra le medie delle diverse perfomance. Una Analisi della Varianza (ANOVA) è stata effettuata in seguito per confermare i dati sulla significatività delle differenze fra le performance.
1.1 Task 1 I dati relativi al task 1 si riferiscono a tre variabili: i tempi di reazione (TdR) sulla rilevazione degli stop dell’auto antistante (misurati in millesimi di sec.); il numero di mancati rilevamenti; e il numero di errori sul tracking dell’auto antistante. Queste misurazioni sono servite a fornire un riferimento di alcuni dei compiti che la guida richiede (lane keeping e
feed-back sulle azioni dei veicoli
prossimi). Il deterioramento o l’incremento delle performance relative a queste variabili ha offerto indicazioni estremamente interessanti sulle capacità distrattive dell’Head Up Display.
79
1.1.1 Tempi di Reazione Per quato riguarda i tempi di reazione (TdR) sulla rilevazione degli stop dell’auto antistante, tutti i dati ottenuti confortano l’ipotesi
di un netto
miglioramento delle performance nel gruppo 4. In presenza di warning acustici il task primario viene svolto con più prontezza rispetto a tutte le altre condizioni sperimentali (Tab. 4.1). Di particolare interesse il miglioramento rispetto al gruppo 3 (t(3,306)= 9,170 p<,001) e soprattutto rispetto al gruppo 2 (t(3,306)= 9,945 p<,001), che dimostra come il distrattore visivo venga assolutamente neutralizzato dall’introduzione di uno stimolo che permetta di mantenere l’attenzione focalizzata interamente sul task principale. Sorprendenti invece i dati relativi al gruppo di controllo che mostra tempi di reazione migliori sia al gruppo 2 che al gruppo 3. questo fatto è stato interpretato come una insufficiente capacità del display e dei warning visivi di preservare l’attenzione del guidatore da fenomeni di cognitive tunneling. Il gruppo di controllo, in mancanza di sistemi di supporto ha mostrato chiaramente una migliore capacità di focalizzare le risorse attenzionali sulla guida. Il grafico delle medie evidenzia l’andamento delle performance: i gruppi 2 e 3 forniscono le prove peggiori senza tuttavia presentare fra loro differenze significative. Il display distrae i soggetti su questo task anche se fornito di warning visivi (Fig. 4.2).
80
Levene's Test for Equality of Variances
Media TdR Stop
t-test for Equality of Means
F
t
Sig. (2-tailed)
Mean Difference
1 vs 2
,752
-3,298
,004
-152,5850
1 vs 3
,323
-3,240
,005
-157,9150
1 vs 4
9,673
4,591
,000
176,5750
2 vs 3
,042
-,119
,906
-5,3300
2 vs 4
4,169
9,945
,000
329,1600
3 vs 4
3,886
9,170
,000
334,4900
Tab. 4.1: t-test sui TdR relativi allo stimolo “stop” .
1200
1100
Mean of Medie RT Stop
1000
900
800 1
2
3
4
Gruppo S per imenta le
Fig. 4.2: Grafico delle medie sullo stimolo “stop”: sull’asse x sono presentati i diversi gruppi sperimentali; sull’asse y le medie dei TdR sul task 1 espresse in millisecondi.
81
1.1.2 Errori A rafforzare le conclusioni del precedente paragrafo intervengono i dati relativi agli errori sul task 1: i mancati rilevamenti degli stop (misses)16 e gli errori sul tracking dell’auto antistante (Tab. 4.3). Nel caso dei mancati rilevamenti i miglioramenti più evidenti si notano nel gruppo 4 in cui nessun soggetto ha commesso errori (Fig. 4.4a), massima quindi l’incidenza del segnale acustico che anche qui mostra i miglioramenti più marcati nei confronti del gruppo 2 (t(2,423)=3,545; p<,01). Si nota come degradino le performance del gruppo di controllo che nonostante offra buoniTdRcompie un numero di errori piuttosto alto, anche se non statisticamente significativo rispetto ai gruppi 2 e 3. I dati sulla perdita del tracking, invece, riaffermano le difficoltà introdotte dall’HUD privo di warning acustici rispetto ai subtask della guida. Si nota come i gruppi 2 e 3 mostrino le difficoltà maggiori a mantenere il tracking (Fig. 4.4b), anche se con differenze significative a favore del gruppo 3 (t(1,683)=2,199; p<,05). Il gruppo 4 mostra le migliori performance rispetto al gruppo 2 che risulta essere il peggiore (t(2,704)=7,620; p<,001).
16
Si ricorda che per mancato rilevamento, quindi errore, si considera un tempo di detezione superiore ai 2 sec. 82
Levene's Test for Equality of Variances
Misses
Perdita Tracking
t-test for Equality of Means
F
t
Sig. (2-tailed)
Mean Difference
1 vs 2
1,142
-,379
,709
-,20
1 vs 3
,235
,309
,761
,20
1 vs 4
136,125
2,905
,009
1,10
2 vs 3
1,210
,624
,541
,40
2 vs 4
11,257
3,545
,002
1,30
3 vs 4
15,834
1,711
,104
,90
1 vs 2
3,821
-6,096
,000
-3,40
1 vs 3
,235
,309
,761
,20
1 vs 4
,345
1,423
,172
,60
2 vs 3
5,163
2,199
,041
1,20
2 vs 4
8,733
7,620
,000
4,00
3 vs 4
,179
6,905
,000
2,80
Tab. 4.3: t-test sugli errori relativi al task1.
83
1,4 1,2 1,0 ,8
Mean of Errori Stop
,6 ,4 ,2 0,0 1
2
3
4
Gruppo S per imenta le
Fig. 4.4 a: : Grafico delle medie sugli errori relativi al task1 : T1 misses (mancate rilevazioni degli stop). Sull’asse x sono presentati i gruppi sperimentali, sull’asse y le medie delgi errori commessi.
5
4
Mean of Perdita Tracking
3
2
1
0 1
2
3
4
Gruppo S per imenta le
Fig. 4.4 b: Grafico delle medie sugli errori relativi al task1: numero di perdite del tracking. Sull’asse x sono presentati i gruppi sperimentali, sull’asse y le medie delgi errori commessi.
84
1.2 Task 2 Vediamo ora l’esito dei test per quanto riguarda il task 2, quindi la rilevazione e riconoscimento degli oggetti-target presentati durante il percorso17 (automobili provenienti in senso contrario, e segnali stradali verticali), associate nelle condizioni sperimentali 3 e 4 a due classi di warning. I dati esposti si riferiscono anche in questo caso alle grandezze dei tempi di reazione e dei misses rispetto alla presentazione di questi stimoli. Verranno affrontate separatamente le analisi dei dati relativi alle due classi di oggetti-target, perché, come vedremo, ci porteranno ad alcune osservazioni distinte.
17
I dati sugli errori di riconoscimento vocale non verranno esposti per la scarsa rilevanza statistica. Il compito di riconoscimento vocale è stato effettuato correttamente dalla quasi totalità dei soggetti in tutte le condizioni edi in tutti i casi, rimaneva tuttavia necessario ai fini dell’esperimento in quanto rappresentava un vincolo necessario allo spostamento dell’attenzione selettiva e alla elaborazione della discriminazione visiva delle due differenti classi di stimoli. 85
1.2.1 Tempi di Reazione su stimolo “auto” I tempi di reazione sulla rilevazioni delle automobili dercrescono a partire dal gruppo di controllo (Fig. 4.6). In questo caso si nota (Tab. 4.5) come i vantaggi maggiori vengano introdotti dai warning acustici rispetto al display semplice (t(3,306)= 6,736; p< ,001), e da quelli iconici (t(3,306)= 4,318;
p< ,001).
Le prestazioni del gruppo di controllo degradano fortemente rispetto al task 1, fatto del tutto comprensibile visto che i target risultavano molto meno visibili degli stop. Un’interpretazione possibile per lo scarso grado di significatività e dei warning acustici sulle auto rispetto agli altri task dell’esperimento, potrebbe essere che le auto, essendo oggetti in movimento, risultano visibili e attraggono fortemente lo sguardo, anche se con alcuni istanti di ritardo (infatti i tempi di reazione medi sono più alti degli altri target). Infatti i sogg. (che come ricordiamo hanno svolto una prova di pochi minuti) non hanno avuto il tempo di sviluppare una sufficiente fiducia nelle capacità di supporto del display. Di conseguenza mantenendo lo sguardo prevalentemente sulla scena “reale”, hanno impiegato più tempo per rilevare le auto, meno visibili. Si spiegherebbe così anche la forte incidenza delle icone presentate sul display, che sono facilmente rilevabili anche mediante la visione periferica.
86
Levene's Test for Equality of Variances F
t
Sig. (2-tailed)
Mean Difference
1 vs 2
2,299
,795
,437
226,9230
1 vs 3
,451
4,285
,000
1375,7940
1 vs 4
6,246
5,837
,000
1561,3570
2 vs 3
,343
4,318
,000
1148,8710
2 vs 4
1,811
6,736
,000
1334,4340
3 vs 4
2,268
,752
,462
185,5630
Tab. 4.5: t-test sui TdR relativi allo stimolo “auto”.
3000
2000
Mean of Media TR Auto
Media TdR Auto
t-test for Equality of Means
1000
0 1
2
3
4
Gruppo S per imenta le
Fig. 4.6: Grafico delle medie dei TdR sullo stimolo “auto”
87
1.2.2 Errori su stimolo “auto” Questi dati integrano il discorso precedente sulla natura del target “auto” (Tab. 4.7) . Anche in questo caso il fattore più significativo è il warning acustico (t(3,306)= 5,582; p<001) rispetto al display semplice, azzerando il numero di errori (Fig. 4.8), ovvero i soggetti appartenenti a questo gruppo rilevano sempre le auto sotto i 3 sec. (tempo limite stimato perché il task sia ritenuto valido). Ottimi anche i dati sulle prove del gruppo 3 (t(3,306)= 3,882; p=001) relativamente al gruppo 2. Naturalmente i dati sui TdR e quelli sugli errori sono parte di un unico discorso, è evidente infatti che se i risultati sui TdR di un gruppo risultano migliori in maniera poco significativa rispetto a quelli di un altro gruppo, ma quelli sugli errori mostrano un miglioramento radicale, la variabile introdotta può ritenersi soddisfacente ai fini dell’esperimento. Nel nostro caso si può asserire sicuramente che l’introduzione dei segnali visivi porta dei buoni miglioramenti sulle performance di rilevazione dl target “auto”, anche se il warning iconico risulta con chiarezza il fattore di principale beneficio.
88
Levene's Test for Equality of Variances F
t
Sig. (2-tailed)
Mean Difference
1 vs 2
3,273
1,230
,234
,60
1 vs 3
13,270
4,142
,001
1,80
1 vs 4
38,893
5,161
,000
2,10
2 vs 3
3,645
3,882
,001
1,20
2 vs 4
27,562
5,582
,000
1,50
3 vs 4
47,250
1,964
,065
,30
Tab. 4.7: t-test sugli errori relativi allo stimolo “auto”
2,5
2,0
1,5
1,0
Mean of Errori Auto
Errori Auto
t-test for Equality of Means
,5
0,0 1
2
3
4
Gruppo S per imenta le
Fig. 4.8: Grafico delle medie degli errori sullo stimolo “auto”
89
1.2.3 Tempi di Reazione su stimolo “segnale stradale” Le tabelle 4.9 e 4.10 illustrano i dati relativi ai tempi di reazione sui segnali stradali. Indubbiamente si tratta dei target più difficili da rilevare, sia per le sue caratteristiche fisiche (oggetti sottili, fermi, situati sul lato meno illuminato dall’auto), sia per le caratteristiche del video (le sagome risultavano molto poco distinguibili dallo sfondo, spesso composto da alberi e vegetazione). Per tali motivi si ritiene che i dati su questi tempi, siano i più significativi ai fini della valutazione reale della prova, infatti la capacità del sistema di migliorare la visibilità di oggetti di scarsissima visibilità corrisponde al valore aggiunto che un display di vision enhancement può introdurre. In effetti confrontando attentamente la tabella 4.9 con la 4.6 (relativa aiTdRsulle auto) si vede come in questo caso le performance si distribuiscano complessivamente su tempi migliori, smentendo le previsioni su una maggiore difficolta di rilevazione, e offrendo dei risultati piuttosto sorprendenti. In questo caso gli effetti maggiormente significativi risultano proprio dall’introduzione del display (t(1,683)=2,505; p<,05) e, nuovamente, dall’integrazione dei warning acustici che fanno registrare un abbassamento significativo delle medie dei tempi rispetto al gruppo2 (t(2,704)= 3,561 ; p<,005), e al 3 (t(1,683)=2,171; p<,05), confermando ulteriormente l’ipotesi sperimentale attesa.
90
Levene's Test for Equality of Variances
Media TdR Segnali Stradali
t-test for Equality of Means
F
t
Sig. (2-tailed)
Mean Difference
1 vs 2
14,803
2,505
,022
644,5200
1 vs 3
12,840
3,078
,006
803,5990
1 vs 4
28,088
4,478
,000
1093,6370
2 vs 3
,164
1,018
,322
159,0790
2 vs 4
2,537
3,561
,002
449,1170
3 vs 4
,585
2,171
,044
290,0380
Tab. 4.9: t-test sui TdR relativi allo stimolo “segnale stradale”
2000 1800 1600
Mean of Media TR Segnale
1400 1200 1000 800 600 1
2
3
4
Gruppo S per imenta le
Fig. 4.10: Grafico delle medie dei TdR sugli stimoli “segnale stradale”
91
1.2.4 Errori su stimolo “segnale stradale” Gli ultimi dati riguardano gli errori sulla classe di stimoli “segnali stradali”. In questo caso l’eloquenza dei numeri lascia poco spazio all’interpretazione (Tab. 4.11). I gruppi 3 e 4 non commettono alcun errore durante la prova (Tab. 4.12), offrendo miglioramenti significativi rispetto al gruppo di controllo (t(1,683)= 2,449 p<,05). In generale su questi target sono stati commessi pochi errori, anche in questo caso come per la classe di stimoli “automobili” il tempo massimo fissato per la rilevazione era di 2,5 sec.
92
Levene's Test for Equality of Variances
Errori Segnali Stradali
t-test for Equality of Means
F
t
Sig. (2-tailed)
Mean Difference
1 vs 2
,000
,372
,714
,10
1 vs 3
216,000
2,449
,025
,40
1 vs 4
216,000
2,449
,025
,40
2 vs 3
11,546
1,406
,177
,30
2 vs 4
11,546
1,406
,177
,30
3 vs 418
-
-
-
-
Tab. 4.11: t-test sugli errori relativi allo stimolo “segnale stradale”
,5
,4
Mean of Errori Segnale
,3
,2
,1
0,0 1
2
3
4
Gruppo S per imenta le
Fig. 4.12: Grafico delle medie degli errori sullo stimolo “segnale stradale”
18
Queste grandezze non sono calcolabili in quanto i valori di entrambi i gruppi su questo task sono risultati uguali a 0 93
2. Dati Soggettivi I dati soggettivi sono stati estratti dai questionari somministrati di cui si è parlato nel precedente capitolo. L’intera raccolta dei dati è presentata nell’appendice 2. In questo paragrafo ci limiteremo ad afffrontare le issues che hanno avuto i riscontri più significativi a partire dai questionari e dalle discussioni-intervista avute con i soggetti dell’esperimento.
2.1 Questionario e rating soggettivi • Usabilità I soggetti hanno valutato la strategia di warning multimodale come molto usabile (Tab 4.13) sia rispetto al display semplice (p<,05), sia rispetto al display con warning solo visivi (p<,05).
Q1 Su una scala 1 - 5, dove 1 è molto difficile e 5 è molto facile, come valuterebbe l’usabilità del sistema? 5 4,5 4 3,5 3 2,5 2 1,5 1 0,5 0
Gruppo2
Gruppo3
Gruppo4
Fig.4.13: Grafico domanda n.1 relativa all’usabilità percepita
94
â&#x20AC;˘ Workload Le valutazioni sul carico mentale sono state positive, come appare dal grafico in basso (Tab. 4.14), anche se i miglioramenti non hanno un riscontro statisticamente significativo. In questo caso si nota una stabilitĂ fra i dati provenienti dal gruppo di controllo e quelli del gruppo 2 ed un lieve miglioramento nella valutazione del gruppo 3 e del gruppo 4.
Q6 Utilizzando la scala qui sotto (vedi questionario), segni sulla linea verticale la quantitĂ di sforzo che Le ha richiesto la rilevazione degli ostacoli durante il percorso 60 50 40 30 20 10 0
Gruppo1
Gruppo2
Gruppo3
Gruppo4
Fig. 4.14: Grafico domanda n.6 relativa allo sforzo mentale
95
â&#x20AC;˘ Sicurezza percepita Importante notare come migliori la percezione di sicurezza in presenza di warning multimodali rispetto al gruppo 2 (t(1,684)=2,530; p <,05) e al gruppo 3 (t(1,684)=2,029; p=,05). Nel caso di questo quesito, come nel caso del quesito successivo sulla distrazione il soggetto si trovava di fronte a scale likert in cui doveva segnare il suo grado di accordo con le affermazioni riportate; ad unpunteggio alto corrispondeva scarsa condivisione dellâ&#x20AC;&#x2122;affermazione, e viceversa.
Q11.c Il sistema renderebbe piĂš sicuri nella guida nottuna di quanto non accadrebbe con i soli fari anabbaglianti 4 3,5 3 2,5 2 1,5 1 0,5 0
Gruppo2
Gruppo3
Gruppo4
Fig. 4.15: Grafico su domanda 11.c relativa alla sicurezza percepita
96
Stessi risultati si riscontrano anche per quanto riguarda la percezione di distrazione che i soggetti hanno sperimentato durante la prova. Di forte impatto, anche in questo caso, lâ&#x20AC;&#x2122;introduzione di warning acustici con notevoli miglioramenti nella valutazione sia rispetto al gruppo 2 (t(1,303)= 3,313; p<,01), che al gruppo 3 (t(1,684)=2,201; p<,05).
Q11.d Il sistema permette di guidare con sicurezza e senza distrazioni 5 4,5 4 3,5 3 2,5 2 1,5 1 0,5 0
Gruppo2
Gruppo3
Gruppo4
Fig. 4.15: Grafico su domanda q11.d relativa alla distrazione
97
2.2 Domande aperte I soggetti della prova hanno espresso le loro opinioni sul sistema testato in maniera più approfondita esprimendo dei commenti19 e rispondendo ad alcune domande aperte. Le risposte date dai componenti de gruppo 1 sono essenzialmente riconducibili alla scarsa visibilità degli ostacoli da rilevare, spesso i soggetti hanno avuto la sensazione di aver portato a termine la prova con scarsi risultati, lamentandosi della difficoltà di riconoscere soprattutto i segnali stradali, troppo nascosti e laterali rispetto al cono di luce dell’auto “virtuale” che essi conducevano. Nel gruppo 2 si incontrano i suggerimenti più cospicui su possibili integrazioni del display. Sia per quanto riguarda l’adattamento ad un maggior numero di situazioni critiche (quattro sogg. su dieci avrebbero integrato nel sistema la possibilità di supportare la visione durante la nebbia), sia per quanto riguarda integrazioni della strategia di warning (in sette casi su dieci si esprime il desiderio di poter disporre di un’allarme di avvertimento, in tre su sette si fa riferimento a warning di tipo acustico). I voti negativi riguardo alla facilità di detezione degli oggetti target hanno riguardato due fattori principali: le dimensioni del display, giudicate troppo ridotte da tre soggetti su dieci, e soprattutto il posizionamento del display; infatti sei dei dieci soggetti appartenenti al secondo gruppo ha ritenuto di dover spostare il display in modo da dover abbassare meno lo sguardo e ridurre l’ampiezza dello spostamento focale, anche a costo di coprire un’area maggiore della scena reale. Diffuse anche le critiche sulla distrazione, in particolare i soggetti hanno espresso dubbi sulla opportunità di concentrarsi troppo sulla rappresentazione della strada e poco sulla situazione reale, cosa che portebbe danneggiare notevolmente durante l’approccio alle curve. Alcune osservazioni interessanti
19
i commenti erano richiesti nel caso il voto espresso nella scala likert fosse stato inferiore al valore medio 98
sono emerse relativamente all’interazione fra distrazione e stile di guida del singolo utente, spesso le braccia del guidatore coprono l’intera area dello schermo durante le curve, momento in cui affiorano le difficoltà maggiori nello spostamento dello sguardo. Migliori i riscontri nel gruppo 3 per quanto riguarda la conferma delle aspettative sull’usabilità. Anche in questo caso si sono avuti degli ottimi suggerimenti, anche per quanto riguarda l’impostazione della prova, infatti quattro dei dieci soggetti hanno evidenziato come l’associazione fra oggetti e classi di warning richiedesse un tempo di apprendimento piuttosto lungo, elemento che durante la prova ha causato a degli errori soprattutto sui primi ostacoli. Diminuiscono in questo gruppo i commenti negativi sul posizionamento del display (due soggetti su dieci) e spariscono quelle sulle dimensioni ridotte. Tre dei soggetti hanno esplicitamente suggerito l’introduzione di warning tattili per ovviare alla distrazione che l’uso del display apporta inevitabilmente. Nel gruppo 4 non si sono praticamente avuti commenti negativi sull’ usabilità, due dei dieci soggetti hanno fatto riferimento alla difficoltà nello spostamento dello sguardo a causa dell’attrazione attenzionale causata dal suono dei warning, questo suono, secondo loro porterebbe il guidatore a spostare lo sguardo verso il display invece di diminuire la probabilità di distrazione. Altri commenti hanno riguardato la possibilità di introdurre un display a colori e di proiettare le icone e le immagini direttamente sul parabrezza. Il gradimento del sistema è stato in generale ottimo, così come i commenti raccolti riguardo alla facilità di coordinazione dei due compiti richiesti, ben sette soggetti hanno osservato dei miglioramenti nella loro prova col passare dei minuti, ritenendo di poter acquisire maggiore dimistichezza con tale sistema, nel caso di un uso reiterato.
99
2.2.1 Interviste Alla fine della prova e dei questionari si sono tenute delle brevi conversazioni in forma di intervista al fine di indagare più approfonditamente le opinioni e le sensazioni dei soggetti in merito all’esperienza fatta. Di grande interesse le osservazioni espresse dalla maggior parte dei soggetti che saranno qui riassunte attorno ad alcuni concetti chiave.
• Distrazione In relazione alla distrazione causata dal display alcuni soggetti hanno fatto notare che il campo visivo ripreso dalla telecamera risulta troppo stretto, impedendo al conducente, nel momento in cui vi rivolge l’attenzione, di disporre di larga parte dell’informazione esterna laterale, che come sappiamo è di fondamentale riferimento. Di qui la difficoltà, espressa da più di un soggetto, di rilevare gli oggetti che venivano a trovarsi sui bordi del video, soprattutto su quello destro (segnali stradali). Questa
difficoltà è stata
attribuita sia, come abbiamo sotolineato in precedenza alle caratteristiche dei segnali rispetto a quelle delle automobili (dimensioni, posizionamento sul lato meno iluminato, sfondo composto da vegetazione), sia al fatto che durante il test lo sguardo del soggetto era pervalentemente focalizzato sul lato sinistro de video, quello in cui era situato il display. Di particolare interesse le considerazioni espresse da due soggetti donne riguardo il potere distraente del display: secondo la prima il display era insoddisfacente in quanto in due occasioni si era accorta di aver perso del tutto la traiettoria corretta dell’auto antistante, fatto che in uno scenario reale avrebbe significato finire fuori strada, per la seconda il display le avrebbe comportato un riassetto piuttosto faticoso di due fattori visivi molto importanti come le grandezze ed i colori; riportando le sue parole: ”nonostante mi renda conto che si tratti dello stesso
oggetto, mi sembra un po’strano associarvi un’oggetto così rimpicciolito e di un altro colore”. Anche il riassetto cognitivo delle distanze ha provocato dei
100
dubbi in alcuni soggetti, a testimonianza della scarsa abitudine delle persone di relazionarsi con rappresentazioni visive durante la guida.
• Apprendibilità Un alto numero di soggetti si è soffermato durante il colloquio sul discorso dell’apprendibilità dei warning, tema di enorme interesse ai fini di questo studio. È emersa perciò, col passare delle prove, l’esigenza di approfondire alcune differenze fra i gruppi nel considerare la capacità dei warning di integrarsi nello stile di guida mediante la memorizzazione o l’acquisizione di skill particolari. La quasi totalità dei soggetti appartenenti al gruppo 2, interpellati su questo aspetto ha ammesso che l’uso corretto di un tale sistema avrebbe richiesto una quantità di tempo piuttosto ampia, citando le frasi di uno dei soggetti: “ci
vorranno mesi prima che impari ad usare il display, e comunque lo userei solo in casi di necessità estrema, e nei rettilinei “. I soggetti dei gruppi 3 e 4 hanno mostrato molta più decisione nell’asserire che nel giro di pochi giorni un sistema del genere si sarebbe potuto tranquillamente interiorizzare (in due casi gli interpellati hanno parlato di qualche minuto dipratica in più), soprattutto nel gruppo 4 si è visto che l’associazione fra il suono e la classe di target corrispondente è risultata di facile apprendimento ed ha concorso con estrema efficacia al miglioramento nei risultati sui tempi di reazione.
101
• Fiducia Conseguentemente ai discorsi fatti sull’apprendibilità dell’uso, c’è da aggiungere che non tutti i soggetti hanno espresso fiducia in tale sistema. I pareri sono comunque stati molto vari e polarizzati su posizioni estreme. Una parte cospicua dei soggetti di tutti e tre i gruppi interessati si è detta refrattaria alla piena fiducia nella strumentazione, preferendo in ogni caso di guardare la scena reale e verificare la presenza e la natura dell’eventuale ostacolo dal vero; mentre una seconda parte, anch’essa consistente, ha mostrato un forte entusiasmo all’idea di poter usufruire di un tale sistema di supporto. Anche se i dati relativi non sono stati sottoposti ad analisi statistiche, si è notato una grande differenza fra i sessi riguardo questa discussione sulla fiducia nel sistema. Le donne sono parse molto meno disposte a fidarsi del display rispetto agli uomini, forse in seguito ad una prudenza sicuramente maggiore durante la guida, ed in generale ad una propensione molto meno marcata degli uomini a quello che concerne le tecnologie relative al mondo dell’auto e del trasporto intelligente.
• Stile di guida Relativamente alle caratteristiche ergonomiche del display, che in questo studio naturalmente sono state solo riprodotte o simulate, si sono affrontati dei temi relativi alle abitudini di guida degli individui, che non avremmo sinceramente mai considerato di affrontare. Come sappiamo ogni persona si approccia fisicamente e psicologicamente alla guida in modo del tutto personale, e soprattutto fa un uso del tutto personale delle strumentazioni a sua disposizione. Il design dei sistemi di supporto alla guida come quello di cui si è parlato e testato l’utilizzo, ha il compito di permettere l’accomodamento e la personalizzazione dell’uso, al fine di massimizzarne l’efficacia. Errori nel posizionamento del display, o nell 102
utilizzo dei colori, eccessiva riduzione della grandezza dello schermo o restringimento del campo visivo delle telecamere, sono difficoltĂ che si frappongono fra le routine sedimentate in anni di pratica di guida e utilizzo dello strumento in questione, che, durante il test, diventa forzato. Ecco che una quantitĂ impensabile di soggetti (se ne sono contati circa quindici), abituata evidentemente a condurre lâ&#x20AC;&#x2122;auto con la sola mano sinistra sul volante, ha trovato (ed ha ammesso di aver trovato) difficoltĂ a spostare lo sguardo sul display durante le curve a destra, in cui il braccio sinistro si trovava completamente sovrapposto allo schermo.
103
3. Discussioni e problemi aperti I dati raccolti si possono raccogliere intorno ad alcuni concetti semplici e fondamentali, utili per l’orientamento di ricerche future sul tema della distrazione durante la guida e dell’integrazione di informazioni che sfruttano diversi canali sensoriali.
Il display semplice aiuta a rilevare i target di entrambe le classi, ma introduce forti effetti di cognitive tunnel, distraendo con notevole frequenza il soggetto dalla corretta esecuzione dei sotto compiti di guida. Il fatto è dimostrato dal marcato degrado delle performance sul task 1 rispetto al gruppo di controllo, evento del tutto inatteso prima dell’inizio dei test. L’introduzione di un sistema di supporto visivo richiede necesariamente, a nostro parere, lo studio e l’implementazione di un’appropriata strategia di warning. I miglioramenti sulla rilevazione dei target, visibili nel gruppo 2, non sono abbastanza significativi da compensare un deterioramento sui sub task della guida simulati in questo studio (la nostra opinione è che non lo sarebbero in nessun caso). I segnali acustici, integrati a quelli iconici, migliorano le performance in maniera evidente sul task 1, i miglioramenti sono costantemente più marcati rispetto a quelli apportati dai soli warning visivi, confortando le ipotesi attese espresse nel precedente capitolo. Inoltre ci sono dei significativi incrementi per quanto riguarda la percezione della sicurezza durante la guida, elemento che si ritiene essere di assoluta rilevanza. In generale, come emerge dall’insieme completo dei grafici relativi ai dat soggettivi presentato nelle appendici, il sistema di warning multimodali simulato migliora sempre la percezione di controllo e di rilevazione tempestiva degli ostacoli inattesi presentati durante il percorso. Come abbiamo visto dai dati sulle interviste, ci sono delle differenze nella percezione di controllo del veicolo e delle
104
strumentazioni fra i soggetti donne e gli uomini, elemento che sarebbe interessante approfondire in ulteriori studi. Concludendo elenchiamo alcuni problemi e spunti per ulteriori studi e approfondimenti emersi durante la realizzazione di questo lavoro. Uno dei problemi principali nell’introduzione di un tale sistema di supporto, è, come abbiamo più volte ripetuto, la capacità della tecnologia di integrarsi negli skill consolidati nel comportamento, col minor tasso di sforzo possibile. Questo è possibile solo se l’apprendibilità dei codici usati, e più in generale dell’uso di un sistema, risulta facile e rapida. Di indubbio interesse sarebbe approfondire questo aspetto ponendo il focus della ricerca sugli effetti a medio e lungo termine delle diverse strategie di warning, reiterando il test a distanza di qualche giorno e considerando le variazioni nelle diverse performance come principale variabile dipendente. Questo in considerazione del fatto che anche in prove della durata di pochi minuti, come quelle qui svolte, si è notato un lieve effetto di apprendimento sottoforma di miglioramento dei tempi di risposta dei target presentati verso la fine del percorso. Di estremo interesse sarebbe inoltre, un approfondimento sull’omeostasi del comportamento di guida (cfr cap.2, pag. 37). Un tale studi richiederebbe di sicuro scenari di guida reale, ma sarebbe di grande attrattiva per verificare, nello specifico di un sistema di night vision, le strategie di compensazione comportamentale rispetto a questa tecnologia di supporto alla sicurezza stradale. Altri suggerimenti di notevole interesse emersi dalle analisi dei dati (in particolare i dati soggettivi), riguardano fattori puramente relativi al design e all’ergonomia. Ci riferiamo ad esempio al miglioramento delle prestazioni del sistema durante le curve (fattore di criticità ricorrente), che potrebbe essere compensato dall’introduzioni di telecamere e fari che seguono lo spostamento del volante, quindi la traiettoria dell’auto e di conseguenza dello sguardo umano. Altro fattore di difficoltà diffusa, emerso dall’esperimento, riguarda il posizionamento del display sia riguardo la pura visibilità della rappresentazione contenuta, sia riguardo eventuali contrasti con la rotazione 105
delle braccia, che come si è visto, spesso vengono a sovrapporsi con lo schermo. Naturalmente nel caso dei nostri test si è trattato di una riproduzione video della reale strumentazione di bordo, ma riteniamo che approfondimenti su eventuali evoluzioni del design di Head Up Display (fra tutte quelle relative alla possibilità di proiettare le rappresentazioni direttamente sul parabrezza del veicolo, come accade in aeronautica), possano contribuire di certo ad un miglioramento dell’usabilità e quindi delle condizioni di sicurezza, e anche ad una maggiore comprensione del comportamento umano durante la guida.
106
107
Appendici • Appendice 1: Questionario
Pre Test Data Ora inizio Ora fine Soggetto n°
Età Genere Altezza
18-25 36-45 uomo
26-35 46-55 donna
Anni di guida Difetti di vista
No Sì occhiali (astigmatismo) occhiali (miopia) lenti a contatto (astigmatismo) lenti a contatto (miopia)
Promemoria: • durante il percorso vedrà un’automobile precederla costantemente. Di tanto in tanto sul retro dell’automobile appariranno degli stop di colore rosso • non appena scorgerà uno di questi stop, prema il pedale dx/sx • lungo il percorso,inoltre, incontrerà automobili (o gruppi di automobili) e segnali stradali (o gruppi di segnali stradali) • non appena scorge uno di questi ostacoli, prema il pedale dx/sx e dica a quale categoria (rosso o giallo) appartiene l’ostacolo
108
Questionario Q.1 - Su una scala 1 - 5, dove 1 è molto difficile e 5 è molto facile, valuterebbe l’usabilità del sistema? 1
2
3
4
come 5
se il punteggio è sotto il 3, quali sono le ragioni del punteggio basso? ___________________________________________________________ ___________________________________________________________ ___________________________________________________________ ___________________________________________________________ ___________________________________________________________
Q.2 - Su una scala 1- 5, dove 1 è molto difficile e 5 è molto facile, come valuterebbe la facilità di detezione degli ostacoli? 1
2
3
4
5
se il punteggio è sotto il 3, quali sono le ragioni del punteggio basso? ___________________________________________________________ ___________________________________________________________ ___________________________________________________________ ___________________________________________________________
109
Q.3 - Su una scala 1- 5, dove 1 è molto difficile e 5 è molto facile, come valuterebbe la facilità di detezione degli stop dell’auto bianca? 1
2
3
4
5
se il punteggio è sotto il 3, quali sono le ragioni del punteggio basso? ___________________________________________________________ ___________________________________________________________ ___________________________________________________________ ___________________________________________________________ ___________________________________________________________
Q.4 - Su una scala 1-5, dove 1 è molto difficile e 5 è molto facile, come valuterebbe la facilità di coordinazione fra I due compiti richiesti dal test? 1
2
3
4
5
se il punteggio è sotto il 3, quali sono le ragioni del punteggio basso? ___________________________________________________________ ___________________________________________________________ ___________________________________________________________ ___________________________________________________________ ___________________________________________________________
Q.6 - Utilizzando la scala qui sotto, segni sulla linea verticale la quantità di sforzo che Le ha richiesto la rilevazione degli ostacoli durante il percorso:
110
Q.7 - Segnali il Suo grado di confidenza nella guida durante il percorso:
1 molto poco sicuro
2
3 normale
4
5 molto sicuro
111
Q.8 - Rispetto alle Sue aspettative, come è stata la guida con questo sistema?
1 ha deluso le aspettative
2
3 ha soddisfatto le mie aspettative
4
5 ha superato le mie mie aspettative
Commenti: ___________________________________________________________ ___________________________________________________________ ___________________________________________________________ ___________________________________________________________
Q.9 - Se potesse migliorare il sistema, quali modifiche suggerirebbe? ___________________________________________________________ ___________________________________________________________ ___________________________________________________________ ___________________________________________________________
Q.10 - Quali sono le Sue impressioni finali sul sistema di visione da Lei testato? ___________________________________________________________ ___________________________________________________________ ___________________________________________________________ ___________________________________________________________
112
Q.11 - Confrontando la Sua esperienza di guida con la guida con i soli fari anabbaglianti della Sua auto, indichi il Suo grado dâ&#x20AC;&#x2122;accordo con le seguenti affermazioni:
a. Il sistema permette di rilevare gli ostacoli prima di quanto non sia possibile con i soli fari anabbaglianti
b. Il sistema permette di riconoscere gli ostacoli prima di quanto non sia possibile con i soli fari anabbaglianti
113
c. Il sistema renderebbe piĂš sicuri nella guida nottuna di quanto non accadrebbe con i soli fari anabbaglianti
d. Il sistema permette di guidare con sicurezza e senza distrazioni
e. Il sistema è migliore dei fari anabbaglianti
114
â&#x20AC;˘ Appendice 2: Grafici delle medie sui singoli stimoli nei diversi gruppi sperimentali GRAFICO R.T. STOP 1,40 1,20 1,00
sec.
0,80 0,60 0,40 0,20 0,00 Stop1
Stop2
Stop3
Stop4
Stop5
Stop6
Stop7
Auto6
Auto7
Signal6
Signal7
Stimoli Gruppo1
Gruppo2
Gruppo3
Gruppo4
GRAFICO R.T. AUTOMOBILI 4,00 3,50 3,00
sec.
2,50 2,00 1,50 1,00 0,50 0,00 Auto1
Auto2
Auto3
Auto4
Auto5
Stimoli Gruppo1
Gruppo2
Gruppo3
Gruppo4
GRAFICO R.T. SEGNALI STRADALI 4,00 3,50 3,00
sec.
2,50 2,00 1,50 1,00 0,50 0,00 Signal1
Signal2
Signal3
Signal4
Signal5
Stimoli Gruppo1
Gruppo2
Gruppo3
Gruppo4
115
• Appendice 3: Grafico delle medie di errore sulle rilevazioni dei diversi target: confronto fra i gruppi GRAFICO MEDIE ERRORI 2,5
2
1,5
1
0,5
0 Stop
Auto Gruppo1
Gruppo2
Signals
Gruppo3
Gruppo4
• Appendice 4: Grafici dei tempi di reazione: confronto fra i due sessi nei diversi gruppi sperimentali GRAFICO M/F GRUPPO 2 3,00
2,50
2,50
2,00
2,00
1,50
sec.
sec.
GRAFICO M/F GRUPPO1 3,00
1,00
1,50 1,00
0,50
0,50
0,00 Stop
Auto
0,00
Signals
Stimoli
Stop m
Auto
Signals
Stimoli
f
GRAFICO M/F GRUPPO 3
m
f
m
f
GRAFICO M/F GRUPPO 4
1,80
1,20
1,60 1,00
1,40
0,80
1,00
sec.
sec.
1,20
0,80 0,60
0,60 0,40
0,40
0,20
0,20 0,00
0,00
Stop
Auto
Stimoli
Signals
Stop
m
f
Auto
Stimoli
Signals
116
• Appendice 5: Grafici delle medie sulle risposte al questionario
Q4 Su una scala 1-5, dove 1 è molto difficile e 5 è molto facile, come valuterebbe la facilità di coordinazione fra I due compiti richiesti dal test?
Q3 Su una scala 1- 5, dove 1 è molto difficile e 5 è molto facile, come valuterebbe la facilità di detezione degli stop dell’auto bianca? 4,8
4
4,7
3,5
4,6
3
4,5
2,5
4,4 4,3
2
4,2
1,5
4,1
1
4
0,5
3,9
0
3,8
Gruppo1
Gruppo2
Gruppo3
Gruppo1
Gruppo4
Gruppo2
Gruppo3
Gruppo4
Q11.a Il sistema permette di rilevare gli ostacoli prima di quanto non sia possibile con i soli fari anabbaglianti
Q7 Segnali il Suo grado di confidenza nella guida durante il percorso 4
4
3,5
3,5
3
3
2,5
2,5
2
2
1,5
1,5
1
1
0,5
0,5 0
0
Gruppo1
Gruppo2
Gruppo3
Gruppo2
Gruppo4
Q11.b Il sistema permette di riconoscere gli ostacoli prima di quanto non sia possibile con i soli fari anabbaglianti 4
Gruppo3
Gruppo4
Q11.e Il sistema è migliore dei fari anabbaglianti 4 3,5
3,5
3
3
2,5
2,5 2
2
1,5
1,5
1
1
0,5
0,5
0
0
Gruppo2
Gruppo3
Gruppo4
Gruppo2
Gruppo3
Gruppo4
117
Bibliografia • Cnossen F. (2000). Adaptive strategies and goal management in car drivers. • Aasman, J. (1995). Modelling driver behaviour in SOAR. Doctoral dissertation, University of Groningen, the Netherlands
• Bainbridge, L. (1997). The change in concepts needed to account for human behavior in complex dynamic tasks. IEEE Transactions on systems, man, and cybernetics—Part A: Systems and humans, 27(3), 351-359.
• Neisser, U. (1976). Cognition and reality; principles and implications of cognitive psychology. San Francisco: W.H. Freeman.
• Endsley, M.R. (1995). Toward a theory of situation awareness in dynamic systems. Human Factors, 37(1), 32-64.
• Adams, M.J. et al (1995). Situation awareness and the cognitive management of complex systems. Human Factors, 37(1), 85-104.
• Kirlik,A.; Strauss R. (2003). A Systems Perspective on Situation Awareness I: Conceptual Framework, Modeling, and Quantitative Measurement. Technical Report AHFD-03-12/NTSC-03-2. Aviation Human Factors Division Institute of Aviation University of Illinois
• Flach, J. M. (1995). Situation awareness: Proceed with caution. Human Factors, 37(1), 149-157.
• Parasuraman, R., Wickens, C.D. et al (2000). A model
for types and levels of human interaction with automation. IEEE Transactions on Systems, Man, & Cybernetics - Part A: Systems and Humans, 30(3), 286-
• Ververs, P. M., Wickens, C. D. (1998). Conformal Flight Path Symbology for Head-Up Displays: Defining the Distribution of Visual Attention in ThreeDimensional Space. Final Technical Report ARL-98-5/NASA-98-1. NASA Ames Research Center, Moffett Field, CA
• Bagnara, S. (1984). L’Attenzione. Il Mulino ,Milano • Kahneman, D. (1973). Attention and Effort. Englewood Cliffs, NJ: PrenticeHall.
• Wickens, C.D. (1989) Models of Multitask Situations, in “Application of Human
PerformanceModels to System Design”, Plenum Press in Association with NATO Defence Research Group 118
• Young, K., et al (2003). Driver Distraction: A Review of the Literature. Monash Yniversity. Accident Research Centre. Report No. 206
• Printzel, L. J. (2004). Head-Up Displays and Attention Capture. NASA/TM2004-213000. Langley Research Centre, Hampton, Virginia
• Wickens, C. D; Liu, Y, (1988). Codes and Modalities in Multiple Resources: A Success and a Qualification. Human Factors, 1988, 30(5), 599-616
• Hollnagel, E. et al (2003). They drive at night- Can Visual Enhancement Systems Keep The Driver In Control? University of Linkoping, SE-581 83, Linkoping, Sweden
• Edworthy, J.; Adams, A.; (1996). Warning Design. A Research Prospective. Taylor & Francis Ltd. London.
• Stanton, N.; (1994). Alarm Initiated Activities.in “Human Factors in Alarm Design”, Taylor & Francis Ltd. London
• Hellier, E., and Edworthy, J. (1989). Quantifying the perceived urgency of auditory warnings. Canadian Acoustics.
• Hellier, E. Edworthy, J. et al (1993). Improving auditory warning design: Quantifying and predicting the effects of different warning parameters on perceived urgency. Human Factors.
• Naatanen, R.; Summala, H. (1974). A Model for the Role of Motivational Factors in Driver’s Decision Making. In “Accident Analysis & Prevention”
• Naatanen, R.; Summala, H. (1976). Road Users Behaviour and Traffic Accidents. North Holland Publishing Company. New York
• Nilsson, R,; (2001). Safety Margins in the Driver. In “Comprehensive Summaries of Uppsala Dissertations from the Faculty of Social Sciente”. Atca Univ. Ups.
• Stanton, N.; Pinto, M.; (2000). Behavioural Compensation by Drivers of a Simulator when using a Vision Enhancement System. In “Ergonomics”, 2000, vol 43, n.9 1359-1370
119
• Bossi L. et al; (1997). The Effect of Vision Enhancement Systems on Driver Peripheral Visual Performance. In "Ergonomics and Safety of Intelligent Driver Intefaces". Lawrence Erlbaum Associates
• ETSI EG 202 048 V1.1.1 (2002-08): ”Human Factors (HF); Guidelines on the multimodality of icons, symbols and pictograms”
• Andreone, L.; Mariani, M. et al (2002). EDEL Project Presentation (Deliverable 1.1).
120
Riferimenti web • http://www.visualexpert.com • http://www.collisiondetection.net/ • http://www.motionresearch.com • http://www.psych.ubc.ca/~lward/research/abstracts.html • http://www.humanfactors.uiuc.edu/ • http://www.abacon.com/lefton/applied.html • http://www.hfes.org/web/Default.aspx • http://www.ertico.com/ • http://www.edel-eu.org • http://www.prevent-ip.org/ • http://human-factors.arc.nasa.gov/ihi/hcsl/index.html • http://web.mit.edu/its/ • http://web.mit.edu/aeroastro/www/labs/ASL/SA/sa.html • http://ntl.bts.gov/ • http://www.its.dot.gov/index.htm • http://www.its.washington.edu/its_pubs.html • http://www.jhu.edu/news_info/news/audio-video/brain.html • http://hubel.sfasu.edu/research/cm.html • http://www.ncbi.nlm.nih.gov/ • http://www.its.umn.edu/research/projectdetail.pl?id=2002025
121