Book di studio – FUTURISMO IN 3D – AA. 2011/2012

Page 1

Percepire il Futurismo con tecniche multimediali Stereoscopia applicata all’arte visiva



Percepire il Futurismo con tecniche multimediali Stereoscopia applicata all’arte visiva



Chi vuole sul serio qualcosa trova una strada, gli altri una scusa. (Proverbio Congolese)



Sommario

Introduzione

11

1. Panoramica Storica

13

1.1 Cenni storici di ottica

15

1.2 L’ingresso del cinema

18

1.3 L’ingresso del digitale

20

2. Fisiologia della visione stereoscopica

23

Introduzione

25

2.1 Come funziona l’occhio umano?

25

2.2 La visione Monoculare

27

i. Dimensione, relatività e prospettiva

27

ii. Occlusione O interposizione

28

iii. Foschia, Variazioni tonali e saturazione

28

iv. Ombra e luce

29

v. Linea d’orizzonte

29

vi. Movimento di parallasse

30

vii. Movimento dell’oggetto osservato e dell’osservatore

31

2.3 La percezione binoculare

Le tre fasi di percezione binoculare

31 31

2.4 L’Area di Panum

32

2.5 Limiti della stereopsi

34

2.6 Le disfunzioni dell’occhio umano: la cecità stereoscopica

35

i. Ametropia

35 7


Sommario

ii. Ambliopia

36

iii. Daltonismo

36

iv. Diplopia

37

v. Strabismo

37

2.7 I Test stereoscopici

38

i. Test delle due matite

38

ii. Il Lang Stereotest

38

iii. Test di Titmus o della mosca: stereo fly test

40

2.8 La visione stereoscopica artificiale

41

i. Accomodazione visiva o messa a fuoco

41

ii. Il passaggio dalla fisiologia alla tecnica stereoscopica

43

conclusioni

43

3. Geometria e cinematografia delle tecniche di produzione stereoscopica

45

Introduzione

47

3.1 Stereoscopia con dispositivi elettronici di cattura dell’immagine

48

3.2 Posizionamento delle videocamere

49

3.3 Ottica dei dispositivi di ripresa

51

3.4 Un caso particolare: l’ortostereoscopia

52

3.5 Convergenza

53

3.6 Prospettiva zero

54

3.7 Finestra stereoscopica

57

Conclusioni

59

8


Sommario

4. Stato dell’arte della visualizzazione in stereoscopia

61

Introduzione

63

4.1 Tecniche naturali

63

4.2 Tecniche secondo lo spettro del colore

65

4.3 Tecniche per polarizzazione passiva

67

4.4 Tecniche Shutter attiva

70

4.5 Tecnica Autostereoscopica e HMD

71

4.6 Filtri interferenziali

73

4.7 Autostereogrammi

74

4.8 Schermi

75

i. Passivi

75

ii. Attivi

76

4.9 Proiettori

77

i. Sistema a proiezione singola

78

ii. Sistema a proiezione doppia

79

4.10 I problemi legati al digitale

79

4.11 CriticitĂ cinematografiche

82

4.12 Danni visivi nella visualizzazione stereoscopica artificiale:

un allarme ingiustificato.

83

9


Sommario

5. La tecnica anaglifica applicata all’arte visiva

87

Introduzione

89

5.1 Il futurismo

91

i. Nascita e sviluppo

93

ii. Il campo artistico

94

5.2 Depht map

96

5.3 Open source? Si, grazie

98

i. In Italia

5.4 Gimp: software open source per fotoritocco

100

5.5 Dal software proprietario al software Open Source

103

5.6 Tecnica di realizzazione

104

a. Importazione immagine e impostazione progetto

106

b. Divisione dell’immagine in piani

107

c. Creazione della mappa di profondità

109

d. Creazione delle immagini destinate ai singoli occhi

111

e. Alternativa: Creazione dell’anaglifo con Stereophoto Maker

114

Conclusioni

114

Gallery

119

Glossario

141

Fonti

151

Ringraziamenti

160

10


Introduzione

Introduzione Le pagine che seguono sono frutto di un lavoro svolto per più gradi, frutto di circa un semestre di ricerche bibliografiche e telematiche. La difficoltà di reperire il materiale di studio è legata all’enorme mole di applicazioni che la stereoscopia copre attualmente in molti campi e richiede una conoscenza diretta ed indiretta di ottica, fisica ,matematica e tecnica cinematografica. La sola bibliografia non è sufficiente da sola a fornire un quadro completo per poter procedere alla stesura teorica del lavoro. E’ infatti il web a fornirci il maggior apporto di informazioni, anche grazie a dei veri e propri appassionati del settore e ai centri di sperimentazione, come il Centro ricerche e innovazione tecnologica della RAI e alla visione, seppur non integrale, di parti consistenti di book virtuali oltre ad una piccola biblioteca di libri in lingua straniera , dimostrando l’enorme divario esistente tra lo sviluppo delle ricerche italiane e quelle estere. Si cercherà di essere informali e di non scendere troppo nel tecnico durante le pagine che seguiranno, anche se la scelta di seguire questa linea non sarà sempre rispettata per non invaghire il lettore, “risucchiandolo” in argomenti troppo approssimativi e mancanti di parti fondamentali. L’idea embrionale della tesi, oltre a quello di chiarire un argomento di cui tutti ormai sono a conoscenza grazie alla visione di film 3D è quella di penetrare in realtà un argomento capito ed appreso a pieno da pochi, non conoscendo le basi fondamentali e il profondo radicamento che la visione stereoscopica ha rivestito nell’ultimo secolo e in quello precedente fino alla fruizione verso il grande pubblico nello scenario attualissimo delle sale cinematografiche e nell’ Home-entertainment. Il lavoro in oggetto, seppur idealmente, rappresenta il naturale seguito del mio primo lavoro di tesi relativo alle ricerche percettive sulle opere di Escher realizzate in modellazione tridimensionale (DIGITAL ESCHER ) segno che l’argomento non è privo di basi, ma è frutto di una formazione personale lunga e appassionata e alla mia esperienza di insegnamento di montaggio video e della tecniche di ripresa digitale nell’ambito della formazione professionale. Mi auguro che in ogni modo la stereoscopia presto diventi un valore aggiunto nella fruizione di film e non resti nel limbo tecnico come mero strumento per attirare pubblico nelle sale e glissare così sul vero valore emotivo che una pellicola possa trasmettere. 11



1

Panoramica Storica


Il mio lavoro è un gioco, un gioco molto serio. Maurits Cornelis Escher


Panoramica storica

1.1 Cenni storici di Ottica Si comincia a parlare di stereoscopia con i primi anni novanta, ma l’idea della stereoscopia era già conosciuta da Euclide1 nel 208 a.c. che fu il primo a comprendere i principi generali della visione tridimensionale, parlandone nel suo trattato Ottica che in linea generale era incentrato sullo studio della prospettiva. Il suo esperimento, pur nella sua semplicità, permise di inquadrare il fenomeno ed instradarlo verso aspetti più scientifici. Lo studio fu prodotto con l’ausilio di una sfera il cui diametro fosse inferiore alla distanza interoculare: quando ciò accadeva, se ne poteva vedere solo un emisfero, mentre in caso di diametro maggiore questo non era possibile. D

B

Distanza Interoculare

F

H

I A

L

G E

C

Immagine 1.1 Sfera di Euclide: in questo caso la sfera ha lo stesso diametro della distanza interoculare. Gli occhi vedono rispettivamente la sezione della sfera CHIF e la sezione di sfera BHGA. BLC sarà la sezione di sfera vista da enstrambi gli occhi. (illustrazione: Ermanno Nardelli)

1

Il più importante matematico della storia antica, e uno dei più importanti e riconosciuti di ogni tempo e luogo (Grecia - 367 a.C. ca. - 283 a.C.). 15


Capitolo 1

Il concetto sostanzialmente rimane simile nel corso delle indagini anche da parte di altri studiosi e come succede per tutti i fenomeni naturali indagati, grazie all’avvento della tecnologia e della strumentazione via via più precisa, si avrà una maggiore capacità di studiarne le fondamenta con l’avanzare degli anni. Nel Rinascimento, grazie ad un rinnovamento generale nelle arti, si assiste ad una modificazione sostanziale del modo di dipingere, abbandonando soggetti religiosi ed esclusivamente a scopo decorativo. L’uso dei chiaroscuri e delle sfumature, nonché dei cambi tonali rispetto alla distanza da rappresentare genera una nuova rappresentazione tridimensionale, anche per volere stesso dei committenti delle opere. Riprese da Leonardo da Vinci le osservazioni di Euclide vengono ulteriormente arricchite. Infatti egli afferma che il realismo di qualsiasi dipinto non può essere completo a causa della mancanza dell’aspetto tridimensionale. Giovanni Keplero nel 1611 elabora una prima teoria proiettiva, a causa anche della sofferenza personale di disturbi della vista come la miopia, lo strabismo e la diplopia. Come succede, non raramente, in questi casi Keplero comincia a studiare la visione degli individui normodotati: egli immagina che ci siano raggi che fuoriescano dagli occhi, la cui intersezione con i soggetti interessati, fissa le forme percepite dai singoli occhi in un’unica immagine. Siamo di fronte, in pratica, ad una spiegazione embrionale del processo di stereopsi, descritto anche dai Pitagorici. Nel 1838 avviene la prima della pubblicazione di Phenomena of binocular Vision a cura di C. Wheatstone nel quale lo stesso afferma che la doppia visione (derivante dalla disparità retinale, concetto chiarito più avanti) è uno dei motivi per cui avviene il fenomeno della stereopsi. Con uno stereoscopio (1839) realizzato dai lui stesso (detto a specchio) riuscì a dimostrare l’indipendenza dell’aspetto tridimensionale dalla superficie. La tridimensionalità percepita è tale anche se gli oggetti osservati per ogni occhio sono disegnati su una superficie dimensionale, traslati leggermente rispetto al piano Immagine 1.2 prospettico in senso orizzontale. Stereoscopio a specchi di Wheatstone -1839 ( fonte: Wikipedia - ImTuttavia Wheatstone viene immediatamente magine di pubblico dominio ) 16


Panoramica storica

ripreso da D. Brewster, che afferma la totale mancanza di originalità nelle affermazioni dello studioso. Ma chi è Brewster ? Egli è un abile ottico, nonché inventore del caleidoscopio e migliora ulteriormente l’ingombrante stereoscopio di Wheatstone costruendone una versione trasportabile che si basa su principi ottici elementari. Il periodo commerciale dello stereoscopio, comincia nel 1851, quando con l’esposizione di Londra, la regina Vittoria se ne interessa, facendolo divenire un oggetto per salotti di elite appunto vittoriani. In tempi diversi lo stereoscopio si diffonde anche in U.S.A. grazie ad una versione Immagine 1.3 ancora più semplice e funzionale progettata Stereoscopio di Holmes (a destra) messo a confronto con quello a specchi di Wheatstone da Oliver Wendell Holmes nel 1859, divenendo (fonte: Wikipedia - Autore: Dieter Albers - Creative Commons 3.0) in poco tempo un mezzo immancabile di intrattenimento in ogni luogo frequentato di alta classe. Nonostante l’ingresso della fotografia il fenomeno si affievolisce verso la fine del secolo (contrariamente alle aspettative). Molto probabilmente le cause sono imputabili ad una diminuzione del fenomeno di novità, del miglioramento della definizione della fotografia che permette di aumentare l’effetto percettivo di un luogo pur bidimensionale e le relative dimensioni maggiorate di stampa che permettono una fruizione sociale ad un pubblico maggiore. Altri fattori possono essere ricercati nell’introduzione della tecnica illustrativa e un commercio pirata di immagini stereoscopiche di bassa qualità che sfruttano all’inverosimile il settore, spogliandolo di ogni credibilità. Ma un altro motivo all’orizzonte spinge all’abbandono di questi mezzi: lo sviluppo del cinema.

17


Capitolo 1

1.2 L’ingresso del Cinema Le prime immagini in movimento proiettate su uno schermo, possono essere ricercate in un mondo molto antico come quello orientale, quando le prime “ombre” cinesi ammaliano sale di affascinati spettatori. Il primo esempio di proiezione su superficie europeo, invece, avviene con la camera oscura leonardiana nel 1490. E’ invece nel XVII secolo che avviene l’ingresso commerciale del primo vero e proprio proiettore assomigliante in modo più prossimo ad una proiezione cinematografica: la lanterna magica. Essa aveva la capacità di proiettare, con una candela, immagini dipinte su di un vetro in una stanza buia. Il cambio epocale avviene con l’invenzione da parte dei fratelli Lumière con il cinematografo (1895), vero primo esempio di proiezione in una sala cinematografica. Immagine 1.4 A determinare il ritardo nell’implementazione della Camera Oscura Leonardiana, modello modificato fonte: Wikipedia - Illustrazione (Immagine di pubblico stereoscopia, anche in questo caso, sono i limiti dominio) tecnici, come la necessaria disposizione di cineprese stereoscopiche e di un sistema di proiezione con altrettante caratteristiche di codifica. Nel 1853 W. Rollmann sviluppa un primo embrionale sistema di codifica basato sull’anaglifo, consistente in lenti rosse e blu. E’ Ducons du Hauron che riprese questa metodologia e la migliorò grazie anche alla sua invenzione del colore nella fotografia nel 1891, quando elabora un metodo per sovrapporre in combinazione una coppia di immagini stereoscopiche. Tale tecnica si sviluppa ulteriormente tra il 1936 e il 1941 quando la casa di produzione cinematografica MGM ne adotta la tecnica. Ancora oggi, anche se remota, questa modalità di visualizzazione ancora sopravvive: il motivo sarà più chiaro nel capitolo dedicato alla tecnica. L’altra importante tecnica adottata fu quella relativa alla polarizzazione (che ritroveremo sempre in dettaglio nei prossimi capitoli). Nonostante questa tecnica sia ancora oggi ampiamente utilizzata (e ovviamente migliorata), stiamo parlando di una invenzione che 18


Panoramica storica

ha visto la luce nel 1852, quando furono sviluppate le prime lenti adatte allo scopo. Grazie ad un ulteriore miglioramento tra gli anni trenta e quaranta questa tecnica si rivelò pronta per la fase successiva legata alla commercializzazione e implementabile sulle pellicole dell’epoca. I nuovi investimenti e il continuo pressare della televisione sul mercato cinematografico incentivano il passaggio alla fase produttiva vera e propria, anche grazie ai nuovi sistemi di proiezione a colori capaci di essere implementati su sistemi cinemascope2 , cinerama3 e doppia proiezione. Il vero boom avviene negli anni cinquanta e a fare da apripista è un evento particolare: la proiezione a Los Angeles il 27 novembre 1952 del primo film stereoscopico realizzato a colori : Bwana Devil. Prima di tale importante evento c’era stati solo un paio di precedenti con The Power of Love del 1922 e con You Can Almost Touch it (Zum Greifen Nah) del 1937. Solo grazie all’implementazione della stereoscopia che Bwana Devil ottiene un grande successo e un cospicuo record di incassi, come capita a qualsiasi grande novità accessibile al grande pubblico. Purtroppo nessuno lavoratore e tecnico del settore pare essere preparato a questa grande novità, anche se c’è da dire che tra il 1953 e il 1954 vengono rilasciati circa una cinquantina di film in tecnica stereoscopica. Subito dopo la stereoscopia subisce una battuta di arresto, soprattutto a causa dell’uso sconsiderato che se ne farà, generando 1.5 pellicole sempre più prive di contenuto cinematografico e Immagine La locandina del film - Bwana Devil -del 1952 povere dal punto di vista narrativo. Mancati investimenti, (Immagine di pubblico dominio ) 2

Sistema di ripresa cinematografica, basato su lenti anamorfiche, utilizzato dal 1953 al 1967. Sebbene tale sistema abbia dato inizio ai moderni formati cinematografici il CinemaScope è stato rapidamente reso obsoleto dalle evoluzioni tecniche, in particolar modo da formati quali Panavision. 3 Il Cinerama (dal greco κίνεσις = movimento e οραω = vedere), è un sistema di ripresa e proiezione atto ad offrire un’immagine di grandi dimensioni (sino a 28 m x 10 m) su uno schermo curvo di 146 gradi di ampiezza e 55 gradi di altezza. Tale immagine è perciò molto simile alla percezione dell’occhio umano (visione periferica). La scena è ripresa da 3 cineprese diverse, disposte a semicerchio, poi la proiezione avviene tramite 3 proiettori tutti diretti sullo stesso schermo ed in sincronia tra loro, mentre come sonoro si utilizzava una colonna sonora a sette canali registrata su un nastro magnetico separato. 19


Capitolo 1

esperienze e qualità fanno da contorno a questo veloce declino a cui si unisce il crescente affaticamento visivo causato da produzioni di scarsa qualità. Gli anni sessanta, settanta e ottanta segnano una battuta di arresto a livello commerciale e l’affermarsi della tecnica stereoscopica come un campo esplorativo del mondo artistico. Nonostante tutto si continua a lavorare sulla tecnica, introducendo le prime telecamere con una sola lente a doppia polarizzazione (verticale-orizzontale) che catturavano entrambi i fotogrammi su di una sola pellicola. Una nuova importante novità si affaccia all’orizzonte ed è proprio questa che segnerà indiscutibilmente il ritorno e lo sviluppo esponenziale della stereoscopia: il digitale.

1.3 L’ingresso del digitale Con l’arrivo del digitale negli anni novanta, si assiste ad una modifica radicale delle tecnologie di ripresa e proiezione, grazie anche alla maggiore potenza di calcolo e trasferimento dei dispositivi di memorizzazione. Nel 2000 si procede gradualmente al passaggio verso la digitalizzazione completa delle pellicole e questo mette in atto anche la trasformazione di tutto il mercato, nonché dei sistemi di proiezione e acquisizione, che riescono ad ottenere una maggiore resa in qualità, grazie anche all’ingresso della possibilità di ripresa in HD verso un pubblico più vasto. Nelle sale invece si assiste ad un ritorno della stereoscopia che i produttori continuano a chiamare insistentemente “3D”, quando invece gli addetti del settore sanno benissimo che il termine è usato erroneamente, perché quando si parla di stereoscopia si dovrebbe usare un termine come “stereo3D” (abbreviato molte volte con l’acronimo S3D). Il ritorno della stereoscopia è reso possibile a causa della crescente pirateria, in campo cinematografico, che imperversa in questi anni. Lo S3D integrato nelle sale cinematografiche si spera che dia una marcia in più alla proiezione, che nell’Home cinema è in pratica impossibile. La spinta ulteriore arriva anche dal passaggio dei vecchi televisori CRT ai nuovi e più sofisticati schermi LCD,LED,OLED che sempre più integrano sistemi di percezione in S3D. Il boom vero e proprio arriva alla metà del primo decennio del 2000 quando si comincia a convertire sia una buona parte di precedenti film in 3D, sia quando le produzioni cominciano ad adottare un sistema dedicato per la produzione di contenuti stereoscopici. 20


Panoramica storica

Possiamo identificare come spartiacque, tra lo scetticismo e l’onnipresenza del 3d, un contenuto che ha fatto decisamente la storia della filmografia odierna: Avatar film del 2010 di James Cameron. Avatar infatti risulta essere il banco di prova di tutte le produzioni che vengono dopo la sua realizzazione. Basti pensare che il suo regista ha studiato per ben undici anni l’implementazione dello S3D nel film, fino a generare una creatura quasi perfetta (a prescindere in ogni caso dalla trama). Tutte le tecnologie messe in campo da Cameron nelle fasi di produzione del film rappresentano quanto di più innovativo lo stato dell’arte della produzione tecnologica aveva il mercato a disposizione fino al 2010. A tal proposito basta ricordare la stessa dichiarazione di Cameron circa il film: “Io credo che il 3D sia il mezzo attraverso il quale noi tutti fruiremo di film, giochi e sistemi di computing nel prossimo futuro. Il 3D non è qualcosa che si vede, è la realtà che ognuno si porterà dentro”. Insomma la sua più che una dichiarazione aveva il sapore di una premonizione dell’immediato futuro. Un’altra produzione in cui l’implementazione dello S3D ha contribuito notevolmente al successo del film risulta essere Tron: Legacy film del 2010 diretto da Joseph Kosinski e sequel del film Tron del 1982. In questo caso l’uso dello S3D è servito a dare maggiore distacco tra il mondo reale e il mondo virtuale usando la ripresa tridimensionale solo in quest’ultimo caso.

21



2

Fisiologia della visione stereoscopica


L’occhio non vede cose ma figure di cose che significano altre cose. Italo Calvino, Le città invisibili, 1972


Fisiologia della visione stereocoscopica

Introduzione L’uomo, nel corso degli anni, ha sempre rubato dei brevetti già presenti in natura, così succede anche nel caso della stereoscopia. I meccanismi fondamentali che ci permettono di osservare in tridimensionale sono legati alla particolare fisiologia umana della visione binoculare che fin dall’alba dei tempi caratterizza la nostra percezione della profondità. Etimologicamente la parola Stereoscopia è una parola composta dai lemmi stereòs che è un aggettivo e significa spaziale, tridimensionale e Scopìa (infinito σκοπειν - skopein) che significa guardare, osservare1. La stereoscopia risulta fondamentale per valutare l’ambiente a noi circostante e la complessità del sistema visivo umano ne è la testimonianza diretta. Essa ci permette di percepire le distanze, la relatività rispetto ad altri oggetti nello spazio, compreso il fatto che essi siano in movimento o meno. La capacità spaziale della visione umana è soprattutto dovuta all’evoluzione stessa dei primati (e in generale dei predatori), che per vivere e sopravvivere hanno sviluppato capacità di calcolo istantaneo su traiettorie e movimenti circostanti, in modo da localizzare con la maggior precisione possibile i pericoli ed eventuali movimenti da compiere per evitarli.

2.1 Come funziona l’occhio umano? L’occhio si può assimilare al funzionamento di una macchina fotografica, o meglio è la macchina fotografica che discretezza le azioni e le correzioni infinite che può compiere un occhio umano. La luce, passando per la pupilla (il “diaframma ”) attraversa il cristallino, una lente naturale (le “lenti sferiche”) che controlla la sua curvatura grazie ad appositi muscoli (la “messa a fuoco”), impatta contro la retina (il nostro “sensore”) che invia al cervello, attraverso il canale di comunicazione del nervo ottico, le informazioni che poi il cervello stesso decodificherà. Quando cerchiamo di spostare la rotazione del nostro bulbo oculare, indirizzando l’occhio verso un oggetto prescelto, mettiamo in moto i nostri muscoli estrinseci2 che lo circondano avvolgendolo. 1 2

στερεός, -ά, -όν (Stereos, -a, -on) + σκοπέω (Scopeo) Muscoli adibiti al movimento dell’occhio, attaccati sulla sclera, parte esterna del bulbo oculare. 25


Capitolo 2

Allo stesso tempo i muscoli estrinseci lavorano nel deformare il cristallino e regolano il flusso della luce che colpisce la fovea3 , in diversi punti in base alla distanza e all’intensità luminosa di uno o più oggetti che stiamo osservando. Gli occhi percepiscono indipendentemente, ma contemporaneamente le immagini dell’ambiente circostante. La messa in relazione delle due immagini determina la nostra capacità di vedere spazialmente. Possiamo dividere la percezione in due categorie, cioè quelle relative alla visione monoculare e quelle relative alla visione binoculare che tratteremo separatamente. Questa distinzione è resa possibile, perché l’esperienza ci insegna che qualsiasi individuo può vivere e orientarsi anche con l’ausilio di un solo occhio normodotato. Infatti il cervello è capace di estrarre dati relativi allo spazio circostante anche avendo a disposizione una immagine bidimensionale. Immaginiamo, ad esempio, un normale film proiettato sul nostro televisore di casa o al cinema: non disponiamo dei dati relativi alla profondità, ma comunque riusciamo ad assimilare gli spazi che ci vengono continuamente proposti in bidimensionale. Muscoli estriseci

Pupilla

Cristallino

Fovea

Sclera

Cornea

Retina

Iride

Nervo ottico

Immagine 2.1 Principali parti fisiologiche di un occhio umano. (illustrazione: Nardelli Ermanno) 3

Zona posta dietro il cristallino, particolarmente con alta concentrazione di coni, i “sensori” deputati alla cattura della luce in condizioni di luminosità accettabile.

26


Fisiologia della visione stereocoscopica

2.2 La visione Monoculare Gli aspetti che si legano alle percezioni monoculari sono: • • • • • • •

Dimensione, relatività e prospettiva ; Occlusione ; Foschia, colore e saturazione ; Ombra e luce ; Linea d’orizzonte ; Movimento di parallasse ; Movimento dell’oggetto osservato e dell’osservatore ;

Segue un breve approfondimento di ogni aspetto che abbiamo enunciato.

i. Dimensione, relatività e prospettiva L’esperienza nell’osservazione durante la nostra esistenza ci abitua al fatto che una pallina da tennis, ad esempio, non può essere più grande di un pallone da calcio. Osservando contemporaneamente più oggetti in una scena ci renderemo conto che in ogni momento il nostro cervello fa una operazione di comparazione continua fra i diversi oggetti presenti e trae le Immagine 2.2 conclusioni spaziali in base alla nostra Relatività dimensionale di una sfera posta a distanze diverse su un piano prospettiva. La sfera viola potrebbe sembrare più grande, ma in esperienza pregressa. Allo stesso modo in realtà ha la stessa dimensione di quella posta in primo piano. La texture la dimensione di una “texture” che man aiuta ulteriormente a dare l’illusione della diversa dimensione e della scenica. mano si riduce verso un punto di fuga in profondità (illustrazione: Nardelli Ermanno) una prospettiva ci indica la profondità di una scena. Possiamo quindi dedurre posizione, grandezza, rotazione di un oggetto presente nel nostro campo visivo. 27


Capitolo 2

ii. Occlusione o interposizione Anche questo parametro si basa sull’esperienza. Non potendo vedere per intero un oggetto e quindi parte del suo contorno, percepiamo come in secondo piano questo rispetto a quello che ne interrompe la sagoma. E’ una delle tecniche rudimentali, ma efficace, usata fin dall’inizio nelle rappresentazioni bidimensionali, per far percepire la tridimensionalità della scena (molto usata fin dalle prime manifestazioni di arte pittorica).

Immagine 2.3 Quando un oggetto interrompe la sagoma di un altro il cervello lo intepreta in primo piano rispetto all’oggetto occluso (illustrazione: Nardelli Ermanno)

iii. Foschia, variazioni tonali e saturazione La foschia viene determinata dalla sospensione di vapore acqueo nell’atmosfera e ha l’effetto di desaturare i colori e sfocare i soggetti, man mano che la distanza dall’osservatore aumenta. Inoltre questa variazione viene controllata anche dal punto di provenienza della luce. A seconda della posizione della luce e della sua temperatura colore 4 (per esempio il sole ha diversa temperatura 4

Immagine 2.4 Come vediamo all’aumentare della distanza aumenta la desaturazione, gli oggetti sono defocalizzati (foto: Nardelli Ermanno)

La temperatura colore è un termine usato in illuminotecnica, in fotografia e in altre discipline correlate per quantificare la tonalità della luce: si definisce temperatura colore di una data radiazione luminosa, la temperatura che dovrebbe avere un corpo nero (lo spettro luminoso emesso da un corpo nero presenta un picco di emissione determinato) affinché la radiazione luminosa emessa da quest’ultimo appaia cromaticamente la più vicina possibile alla radiazione considerata. Si misura in kelvin.

28


Fisiologia della visione stereocoscopica

colore in diverse fasi del giorno e rispetto ad una lampada al neon) viene determinata anche la tendenza al blu o all’arancio dell’intera scena. Come fattore aggiuntivo possiamo inserire anche il cambiamento di tinta in base all’inquinamento che inserisce tra i fattori cromatici anche una tendenza al grigio-marrone. Questo aspetto è molto ben reso da Leonardo nel dipingere il paesaggio posto dietro la Gioconda: un perfetto esempio dell’uso delle variazioni di foschia e tonalità. http://stereoscopicgioconda.blogspot.com

iv. Ombre e luce L’ausilio delle ombre e della luce è un parametro importante nella percezione. Vasto capitolo di studio della geometria descrittiva, può aiutare nel dedurre sporgenze e rientranze, a seconda delle ombre proprie o portate, nonché la comprensione del volume degli oggetti percepiti.

v. Linea d’orizzonte La linea d’orizzonte è l’altro parametro che analizziamo come ultimo degli indizi monoscopici. La distanza dalla linea d’orizzonte ci aiuta ad identificare la posizione relativa con altri oggetti presenti in scena. Più gli oggetti saranno vicini nei loro estremi dimensionali alla linea d’orizzonte, più essi si troveranno lontano rispetto all’osservatore. Prima di abbandonare gli indizi monoscopici, chiariamo altri due parametri percettivi molto importanti.

Immagine 2.5 Le ombre e gli illuminamenti aiutano a capire la vera forma degli oggetti (foto: Nardelli Ermanno)

Linea d’orizzonte

Immagine 2.5 Gli oggetti più vicini alla linea d’orizzonte sono assimilati come i più lontani. (illustrazione: Nardelli Ermanno)

29


Capitolo 2

vi. Movimento di Parallasse Se nei nostri parametri introduciamo la variabile temporale e i relativi cambiamenti che in essa avvengono, possiamo migliorare ulteriormente la nostra percezione degli oggetti nello spazio che ci circonda. Se una immagine bidimensionale cambia nel tempo, aumenta anche la nostra precisione nella collocazione dello spazio degli oggetti rispetto alla nostra posizione. Si parla di parallasse (completato con la dicitura “movimento di”), quando parliamo dello posizione relativa di un oggetto in una scena che cambia nell’arco di tempo. L’esempio classico che ci viene in aiuto nella comprensione della parallasse è quello del treno in movimento e del finestrino. Se guardiamo fuori dal finestrino, ci accorgiamo che il paesaggio e gli oggetti in esso si muovono a diverse velocità. Possiamo dedurre da questo movimento almeno tre parametri: • La direzione di movimento del treno. • La posizione relativa (approssimata) rispetto al nostro punto di osservazione. • Le diverse velocità degli oggetti, ci permettono di percepire meglio la loro profondità nella scena e la distanza osservatore-oggetto.

Tempo

Treno T1

Treno T2

Immagine 2.5 Il movimento di parallasse ci aiuta ad identificare meglio la distanza degli oggetti dal nostro punto di osservazione e in una certa approssimazione anche la loro grandezza (illustrazione: Nardelli Ermanno)

30


Fisiologia della visione stereocoscopica

vii. Movimento dell’oggetto osservato e dell’osservatore La velocità con cui si sposta un oggetto, può ulteriormente indicarci la distanza osservatoreoggetto. L’esempio classico, anche in questo caso, è quello dell’aereo che a distanze elevate dalla terra sembra muoversi lentamente. In realtà sappiamo che questo si muove a grandi velocità, difficilmente raggiungibili dai mezzi terrestri: più si avvicinerà al nostro punto di osservazione, più risulterà percettivamente più veloce. Nel caso si muova anche l’osservatore, questo ci aiuterà a capire ed interpretare meglio la tridimensionalità della scena.

2.3 La percezione binoculare Le tre fasi della percezione binoculare Nel 1903 Claude Alley Worth identificò le tre fasi che portano alla visione binoculare. Le fasi sono identificabili in tre e avvengono per gradì, così come menzionate. Nella prima fase di percezione simultanea, gli occhi percepiscono le immagini, ma non simultaneamente e quindi ci si trova in una condizione di percezione monoculare. Nella seconda fase detta “di fusione”, il sistema si adatta alla luce, attiva la rotazione dei bulbi (la convergenza oculare), nel modo migliore, verso il punto che vogliamo osservare e lo mette a fuoco. Gli assi passanti per il centro del cristallino si incontrano in un punto detto di convergenza che rappresenta il punto ideale in cui si troverebbe l’oggetto di interesse. Nella terza e ultima fase di stereopsi le immagini vengono fuse ed è in questa fase che il cervello riesce a ricavare le informazioni spaziali. In quest’ultima fase interviene a nostro favore la disparità binoculare (o retinica), che altro non è che la parallasse orizzontale calcolata singolarmente da ogni occhio e che poi, messa in relazione dal nostro cervello, confronta le differenze tra le due immagini percepite. La parallasse (o disparità) dedotta ci permette di migliorare e stabilire dimensione e profondità, nel processo di assimilazione delle due immagini in modo stereoscopico. Avendo a disposizione adesso due punti di vista differenti, inoltre, la rivelazione delle occlusioni, di cui abbiamo già parlato, sarà ancora migliore, perché potremo disporre di 31


Capitolo 2

occlusioni singole per poi confrontarle e ottenere ancora una volta il miglioramento della visione stereoscopica. La profondità percepita in questa fase è valutata dai propriocettori 5 , che sono dei ricettori nervosi che si occupano del controllo di movimento ed equilibrio del corpo umano nello spazio. Va specificato che per distanza ridotte, il processo stereoscopico è abbastanza accurato, mentre al progressivo allontanamento del punto di convergenza, questa valutazione diventa sempre meno precisa. Più un oggetto è distante, più la contrazione dei muscoli sarà minore o nulla e quindi più rilassante. In caso contrario, cioè con soggetti vicini, invece avremo una contrazione dei muscoli maggiore , non di rado un affaticamento visivo e in taluni casi dolore oculare.

2.4 L’area di Panum Si deve rilevare che solo in una porzione ben definita e limitata del nostro campo visivo avviene il processo di fusione e successivamente di stereopsi. Infatti, solo i punti della retina rientranti nella fovea o nell’area adiacente, riescono ad essere impressionati con una immagine che poi potrà essere interpretata similmente da entrambi gli occhi. Altre stimolazioni, invece, vengono interpretate in visione diplopica ovvero doppia. Gli studi hanno cercato di individuare quali potessero essere le aree di spazio fisico rispetto all’osservatore che potessero essere meglio assimilate nel processo di visione binoculare. Uno dei primi studiosi che cercò di identificare le aree di fusione ottimali è stato il filosofo persiano Alhazen 6 che nel XI secolo, partendo dagli studi di Tolomeo sulla visione binoculare, arrivò a formulare che gli oggetti giacenti sulla linea trasversale rispetto alla direzione di visione passante per il punto di fissazione, venivano fusi in un’unica immagine (percezione simultanea), gli altri invece venivano assimilati come doppi. Nel XVII un altro importante contributo arrivò dallo scienziato Franciscus Aguilonius 7 , coniando il termine di Oroptero 8 , 5

I propriocettori ci donano la capacità di percepire e riconoscere la posizione del nostro corpo nello spazio e lo stato di contrazione dei muscoli, anche senza il supporto della vista. 6 (Bassora, 965 – Il Cairo, 1038) Considerato uno dei più importanti e geniali scienziati del mondo islamico (ed in genere del principio del secondo millennio). Da alcuni è considerato padre dell’ottica moderna. 7 Autore di Optica (1611) 8 Oroptero è quella porzione di spazio in cui gli occhi percepiscono un’immagine su aree retiniche corrispondenti, i cui punti vengono visti singolarmente. 32


Fisiologia della visione stereocoscopica

tale termine indica la linea, immaginaria, passante per gli oggetti che vengono interpretati come in un’unica percezione dal sistema visivo. In realtà la scoperta dell’Oroptero viene erroneamente attribuita a due studiosi, Vieth e Müller che, quasi contemporaneamente, scoprono che l’oroptero non è una linea, ma era assimilabile ad un cerchio. L’area esterna al cerchio, viene definita di diplopia fisiologia 9, ed è quindi una zona di percezione non simultanea. La deduzione avviene anche grazie all’evoluzione dello studio della geometria: una circonferenza passante per i punti nodali 10 degli occhi ed il punto di fissazione, non può che contenere tutti gli oggetti dello spazio percepiti secondo la giusta visione binoculare (fusione e stereopsi). L’oroptero individuato dai due scienziati prende proprio il nome dai suoi scopritori, ovvero cerchio di Vieth- Müller11 (oroptero geometrico). Fuoco

Area di Panum

Oroptero reale

Fovea

Cerchio di vieth-Muller (oroptero teorico)

SX

DX

Immagine 2.5 Uno schema riassuntivo dell’area di Panum, vista dall’alto in una sintesi schematica essenziale (illustrazione: Nardelli Ermanno) 9

Non legata ad un problema di disfunzione oculare. Un punto nodale è quel punto immaginario dove si intersecano gli assi dei punti della retina stimolati da uno stesso oggetto fisico. 11 In realtà le conclusioni dei due studiosi sono diverse, ma storicamente viene assimilato il concetto in un unico assunto per semplicità concettuale. 10

33


Capitolo 2

Sempre sulla stessa scia degli studi precedenti, negli anni che succedono arrivarono le fondamentali osservazioni di Charles Wheatstone – ricordiamo, l’inventore dello stereoscopio – che stabilisce che l’area di percezione univoca è effettivamente più ampia dell’oroptero. Sull’esperienza di queste importanti osservazioni, Peter Ludvig Panum, osserva che i processi di visione binoculare, avvengono anche quando un oggetto non stimola punti della retina precisamente corrispondenti. E’ da qui che deriva la così detta area di Panum che altro non è che la zona attorno al punto di convergenza oculare, percepita con visione binoculare ( assenza di diplopia fisiologia). Lo schema seguente cerca di chiarire meglio questo importante e sottovalutato aspetto della visione binoculare.

2.5 Limiti della stereopsi Se partiamo dal presupposto che un individuo con una visione binoculare normale percepisce come doppio tutto ciò che si trova fuori dalla così detta area di Panum, non si deve per forza affermare che egli percepisca il mondo in doppia modalità: nella maggior parte dei casi la nostra attenzione viene rivolta esclusivamente nell’area di Panum. La diplopia fisiologica è quindi un fenomeno che si verifica molto raramente nella visione binoculare e deve essere provocato maggiormente dallo stesso soggetto. Questo tipo di diplopia si può distinguere in due tipi: • Crociata : quando la diplopia coinvolge l’area presenti tra gli occhi e il punto di convergenza. • Omonima : quando la diplopia coinvolge l’area tra il punto di convergenza e l’infinito. Come è vero che il processo di stereopsi è influenzato dall’area di Panum, è vero anche che tale processo coinvolge la distanza tra il punto di convergenza rispetto all’osservatore. Infatti, alla distanza massima di convergenza oculare, il cervello attiva i processi elementari della visione monoculare. Tale distanza è generalmente indicata in trenta metri circa: a questa distanza i muscoli estrinseci non permettono più di avere una chiara percezione e ricostruzione dell’immagine tridimensionale ed inoltre sulle due retine risulta, in pratica, impressa la stessa immagine. Nella visione ideale, infatti, gli assi oculari potrebbero 34


Fisiologia della visione stereocoscopica

convergere ad infinito, ma nella realtà conservano una disparità binoculare inferiore a 0,004 – 0,008° 12 (è un valore fisiologico di riferimento nei normodotati) e non si è capaci di ricostruire una immagine nella sua origine tridimensionale.

2.6 Le disfunzioni dell’occhio umano: la cecità stereoscopica E’ normale che alcuni però non riescano a percepire le immagini stereoscopiche anche a causa di alcune disfunzioni dell’occhio. Pur essendo esso uno strumento perfetto, spesso è soggetto ad anomalie e regressioni legate a svariate cause, quali malattie, predisposizione genetica o vecchiaia. Viene quindi fatto un breve riepilogo delle disfunzioni che possono, in qualche modo, impedire o limitare l’utilizzo e la fruizione delle tecniche stereoscopiche. Quando ci troviamo di fronte a questi casi si può parlare di cecità stereoscopica. Segue una importante rassegna di tutte le possibili cause di limitazione stereoscopica.

i. Ametropia L’ametropia o errore di rifrazione avviene quando l’occhio ha una anomalia nella convergenza della luce (ovvero i raggi visivi) sulla retina in un unico punto immagine che in caso di accomodazione rilassata, coincide proprio con il fuoco immagine del nostro sistema ottico. Quando l’occhio si trova in una condizione normale, cioè punto immagine e fuoco immagine coincido, si parla invece di emmetropia. La prima conseguenza di tale disturbo è una riduzione della acutezza visiva, che può anche accompagnarsi ad una sintomatologia dipendente anche dal tipo di ametropia. La condizione di chi è affetto da questo disturbo è quella di indossare occhiali con lenti correttive che garantiscano la giusta convergenza dei raggi visivi sulla retina. L’anomalia non pregiudica la capacità di percepire immagini stereoscopiche, in quanto l’uso degli occhiali non influenza tale processo. Il limite è considerato solo nell’indossare un altro paio di occhiali su quelli correttivi, che possono non dare però una perfetta 12 La convergenza misurabile è ancora più grande, nell’ordine di 0,062, ma grazie alla densità di ricettori retinei, concentrati nella fovea, questo angolo viene diminuito ai valori indicati.

35


Capitolo 2

visione e possono essere instabili. Per ovviare a questo problema esistono in commercio lenti stereoscopiche da sovrapporre ai normali occhiali, ma non sono molto diffuse. Più in pratica, i fruitori preferiscono indossare lenti a contatto che eliminano alla radice questo tipo di problema. I tipi di ametropia sono individuati in quattro tipi: • Miopia : è la condizione in cui il fuoco fuoco all’immagine osservata si trova davanti al piano retinico. • Astigmatismo : è la condizione in cui non si ha la presenza di un singolo punto focale. • Anisometropia : è la condizione in cui i due occhi hanno una rifrazione diversa. • Ipermetropia : è la condizione in cui il fuoco all’immagine osservata si trova oltre il piano retinico. Tutti hanno la caratteristica di richiedere lenti a contatto correttive od occhiali.

ii. Ambliopia Si tratta di un’alterazione dello spazio che di solito si manifesta, allo stadio iniziale, nei primi anni di vita; molti medici considerano questo disturbo come un caso particolare di ametropia. Più comunemente si parla invece di occhio pigro. Gli effetti principali sono un deficit dell’acutezza visiva (miopia o anisometropia) e viene considerato ambliope un occhio che presenta almeno una differenza di 3/10 rispetto all’altro. Questa disfunzione diminuisce la capacità stereoscopica a tal punto che il soggetto di solito viene portato a vedere meglio con un solo occhio che con l’utilizzo di entrambi. Anche in questo caso l’uso di lenti può ridurre il gap esistente tra i due occhi e ripristinare in buona parte la corretta visione stereoscopica del soggetto.

iii. Daltonismo Si tratta di una perdita di sensibilità verso certi colori. Le forme più diffuse sono quella sulla difficoltà di distinzione tra rosso/verde e tra giallo/blu. In alcuni casi c’è l’impossibilità di distinguere particolari tipi di colore. 36


Fisiologia della visione stereocoscopica

Una delle tecniche di stereoscopia che ne risente maggiormente è l’anaglifica che si basa proprio sull’utilizzo di lenti filtranti colorate che ,ovviamente, creeranno non pochi problemi per chi percepisce in modo anomalo i colori dei filtri, causandone una visione errata e non di sovente assenza dell’effetto stereoscopico. Le altre tecniche invece non risentono particolarmente di problemi di questo tipo, in quanto basate su diversi principi.

iv. Diplopia La diplopia rappresenta un’alterazione dell’apparato visivo che porta il soggetto ad una mancata fusione delle immagini percepite da ogni singolo occhio tramite il nervo ottico, causando così uno sdoppiamento dell’immagine che si traduce in una assenza sostanziale della visione binoculare e quindi della percezione stereoscopica. E’ una condizione non ereditaria e non legata a malattie, ma avviene dopo aver subito dei traumi o lesioni oculari, particolarmente legate al nervo ottico.

v. Strabismo E’ una deviazione nell’allineamento degli assi visivi, causata dai muscoli mal funzionanti dei bulbi oculari ed in generale la condizione interessa un solo occhio. Viene pregiudicata così la capacità di convergere gli assi visivi. Di solito vengono distinti due tipi di strabismo in base alla grandezza della disparità. Se la disparità di convergenza rientra nell’area di Panum, cioè nell’area in cui il processo di convergenza avviene con una certa tolleranza, si parla di eteforia che in nei casi più leggeri riesce a essere tollerabile per la visione stereoscopica, seppur con una certa distorsione. Nell’altro caso, invece , si parla di eterotrofia, quando la disparità della convergenza fuoriesce dall’area di Panum . Nel secondo caso la visione stereoscopica è molto compromessa e in particolari casi i soggetti vedono immagini in sovrapposizione.

37


Capitolo 2

2.7 I test stereoscopici I casi di disturbo dell’apparato visivo sono tutti molto personali e legati ad ogni individuo. Alcuni risentono molto limitatamente del loro disturbo, a tal punto di non rendersene neanche conto. In altri casi invece, questo disturbo è così radicato e tangibile che la visione stereoscopica è difficile o addirittura negata. Per fornire un primo risultato sulle capacità stereoscopica delle persone, esistono dei semplici test, svolti in ambito professionale, che aiutano il personale medico ad individuare con più precisione i diversi casi di disturbo. Elenchiamo di seguito i più conosciuti e collaudati.

i. Test delle due matite E’ il primo test che si effettua, in quanto non richiede particolare strumentazione ad uso esclusivo degli studi oculistici. Ci si pone di fronte al soggetto ed infila una penna nel suo relativo cappuccio. Questa operazione viene fatta a circa trenta centimetri dal volto del soggetto. Si invita poi il soggetto a simulare lo stesso movimento mentre noi teniamo il cappuccio, prima coprendo un occhio, poi l’altro ed infine in visione binoculare. Di solito in visione monoculare il soggetto ha bisogno di più tentativi, cosa diversa invece per la visione binoculare dove, di solito, in un solo colpo si riesce a portare a termine l’azione. In realtà il test rientra nella procedura del test di Lang ed ha la funzione di confermare o smentire i risultati dello stesso.

ii. Il Lang stereotest Rappresenta un rapido metodo di depistaggio per differenziare i microstrabismi (piccolissimi strabismi) dagli pseudostrabismi (falsi strabismi) . E’ particolarmente utile nella individuazione in caso di pazienti in tenera età, in quanto permette di osservare i loro movimenti oculari senza l’uso di macchine e occhiali sicuramente fastidiosi per il bambino. Il test si compone di una cartolina di plastica rigida formata da due strati. Sul primo c’è 38


Fisiologia della visione stereocoscopica

uno stereogramma di Julesz 13 ; ovvero una serie di punti bianchi e neri distribuiti con la stessa probabilità. In questi stessi stereogrammi ci sono delle zone, ovvero forme di oggetti che sono abitualmente ben note fin dalla più tenera età (un gatto, una stella, un’automobile), che hanno diversa distribuzione di punti. Sul secondo strato vengono posizionati un piano con delle sottili lenti cilindriche, disposte in modo parallelo, che hanno il compito di direzionare, verso ognuno dei due occhi le due immagini posizionate Immagine 2.6 sotto ogni lente. Componenti di un Lang stereotest (fonte: www.eyesfirst.eu ) Secondo il principio degli stereogrammi di Julesz solo la disparità orizzontale produce la sensazione del rilievo delle immagini e consente soprattutto una esatta percezione delle forme. I tre oggetti sono visti su piani differenti: il gatto appare più vicino all’osservatore e l’automobile più lontana. I pazienti affetti da strabismo costante, compreso il microstrabismo, non superano generalmente il test, mentre quelli affetti da ambliopia anisometropica possono dare una risposta positiva.

13 Stereogramma a punti casuali: Inventato nel 1959 da Bela Julesz, è uno stereogramma parallelo, creato al computer, composto da due immagini contenenti il medesimo pattern di punti casuali, in cui una delle due immagini presenta una zona raffigurante un qualsiasi disegno, dove questo pattern è stato leggermente spostato. Visualizzando l’immagine attraverso uno stereoscopio o a occhio nudo con la tecnica detta walleyed, il disegno verrà visualizzato tridimensionale.

39


Capitolo 2

iii. Test di Titmus o della mosca: stereo fly-test Molto diffuso e si basa proprio sull’utilizzo di occhiali con lenti colorate filtranti rosse e verdi usate per far visionare una serie di immagini che rappresentano una mosca in anaglifo. Le schede sottoposte sono man mano sempre più opache e sfumate, per rendere progressivamente difficile la visione stereoscopica; in questo modo si ottiene, in modo abbastanza preciso, la stima della capacità stereoscopica del soggetto in base al numero delle schede che riescono a riconoscere. Oggi perlopiù si utilizzano occhiali polarizzati e dispositivi simili a tablet per effettuare il test.

Immagine 2.6 Componenti di Titmus test (fonte: www.eyesfirst.eu )

40


Fisiologia della visione stereocoscopica

2.8 La visione stereoscopica artificiale i. Accomodazione visiva o messa a fuoco L’accomodazione visiva, meglio conosciuta come messa a fuoco, avviene temporalmente dopo la convergenza. Essa può rimanere costante nel tempo, mentre la convergenza può cambiare. Proprio questa indipendenza di comportamento sarà di fondamentale importanza nel passaggio dalla fisiologia alla tecnica stereoscopica. La possibilità di ricreare in modo artificiale la profondità mentre guardiamo un contenuto stereoscopico, avviene grazie alla fusione e alla stereopsi di due immagini impresse nelle due retine con una certa disparità orizzontale. Bisogna però ricordare che, nonostante tutto, i due processi si influenzano vicendevolmente. Di solito siamo abituati a mettere a fuoco nello stesso punto in cui mira la convergenza oculare, ma la maggior parte delle persone è capace di separarle per un certo periodo di tempo.

D1 SX

DX

SX

DX

D1 = D2

D2

Immagine 2.7 Con l’aumentare della distanza dall’oggetto osservato, si perdono progressivamente le sue informazioni dimensionali a causa dell’annullarsi della differenza di parallasse. (illustrazione: Nardelli Ermanno)

41


Capitolo 2

Se immaginiamo di trovarci in un cinema, è possibile capire meglio la necessaria utilità di questa capacità della visione. Normalmente in un cinema lo schermo è posto ad una distanza fissa e noi siamo seduti in un posto preciso, questo implica che la nostra messa a fuoco sullo schermo sarà pressoché fissa. In altro modo si comporta la convergenza, dato che per arrivare ad elaborare i meccanismi di stereopsi e di elaborazione spaziale dobbiamo necessariamente convergere, soltanto che questa convergenza, non avverrà allo stesso livello dello schermo se stiamo fruendo di contenuti stereoscopici 3D, avverrà o dietro o davanti al piano individuato dallo schermo.

Visione Naturale

Fuoco Convergenza

Visione di un contenuto stereoscopico Fuoco Convergenza

Schermo

Immagine 2.8 Chiarificazione grafica del processo di separazione tra fuoco e convergenza in visione naturale e stereoscopica. (illustrazione: Nardelli Ermanno)

42


Fisiologia della visione stereocoscopica

ii. Il passaggio dalla fisiologia alla tecnica stereoscopica In base ai parametri espressi finora, possiamo giungere all’assunto che esiste la possibilità di ricreare artificialmente lo spazio che ci circonda. La cosa è tutt’altro che semplice e richiede un attento studio delle tecniche esistenti e quelle in fase di studio, incontrando e valutando i problemi maggiori che possono derivare dalle tecniche di ripresa stereoscopica. Si intuisce che l’effetto stereoscopico si ottiene artificialmente producendo due immagini e tramite apposite tecniche si indirizza una ed una sola immagine verso un occhio e l’altra verso il restante in modo che il cervello venga ingannato artificialmente. Esistono varie tecniche di produzione per arrivare alla produzione di un contenuto stereoscopico. Nel nostro specifico caso lo studio si concentra su un’unica immagine che poi dovrà essere resa tridimensionale tramite opportuni artefatti. Rappresenta un caso specifico ed estremo di utilizzo della tecnica stereoscopica che richiede un ricco studio dell’immagine da rendere tridimensionale.

Conclusioni Si conclude così il nostro percorso nella ricerca fisiologica della stereoscopia, una premessa non del tutto scontata alla comprensione della tecnica. Tale base teorica sarà fondamentale per la gestione in fase pratica e tecnica dell’argomento e, una volta assimilata,ci servirà per comprendere nel modo più veloce possibile ciò che verrà esposto nelle prossime sezioni di questo breve manuale sulla tecnica stereoscopica.

43



3

Geometria e cinematografia delle tecniche di produzione stereoscopiche


Cinema. Arte figurativa in movimento. Federico Fellini


Geometria e cinematografia delle tecniche di produzione stereoscopiche

Introduzione Il luogo comune di molti neofiti del settore è che per produrre contenuti stereoscopici, basti affiancare due fotocamere o videocamere, catturare i relativi dati visivi ed elaborarli con qualche software trovato sul web in versione gratuita o a pagamento. Ciò non è del tutto veritiero, anzi, forse uno dei motivi per cui state leggendo queste pagine è quello che a risultato dato non ne siate rimasti particolarmente soddisfatti. Un’altra idea molto diffusa è che qualsiasi cosa realizzata in stereoscopia acquisti magicamente una certa importanza e senso, tralasciando le finalità di una storia o di una serie di immagini animate o statiche. In realtà la stereoscopia richiede figure nascenti come quella dello stereografo, che altro non è che un esperto che si occupa dell’aspetto stereoscopico degli artefatti, controllandolo e verificandolo in tutte le fasi produttive, dallo story-board fino al master del progetto finito. Lo stereografo, ad esempio, pianifica una mappa chiamata deph-chart in cui appunta tutti i cambi dei piani di convergenza delle scene su di un vero e proprio copione “di profondità”. Dalle ricerche bibliografiche in inglese ho dedotto che in linea generale possiamo avere di fronte a noi alcune principali modalità di realizzazione di immagini stereoscopiche: • • • •

Attraverso le immagini di due videocamere (con opportuno segnale di sincronizzazione) Attraverso le immagini di due fotocamere Attraverso software di modellazione digitale Attraverso l’elaborazione dell’immagine stereoscopica partendo da un’unica immagine esistente (il caso particolare del mio studio)

Nei primi tre casi ci troviamo di fronte a dei casi classici, con le loro peculiarità e problematiche, invece il quarto rappresenta una situazione limite in quanto non disponendo di una stereo-coppia (sono dette così le due immagini accoppiate che consentono la visione stereoscopica) siamo costretti ad elaborare procedimenti particolari per giungere al risultato finale. Segue quindi una veloce trattazione nelle prime tre aree e una più approfondita nella quarta area meglio specificata nell’ultimo capitolo, oggetto della mia tesi.

47


Capitolo 3

3.1 Stereoscopia con dispositivi di cattura immagine Una delle prime considerazioni da fare è che il sistema visivo umano è considerato da una distanza interoculare fissa che si attesta, mediamente, intorno ai 65 mm. Questo non avviene nella produzione in cui il settaggio della distanza degli interassi dei dispositivi di ripresa viene regolata in base al soggetto che si vuole mettere in evidenza. Le operazioni sono esattamente opposte a quelle che avvengono in campo fisiologico: prima si procede alla selezione dell’area di interesse, impostando la distanza interfocale e poi si applica la convergenza. L’acquisizione delle immagini deve avvenire accuratamente e tuttavia, molte volte, si deve procedere ad una rielaborazione delle catture in post-produzione. Uno dei problemi della convergenza con i dispositivi è quello di incappare nell’effetto keystoning 1 che si crea quando la convergenza è troppo accentuata, generando coppie di immagini che difficilmente potranno essere assemblate, in quanto racchiuderanno aree Piano di convergenza

Ripresa stereoscopica in convergenza

Parallasse errata

Immagine 3.1 Una convergenza eccessiva dei dispositivi causa l’effetto di keystoning, rendendo le immagini inutilizzabili in post-produzione. (illustrazione: Nardelli Ermanno) 1

48

Vedi voce nel glossario finale


Geometria e cinematografia delle tecniche di produzione stereoscopiche

trapezoidali fino al punto di essere inutilizzabili. Man mano che ci addentreremo nella produzione stereoscopica, penetreremo nell’argomento “tecnico” cercando di arricchire il nostro bagaglio culturale con l’introduzione di nuovi termini. Le maggior parte delle specifiche tecniche descritte per le videocamere reali valgono anche per le virtual-camera, molto usate nei programmi di modellazione tridimensionale (quali ad esempio Blender, 3dstudiomax, Cinema4D) e di post-produzione (uno su tutti After Effects): queste camere si comportano decisamente come quelle reali. Si possono effettuare regolazioni in tempo reale così come avviene sulle videocamere fisiche. L’unica differenza è data dallo spazio di movimento: reale quello delle videocamere, virtuale quello delle virtual-camera.

3.2 Posizionamento dei dispositivi di ripresa Quando si posizionano le videocamere per una ripresa stereoscopica bisogna tenere conto assolutamente di un fattore su tutti: l’unica possibilità di variazione di una coppia di videocamere può avvenire lungo l’asse orizzontale e solo sulla rotazione di se stesse. Geometricamente possiamo dire che l’unica traslazione possibile è lungo l’asse X e l’unica rotazione possibile è quella che come riferimento ha l’asse Y. Solitamente una coppia di videocamere ancorate solidamente tra loro, attraverso un sistema rigido, per una ripresa stereoscopica prende il nome di Rig. Un rig richiede non poco tempo per essere calibrato, quindi è decisamente necessario pianificare tutti i cambi di ottiche durante una ripresa per via del grande tempo che si deve dedicare ogni volta al settaggio di un nuovo Rig. Ciò che abbiamo indicato fino ad adesso come distanza interoculare in fisiologia, si trasformerà per le ottiche in interasse che altro non è che la distanza dal centro delle due ottiche. E’ proprio nella variazione di questo interasse e della convergenza che risiede l’aumento di profondità, la focalizzazione su un determinato soggetto ed in generale la qualità di una scena stereoscopica. La quantità di interasse da gestire varia in base alla distanza dei soggetti nella scena, estensione della superficie su cui avverrà la proiezione e il tipo di lenti impiegate per la 49


Capitolo 3

x

NO

z

NO

y

NO

Interasse

Max

x

SI

y

SI

y

NO

Immagine 3.2 I movimenti possibili per la regolazione di un rig Stereoscopico. E’ possibile vedere anche cosa si intende per interasse: è la distanza dal centro ottico di due dispositivi di ripresa (illustrazione: Nardelli Ermanno)

ripresa. In generale ci risulta utile una regola valutativa usata in gran parte del mondo, per la stima dell’interasse da adottare: la regola del trentesimo. Essa si basa su una regola molto semplice: impostare l’interasse delle ottiche a 1/30 rispetto all’oggetto che si trova più vicino. Possiamo quindi riassumere semplicemente questo concetto con una formula: Interasse camere = Distanza del Soggetto più vicino/30 Se si mette in un grafico cartesiano questa regola con Ascisse(x) come interasse e Ordinata (y) come distanza del soggetto vicino è facile intuire come l’andamento sia di tipo direttamente proporziona: all’aumentare del soggetto aumenta proporzionalmente la distanza con un divisore di 30. In parole povere, facendo un esempio, su una distanza del soggetto di 5 m possiamo ottenere come interasse ideale 166 mm. Si ricorda in ogni caso che questa è una regola generale, perché poi in ambito professionale 50


Geometria e cinematografia delle tecniche di produzione stereoscopiche

esistono apposite tabelle di conversione che tengono conto di ottiche, sensori e qualità cromatica della camera. Un altro appunto da fare è che si possono realizzare effetti particolari di Ipo-stereo e Iperstereo. Questi due fenomeni si vengono a creare, rispettivamente, quando si variano gli interassi delle ottiche rispetto a quelli che ci servirebbero. Se lo diminuiamo otteniamo un fenomeno di gigantismo (ipo-stereo), invece quando si aumenta l’interasse delle ottiche otteniamo un fenomeno di nanismo (iper-stereo).

3.3 Ottica dei dispositivi di ripresa L’ottica è una parte molto importante da considerare nella ripresa stereoscopica. Il tipo di ottica che permette di mantenere una immagine piatta senza distorsioni è sicuramente il teleobiettivo (per esempio con focale di 150 mm). Generalmente in stereoscopia vengono scelte le ottiche in base all’uso che se ne vuole fare: • Ottiche corte per riprese a distanza ravvicinata, volte a garantire un effetto di rotondità e corposità. A grandi distanze però appiattiscono le immagini, generando una specie di piani di livello di profondità. • Ottiche lunghe, quando si vuole concentrare l’attenzione su un particolare soggetto posto ad una determinata distanza. In questo caso si possono ottenere risultati buoni anche con una regolazione dell’interasse sul dettaglio a grandi profondità. Normalmente si cerca di evitare lo zoom usando delle ottiche chiamate Prime che, oltre ad avere uno settaggio ottico fisso e zoom invariabile, hanno la grande qualità di avere miglior resa cromatica, migliore controllo della profondità di campo e migliore gestione della luminosità. Sul fuoco di camera risultano presenti due scuole di pensiero. Una indica che il fuoco sul soggetto scelto è da preferire in quanto si costringe l’osservatore a convergere sull’esatta figura da mettere a fuoco. L’altra indica che tutta la scena debba essere a fuoco, perché lo spettatore possa decidere di mettere a fuoco o l’una o le altre figure, poste anche sullo sfondo. Si dovrebbe in ogni caso evitare di porre soggetti in primo piano e davanti al quadro prospettico, di cui poi parleremo, a causa della innaturale convergenza che i nostri occhi dovrebbero compiere. 51


Capitolo 3

3.4 Un caso particolare: l’ortostereoscopia L’ortostereoscopia è un caso particolare di visualizzazione. In questo tipo di visualizzazione l’immagine è resa in termini realistici. Spiegando meglio questa affermazione, si può dire che guardando una ripresa ortostereoscopica ci si rende conto che è difficile distinguere queste dall’ambiente circostante reale. La realizzazione è tutt’altro che semplice: sono richieste ottiche che hanno stesso campo visivo e stesso interasse, come per la visione umana. Deve essere considerato in aggiunta la posizione del punto di osservazione dello spettatore e la distanza di proiezione dallo stesso. Questo tipo di tecnica non può essere adottato per le grandi sale e la distribuzione cinematografica, ma ha un interessante aspetto scientifico: può essere sfruttata per simulare ambienti immersivi, realtà virtuale e in generale trova un suo uso nelle applicazioni a carattere divulgativo o scientifico, come nei musei o in medicina (ad esempio nelle operazioni chirurgiche manovrate a distanza o in zone estremamente limitate tramite robot).

Immagine 3.3 Il robot Da Vinci dell Intuitive Surgical è un esempio dell’utilizzo dell’ortostereoscopia. (fonte: http://yourgastricbypassguide.blogspot.com)

52


Geometria e cinematografia delle tecniche di produzione stereoscopiche

3.5 Convergenza Si è già ampiamente parlato di convergenza quando abbiamo affrontato la fisiologia della visione stereoscopica. Nella tecnica ci troviamo di fronte allo stesso fenomeno ripreso però in forma discreta rispetto all’occhio umano. La convergenza di una camera può essere settata fisicamente sul dispositivo di rig oppure può essere ricreata in post-produzione mantenendo le camere fisiche totalmente parallele. Quindi ci troviamo di fronte a due possibili risultati. Nel primo approccio avremo sostanzialmente una riproduzione di quello che normalmente avviene anche nell’occhio umano, nel secondo invece abbiamo la possibilità di settare la parallasse a nostra discrezione dopo le riprese. Si cerca di evitare generalmente l’uso di camere convergenti per il, precedentemente annunciato, effetto Keystoning che in alcuni casi rende inutilizzabili le riprese in postproduzione ed evita rivalità e forzature di parallasse. Oggi la tecnologia ha permesso di andare oltre questo problema nativo, creando dispositivi in grado di convergere in tempo reale su specifici soggetti (come fa l’occhio umano) e generalmente vengono impiegati in grandi eventi come le videoriprese in diretta televisiva.

Piano di convergenza

Punto di convergenza o fuoco Immagine 3.4 Il settaggio con camere parallele è preferibile per la facilità di lavorazione in produzione e per evitare eventuali effetti di Keystoning (illustrazione: Nardelli Ermanno)

53


Capitolo 3

3.6 Prospettiva zero La prospettiva zero è un importante nozione da introdurre, per avere in pieno il controllo degli oggetti in scena. Il livello di prospettiva zero è il punto, o meglio il piano, dove si vanno ad incontrare e convergere i fuochi di entrambi i dispositivi di ripresa. Si tratta del livello in cui la parallasse delle due immagini, ovvero la disparità orizzontale delle immagini proiettate, è zero. Semplicemente questo livello rappresenta il limite tra ciò che sarà percepito davanti lo schermo e quello che sarà percepito dietro. In sostanza possiamo dire che esistano tre tipi di parallasse: • Neutra, se parliamo del livello di prospettiva zero. • Positiva, se parliamo dei livelli che vengono percepito frontali allo schermo. • Negativa, se parliamo di livelli che vengono percepiti dietro allo schermo

Parallasse negativa

Livello Zero

Parallasse positiva

Immagine 3.5 Una schematica rappresentazione del livello zero con i fuochi delle camere che convergono proprio sul piano di parallasse neutra. (illustrazione: Nardelli Ermanno)

54


Geometria e cinematografia delle tecniche di produzione stereoscopiche

Il piano neutro rappresenta la superficie naturale di convergenza in quanto stiamo effettivamente convergendo nel punto di visione: diversamente sarà per gli altri due casi elencati. Uno dei limiti maggiori è quello di conoscere la natura del supporto dove avverrà la proiezione o la stampa dell’artefatto stereoscopico, questo perché una distanza di 1-2 centimetri su di un monitor per pc, si trasformeranno in 10 cm e oltre su grandi superfici, come quelle usate dai videoproiettori professionali. All’aumento della superficie, quindi, bisogna tener conto di questo importante fattore, altrimenti si causa un affaticamento visivo dato dall’eccessiva parallasse orizzontale delle immagini e talune volte l’effetto stereoscopico è annullato, segno di un evidente errore di eccessiva parallasse e progettazione dell’artefatto. A questo si deve aggiungere la quantificazione della distanza a cui lo spettatore assisterà alla visione dell’artefatto. Bernard Mendiburu (esperto stereografo e autore del magnifico libro in bibliografia) individua un importante schema visivo piramidale (piramide stereoscopica) in cui, schematicamente, ci indica tutte le informazioni legate alle zone di comfort visivo e disturbo visivo, compresi altri parametri.

Parallasse

Positiva

Neutra

Negativa

Immagine 3.6 I diversi tipi di parallasse possibili (osservabile con occhialini anaglifici) . (illustrazione: Nardelli Ermanno)

55


Capitolo 3

Lo schema non ha bisogno di spiegazioni, perché abbastanza chiaro. L’unico appunto non visibile dallo schema è che in parallasse positiva possiamo raggiungere due volte la parallasse massima, mentre in quella negativa si può arrivare anche a cinque dieci volte la parallasse massima. Vale la specifica che in queste zone estreme la durata della massima parallasse deve essere di pochi secondi, per non affaticare il sistema visivo. Questo spazio viene detto anche Depht Budget, ovvero la quantità di profondità che si ha a disposizione ed utilizzabile. All’interno del Depht Budget ricade il Depht Bracket che è lo spazio determinato dalla posizione dell’oggetto più vicino e quello dell’oggetto più lontano, quindi ne rappresenta in un certo modo una sottoarea.

Area di rivalità retinica dolorosa

Sala di visione

Piano dello schermo

Spazio stereo

Spettatore

comfort visivo

Disturbo e dolore

Area di rivalità retinica

Immagine 3.7 La piramide di visione stereoscopica secondo Bernard Mendimburu. (illustrazione: Nardelli Ermanno)

56


Geometria e cinematografia delle tecniche di produzione stereoscopiche

3.7 Finestra stereoscopica La finestra stereoscopica ha un’importanza fondamentale quando si devono disporre gli elementi. Essa non è altro che la finestra in cui avviene tutta l’azione della scena (il quadro del nostro filmato o immagine). Uno degli errori più ricorrenti è quello di violarla e purtroppo questo errore è anche presente nelle produzioni di altissimo livello. Ad esempio, possiamo vedere un aereo che si trova davanti lo schermo (parallasse negativa), ma nel momento in cui interseca il bordo della finestra di proiezione, ci accorgiamo che esso avrà il muso o la coda tagliata in modo innaturale. La percezione risulterà quindi fastidiosa, perché gli occhi costringeranno lo spettatore a mettere a fuoco continuamente piano dello schermo e oggetto intersecante la finestra stereoscopica. Per risolvere questo problema in postproduzione si ricorre al Floating windows : si porta in avanti artificialmente (variando la parallasse) la finestra stereoscopica, portandola allo stesso livello dell’oggetto in Oggetto più vicino

Oggetto intermedio

Oggetto più lontano

Depth Bracket Depth Budget

Immagine 3.8 Illustrazione schematica per individuare il depht Budget e il deph bracket. Quest’ultimo ricade all’interno del primo e rappresenta la distanza, tra l’oggetto di interesse più vicino e quello più lontano. tale spazio è regolato dalla quantità di convergenza che viene applicata ai dispositivi di ripresa (illustrazione: Nardelli Ermanno)

57


Capitolo 3

violazione, donando riposo a chi guarda il contenuto, senza fargli accorgere nulla. Solitamente però un esperto stereografo pianifica prima dove debba avvenire la convergenza e quindi dove venga posizionato il così detto livello con prospettiva zero. La formula usata per calcolare come è percepito un determinato oggetto in stereoscopia, ovvero a che distanza viene visto dall’osservatore è la seguente: Dist. tra oggetto-osservatore = Dist. tra osservatore-schermo * [dist. interoculare/(dist. interoculare - parallasse dell’oggetto preso in considerazione)]

A titolo di esempio prendiamo una distranza di parallasse negativa di 2 metri (parallasse=-2 quindi) se consideriamo uno spettatore in una sala cinematografica che si trova alla distanza di 15 metri dallo schermo e una distanza media tra gli occhi di 65 mm, usando la formula possiamo affermare che lo stesso oggetto viene percepito ad una distanza di circa 47 cm. Un interessante effetto “voluto” di questa natura è visibile nello Short Film Day and night di Pixar del 2011 (regista Teddy Newton e produttore Kevin Reher). Per non appesantire ulteriormente la lettura di neofiti dell’argomento riportiamo alcune regole generali cinematografiche di produzione per un contenuto in stereoscopia. http://www.pixar.com/shorts/d&n

• Montaggio: non effettuare cambi di inquadratura repentini, per permettere allo spettatore di assimilare la profondità di ogni scena (tempo limite minimo uno o due secondi). • Transizioni: cercare di mantenere lo stesso livello di profondità di scene contigue e con una certa continuità in caso di azione in corso (come scene di battaglia o sportive) per non disorientare lo spettatore, limitando inoltre le dissolvenze in modo cautelativo. • Sottotitoli: Sono quelli più problematici. In stereoscopia di solito si mantengono con parallasse neutra, ma in alcuni contenuti, per migliorare la leggibilità, alcuni utilizzano i titoli con parallasse non neutra in base alla complessità e alla profondità della scena, cambiandone il livello di volta in volta. • Rendering: Il rendering di una scena finale richiede molto tempo in più ed è necessario dotarsi di macchine performanti e con una buona dose di memoria Ram. Bisogna considerare che un singolo fotogramma è composto da due frame renderizzati separatamente e poi ripresi e rielaborati di nuovo in un’unica immagine. 58


Geometria e cinematografia delle tecniche di produzione stereoscopiche

Conclusioni Fin qui ho descritto, senza scendere troppo nei particolari, i vari aspetti da tenere in considerazione per quanto riguarda i procedimenti tecnici da adottare. Sono nozioni in gran parte consolidate nel settore e quindi possono solo essere soggette miglioramenti procedurali. Ci sarebbe ben oltre da dire, ma la seguente trattazione si riserva il solo compito di far penetrare il lettore in un campo inesplorato, ma molto conosciuto al grande pubblico. Per quanto riguarda invece la parte che andremo ad affrontare, ovvero quello dei dispositivi di visualizzazione, siamo in un limbo in pieno sviluppo tecnologico e molto probabilmente anche mentre sto illustrando quello che state per leggere in qualche parte del mondo qualcuno sta producendo un nuovo sistema, dei nuovi occhialini S3D o sta studiando nuovi metodi di visualizzazione sia in campo cinematografico che in quello ludico.

59



4

Stato dell’arte della visualizzazione in stereoscopia


Non esiste cosa alcuna che l’arte non possa esprimere. Oscar Wilde ,Il ritratto di Dorian Gray, 1890


Stato dell’arte della visualizzazione in stereocscopia

Introduzione Quando si parla di tecniche di visualizzazione e di riproduzione siamo di fronte ad un ampio campo di studio ancora tutto in evoluzione. Cercheremo di elencare vantaggi di uno e difetti di un altro riferendoci sostanzialmente a tre fattori: • Resa cromatica ; • Economia e flessibilità del sistema ; • Uso o meno ed economia di ulteriori dispositivi ; Secondo la divisione di Bernard Mendiburu si possono distinguere le tecniche oggi adottate in grandi tipologie: • • • • •

Naturali ; Secondo lo spettro del colore ; Per polarizzazione (passiva) ; Shutter (attiva) ; In Autostereoscopia e in HMD ;

4.1 Tecniche naturali Sono tecniche che consentono la visualizzazione in stereoscopia senza l’ausilio di nessun strumento quali occhiali o dispositivi dedicati. Si basa su due immagini affiancate e secondo la disposizione di queste esistono due tipi di visione: • Parallela (parallel-eye) ; • Crociata (cross-eye) ; Ci troviamo nell’ambito del parallelo quando ogni occhio percepirà esattamente l’immagine posta nello stesso lato (destro-immagine destra / sinistro-immagine sinistra), diversamente il crociato corrisponderà all’occhio opposto in cui viene collocata l’immagine. Per percepire l’immagine lo spettatore deve essere capace di sovrapporre le due immagini scindendo il 63


Capitolo 4

Immagine 4.1 Una elaborazione per la percezione in parallel-eye (fonte: http://sci-toys.com)

Immagine 4.2 Una elaborazione per la percezione in cross- eye (fonte: http://www.ssi-3d.it)

fuoco e punto di convergenza, di solito convergendo verso un punto lontano e focalizzando sul supporto. E’una modalità usata molto raramente in quanto la sovrapposizione delle immagini richiede uno sforzo notevole e per un tempo molto limitato. L’unico utilizzo possibile di queste immagini è come veloce visualizzazione affiancata nel caso ci si trovi a dover verificare “al volo” la qualità di sovrapposizione di un contenuto stereoscopico.

64


Stato dell’arte della visualizzazione in stereocscopia

4.2 Tecniche secondo lo spettro del colore Si tratta della prima tecnica adottata in una visualizzazione di tipo sovrapposto, ovvero attraverso una sola immagine sovrapposta contenente entrambe le immagini . Infatti parliamo già del 1853, quando W. Rollmann intuisce le potenzialità di questa tecnica adottando due colori limite dello spettro visibile da un occhio umano: rosso 1 e blu (o meglio ciano).

a

b

Immagine 4.3 (a,b) Occhiali di tipo anaglifico e una immagine autoprodotta sul quadro di un autore futurista (foto ed elaborato: Nardelli Ermanno)

In questo caso si devono usare delle lenti passive 2 (costo di pochi euro) con gelatine (pellicole plastiche) colorate rosso per l’occhio sinistro e ciano per l’occhio destro. Un anaglifo (così viene chiamata l’immagine percepibile con questo tipo di tecnica) è uno stereogramma in cui l’immagine dedicata alla visione dell’occhio sinistro ha componenti cromatiche rosse e l’immagine dedicata all’occhio destro ha componenti cromatiche riconducibili al ciano. Si deve specificare che il ciano è il colore derivante dalla sottrazione del blu e del verde, che con il rosso fanno intuire il motivo per cui si utilizzano questi due colori: si riesce infatti a coprire la maggior parte dello spettro visibile dei colori percepiti. 1

In realtà è il viola, ma si preferisce il rosso per distinguere meglio i colori, cosa che non avverrebbe adottando il viola come colore della lente. 2 Cioè prive di qualsiasi componente che ne presupponga un funzionamento elettronico. 65


Capitolo 4

I vantaggi sono da ricercare nell’estrema economicità di produzione, di visualizzazione sui più disparati supporti (dal video alla stampa). E’ quindi una tecnica con grande versatilità. Le note dolenti sono la sua alterazione dei colori naturali dell’immagine, tanto da portare molte volte al passaggio delle immagini in tonalità di grigi per non avere nessun tipo di problema nel visualizzare eventuali colori simili sovrapposti da un occhio invece che dall’altro che pregiudicherebbero la visione tridimensionale dell’anaglifo stesso. Tale problematica prende il nome di rivalità dell’immagine nota a livello fisiologico come rivalità retinica. Altri colori meno usati sono gli abbinamenti : • Blu-Giallo: caratterizzati dal fatto di rendere la pelle umana cromaticamente più realistica. • Verde-Magenta: resa della luminosità buona rispetto al precedente, ma inutilizzabili con anaglifi in cui il colore rilevante è di tipo vegetale. Ritornando alla tecnica rosso-ciano resta da dire che questa tecnica sarà quella adottata nell’ambito produttivo del lavoro svolto in questa tesi, proprio per i motivi precedentemente elencati. I motivi di tale scelta saranno meglio esposti e più chiari leggendo anche gli altri tipi di tecnica sviluppati che non si prestano per nulla ad un utilizzo editoriale e hanno bisogno di molte tecniche aggiuntive di produzione, in contrasto con il lavoro che

Immagine 4.4 un immagine realizzata con il ColorCode3D. Si noti la minima alterazione dei colori naturali (fonte: http://www.tomtroceen.com)

66


Stato dell’arte della visualizzazione in stereocscopia

desideriamo produrre, cercando di tenere d’ occhio anche l’aspetto economico. Un’altra tecnica basata sull’uso dello spettro del colore è rappresentata dal ColorCode 3D, brevetto del 2004 e adottato soprattutto in America che utilizza giallo e viola come colori percepibili. La tecnica è migliore e permette di percepire meglio la gamma dello spettro sia con, che senza occhiali (le immagini non risultano fastidiose), pagata però da un affaticamento più sbilanciato in luminosità verso un occhio rispetto ad un altro. L’utilizzo più interessante resta l’utilizzo in diretta nel super-bowl americano.

4.3 Tecniche per polarizzazione passiva Nonostante sembri una tecnologia nata ai nostri giorni, le lenti polarizzate sono relativamente molto longeve. I suoi primi utilizzi sono databili nella seconda metà degli anni trenta e la maggior parte dei film nel primo boom dello S3D (anni cinquanta) adottava proprio questo tipo di lenti come mezzo di visualizzazione. Gli occhiali per questa visualizzazione sono abbastanza leggeri e si basano sostanzialmente sul filtraggio delle luci polarizzate in fase di proiezione. La loro qualità sta nel fatto di avere una bassa interferenza sulla gamma cromatica, donando immagini molto fedeli alla realtà. Ciò nonostante questo sistema risulta abbastanza complesso da riprodurre in quanto si deve usare un sistema proiettivo capace di polarizzare la luce diversamente per ogni occhio ed un altrettanto schermo riflettente (nel caso di sale cinematografiche) che mantenga la stessa polarizzazione in entrata e in uscita verso il pubblico. Spieghiamo brevemente come funziona la polarizzazione attraverso un filtro polarizzante, cioè cosa avviene dentro le lenti degli occhiali polarizzanti. Le lenti sono formate da una sottilissima serie di lamelle spaziate tra loro in modo da far passare solo una certa frequenza di luce e quindi una specifica lunghezza d’onda. Se una luce attraversa un filtro ci arriverà solo la luce filtrata che è stata scelta di far passare. Sostanzialmente le polarizzazioni per ogni occhio si alternano velocemente nell’arco temporale di una proiezione, ma questo avviene solo nella polarizzazione circolare, la lineare è sostanzialmente polarizzata sempre nella stessa direzione.

67


Capitolo 4

Illustrazione 4.6 Funzionamento della polarizzazione lineare attraverso un filtro polarizzante linearmente. Passeranno solo le luci polarizzate nella direzione ortogonale alle lamelle del filtro. (Autore: Dave Stacker - GNU Free Documentation License)

Possiamo distinguere in due categorie i tipi di polarizzazione: • Polarizzazione lineare ; • Polarizzazione circolare ; Abbiamo polarizzazione lineare quando i filtri sono polarizzanti in direzioni specifiche come l’orizzontale e il verticale. Questo tipo di polarizzazione presenta il problema di mantenere necessariamente la testa diritta quando si sta guardando il contenuto stereo, diversamente si causa la perdita di allineamento dei filtri e perdita dell’allineamento della luce da polarizzare. E’ per questo che sono nate le lenti con polarizzazione circolare in cui la polarizzazione si realizza in due direzioni ortogonali su entrambe le lenti, che hanno entrambi i tipi di filtri integrati in un doppio strato. Questo comportamento genera una oscillazione tra la componente verticale e orizzontale che può essere assimilata ad una spirale (considerando il fattore temporale). E’ in sostanza il sistema RealID tanto diffuso nelle sale cinematografiche di cui usufruiamo oggigiorno. Ciò nonostante anche la polarizzazione circolare ha i suoi difetti, infatti è soggetta ad un effetto chiamato ghosting, cioè il problema di percepire 68


Stato dell’arte della visualizzazione in stereocscopia

Illustrazione 4.6 Funzionamento della polarizzazione circolare attraverso i due filtri polarizzanti. Passeranno solo le luci polarizzate nella direzione voluta in quel preciso istante di tempo. (Autore: Dave Stacker - GNU Free Documentation License)

Immagine 4.7 Un tipo di occhiale passivo a polarizzazione circolare simile a quello fornito nelle sale cinematografiche. (fonte: http://www.theinquirer.net)

con un occhio anche alcuni frammenti del fotogramma destinato all’altro occhio (una rivalità dell’immagine in sostanza). Inoltre, rispetto alla polarizzazione lineare, abbiamo bisogno di proiettori più potenti che siano in grado di passare entrambi i filtri di ogni 69


Capitolo 4

lente. Il sistema circolare è il settore, in campo cinematografico, dove si concentrano gli investimenti, proprio grazie alla particolare economicità degli occhiali e della qualità di resa cromatica, relativamente molto accettabile.

4.4 Tecniche Shutter attiva Il sistema shutter si basa sulla proiezione di una sequenza alternata di immagini occhio sinistro/destro. Il funzionamento di questo sistema si basa sulla persistenza visiva . Il fenomeno di persistenza, ovvero il periodo in cui l’immagine sulla retina risulta fissata anche dopo la scomparsa dello stimolo visivo è quantificabile in 120-130 ms. per le immagini in movimento e 50-80 ms per le immagini fisse. Si cerca quindi di far ricevere la coppia alternata di immagini in un tempo pari alla metà dell’intervallo di persistenza. In generale bastano 40 fps (frame per second) per garantire una corretta visione con questa tecnica. I dispositivi di cui dobbiamo necessariamente disporre per questa tecnica sono un

Immagine 4.8 Un tipo di occhiale shutter di tipo attivo (fonte: http://www.theinquirer.net)

70


Stato dell’arte della visualizzazione in stereocscopia

display con almeno 100-120 fps (schermi 3DReady), degli occhiali “attivi” (alimentati) che oscurino in perfetta sincronia, tramite un sincronizzatore occhiali-schermo, le immagini emesse dal dispositivo.

4.5 Tecnica autostereoscopica e HDM

Particolare attenzione si deve prestare nel non confondere l’ortostereoscopia (di cui abbiamo parlato nei capitoli precedenti) con l’autostereoscopia. Si tratta di una soluzione ibrida, cioè a cavallo tra le tecniche naturali e quelle assistite elettronicamente. In realtà l’idea dello stereoscopio è un concetto vecchio (inizi del 900) e ormai abbastanza usata involontariamente: un esempio sono i pannelli mobili dei giochi che scorrono sotto una lastra plastica con tante striscie lenticolari parallele (una specie di semi-cilindri), che attraverso il movimento creano quell’effetto di animazione tanto amato dai bambini. Il sistema viene riproposto con una variazione: invece che una rete lenticolare, si interfaccia una barriera di parallasse. Questo significa che fisicamente si crea una sovrapposizione Immagine Sx

Barriera di parallasse

Pixel

Sx Immagine Dx

Dx

Lenti semi-cilindriche (sistema lenticolare)

Pixel

Illustrazione 4.9 Illustrazione schematica del funzionamento dei dispositivi basati su di una barriera di parallasse. A sinistra il relativo sistema lenticolare da cui deriva l’idea tecnica di produzione (illustrazione: Nardelli Ermanno)

71


Capitolo 4

di una griglia con sottili fessure disposte verticalmente che vanno a nascondere i pixel destinati ad ogni singolo occhio, facendo invece filtrare quelli che ci interessano. Un interessante esempio di integrazione è nel Nintendo3DS che adotta proprio questo tipo di tecnica (gli schermi che utilizzano questo sistema sono detti auto-stereoscopici). I difetti di questa tecnica sono relativi al fatto di essere solo per un ristrettissimo pubblico in contemporanea, di non poter inclinare la testa nella fruizione ed essere integrati solo su piccoli dispositivi. Questo sembra essere il campo in cui lo sviluppo della ricerca investe più denaro, proprio per la sua estrema semplicità nella fruizione, senza l’uso di dispositivi sullo spettatore. Altro cenno particolare merita il sistema HDM (Head Mounted Display), noti al grande pubblico come visori per la realtà virtuale. Si tratta di caschetti che isolano completamente il fruitore dal mondo reale per immergerlo in un mondo fittizio. La grande particolarità di questi dispositivi risiede nella capacità di ruotare e traslare l’ambiente virtuale in base agli effettivi movimenti del soggetto che lo indossa, creando effettivamente una sensazione di completa immersione.

Immagine 4.10 Un HDM della xSight Panoramic Head-Mounted Display (fonte: http://sensics.com)

72


Stato dell’arte della visualizzazione in stereocscopia

4.6 Filtri interferenziali Siamo di fronte ad una tecnica cross-road, ovvero non collocabile. I filtri interferenziali rappresentano una soluzione basata sempre sull’uso di occhiali dedicati. Stiamo parlando della tecnologia Dolby3D. Con questo metodo abbiamo bisogno di due proiettori e occhialini con doppio strato filtrante (detti occhiali dicroici) che permettono di leggere due immagini proiettate con lunghezze d’onda differenti. Ogni occhio sarà capace di percepire una sola lunghezza d’onda escludendo l’altra. Non ci addentriamo nel suo funzionamento specifico, perché abbastanza complesso e lungo da chiarire in questa trattazione. Si lascia al lettore la possibilità di approfondirlo attraverso ricerche mirate sul web e alla bibliografia. Si estrae da quanto detto precedentemente una tabella riassuntiva di tutti i sistemi visti, per comprenderne, con il confronto diretto, vantaggi e svantaggi di uno rispetto ad un altro. Come si evince dall’osservazione l’unico metodo a poter essere usato su tutti i supporti, seppur di scarsa qualità visiva, è rappresentato da quello basato sullo spettro del colore. Proprio questa procedura di produzione sarà oggetto della parte pratica di questa tesi, dato i suoi bassi costi di gestione e la sua totale e particolare flessibilità sui diversi supporti visivi.

TECNICA

RESA CROMATICA

RIVALITA’ CINEMA MONITOR

STAMPA

USO OCCHIALI

NATURALE

5

5

/

si

si

/

SPETTRO DEL COLORE

2

1

si

si

si

si

POLARIZZAZIONE

4

3

si

si

/

si

SHUTTER

3

3

si

si

/

si

AUTOSTEREOSCOPICA

4

5

/

si

si

/

INTERFERENZIALE

4

4

/

/

/

si

* Su una scala da 1 a 5 (maggiore è migliore)

Tabella 1

73


Capitolo 4

4.7 Autostereogrammi Menzione a parte e un cenno particolare meritano gli autostereogrammi che sono il più rudimentale esempio per sfruttare la tecnica stereoscopica. La grande qualità di uno autostereogramma risiede nel fatto che non ci vogliono dispositivi particolari per osservarlo, ma la visualizzazione è solamente legata alla qualità intrinseca dello stesso e alla nostra capacità ed esercizio nel percepirlo. Si tratta di una immagine composta da un pattern ripetuto simile ad una texture che, grazie a piccole variazioni nella ripetizione del pattern, riesce ad ingannare il cervello e a far percepire all’interno di queste, figure tridimensionali. Per crearli si deve disporre di due immagini; la prima è l’immagine tridimensionale in scala di grigi (la così detta depth-map, che ritroveremo più avanti nella trattazione) che si vuole nascondere, la seconda è proprio la texture dietro alla quale l’immagine sarà celata. Quando l’osservatore cerca di mettere a fuoco un piano immaginario posto dietro al piano della texture, il cervello viene tratto in inganno, perché interpreta la disparità delle variazioni in un’unica campitura della texture, generando i livelli di profondità per cui sono molto conosciuti e apprezzati gli stereogrammi. Questi ci lasceranno percepire una immagine in tridimensionale già prestabilita a priori. Per la realizzazione di stereogrammi si usano software dedicati che generano per noi immagini impossibili da ottenere manualmente, ad esempio, con l’ausilio di programmi di fotoritocco. Ad esempio un programma gratuito che permette di elaborare in forma autonoma, tramite un pattern, immagini stereografiche è stereogram Lab Filter che altro non è che un plugin filtro di Adobe® Photoshop® da integrare alla versione originale (licenziata).

Immagine 4.11 Autostereogramma e relativa depth -map (Autore: David Chapman - GNU Free Documentation License)

http://www.hidden-3d.com/stereogram_photoshop_filter.php 74


Stato dell’arte della visualizzazione in stereocscopia

4.8 Schermi Gli schermi rappresentano una ampia fetta di mercato e non possono mancare di essere menzionati, tuttavia nonostante la grande quantità e differenza di tipologie diffuse ci limiteremo ad elencarne solo pregi e difetti in quanto il web è saturo di chiare ed esaustive informazioni reperibili proprio presso gli stessi produttori. Si rimanda all’approfondimento del lettore, in quanto una completa ed esaustiva trattazione delle tipologie risulterebbe tediosa ed inutile nella nostra trattazione. http://www.planar3d.com/

i. Passivi Come per sistemi visivi anche in questo caso siamo di fronte a monitor che non si comportano in modo attivo verso lo spettatore o verso un dispositivo indossato dallo stesso, ma si può dire in linea generale che tutti gli schermi secondo gli standard minimi sono passivi (basti pensare al flessibile sistema anaglifico). Quando si restringe questo campo ai sistemi polarizzati gli schermi si restringono ad un numero molto più limitato. Infatti, sono solo due i tipi di sistemi passivi polarizzanti: • Schermi a specchio (stereo-mirror): ingombranti e composti da due monitor in perpendicolare con uno specchio riflettente e filtrante al 50% capace di far sovrapporre l’immagine riflessa all’altro monitor. I due monitor hanno emissioni diverse di luce polarizzata. Sono sistemi dedicati a professionisti ed una delle azienda più attive del settore è la Planar. • Altri schermi: ancora molto poco diffusi e per la maggior parte ancora in sviluppo.

Immagine 4.12 Uno schermo della planar 3D (fonte: http://www.planar3d.com/)

75


Capitolo 4

ii. Attivi Come affermato nei precedenti capitoli, per far funzionare in modo attivo uno schermo bisogna avere almeno 120 Hz di frequenza. Il 3D in questi casi si può avere a prezzi accessibili. Per ottenere il 3D si usa una combinazione di scheda video, driver dedicati della stessa scheda e dispositivi di sincronizzazione (oltre agli immancabili occhiali shutter). I tipi di monitor anche in questo caso possono essere separati in grandi categorie come gli: • Schermi LCD: i primi a soppiantare quasi totalmente gli schermi CRT, molto più ingombranti e assetati di energia. Rappresentano ancora un ampia fetta di mercato e sono gli schermi ideali per la visualizzazione in stereoscopia, anche grazie al recente passaggio verso i pannelli a Led. I tempi di risposta sono nella media. • Schermi al Plasma: Utilizzati per dispositivi televisivi (quindi non delegati all’uso in abbinamento con pc). Hanno frequenze di aggiornamento elevate già in modo nativo. I tempi di risposta di questo tipo di schermi sono molto bassi • Schermi Oled: E’ la novità degli ultimi anni. I pannelli di questo tipo utilizzano un pannello composto da Led. La grande qualità, più che nella visualizzazione di contenuti stereoscopici, è quella legato al risparmio di energia, quantificabile in circa il 75% in meno rispetto ad uno standard pannello LCD. Possiamo dire che rappresentano la punta di diamante del settore in quanto è investito di notevole sviluppo.

4.9 Proiettori Esistono quattro tipologie di proiettori: DLP: Sviluppata da Texas Instrument, rappresenta una soluzione, il più delle volte, molto più performante rispetto ai sistemi basati su LCD. La tecnologia è particolare. Ci sono migliaia di piccoli specchi (che ne stabiliscono la risoluzione nativa) che sono posti su un circuito integrato (DMD – Digital Micromirroring Device). Questi stessi specchi hanno la possibilità di orientarsi indipendentemente, decidendo , in base alle informazione impartite dal segnale in ingresso, se un certo specchio debba essere orientato per proiettare luce verso l’esterno o per dirigerla verso un dissipatore. Hanno una qualità e 76


Stato dell’arte della visualizzazione in stereocscopia

una definizione ottima e per i proiettori dedicati alle sale cinematografiche si adotta una tecnica di proiezione diversa, utilizzando non un solo DMD, ma ben tre, uno per colore (proprio il sistema RGB). LCD/3LCD: Gli LCD sono stati sostanzialmente le prime tecnologie adottate per il mercato consumer e diventate subito accessibili grazie alla relative economicità dei dispositivi. In questo caso si ha una matrice di sensori in cui passa la luce ed un filtro dinamico provvede a illuminare o non illuminare una certa area. Lo sviluppo di questo tipo di dispositivo si è evoluto verso il 3LCD che attraverso una serie di prismi scompone la luce nei tre segnali e la ricompone all’uscita, aumentandone notevolmente la qualità. CRT: La storia dei proiettori CRT è molto lunga, ma in generale questo sistema non è più adottato (scarsa luminosità, problema con l’allineamento RGB, ingombro) ed è considerato ormai obsoleto. SXRD: Sviluppato da Sony e in concorrenza diretta con il DLP, ma fallimentare alla prima produzione di alcuni schermi a retroproiezione. Dobbiamo aspettare i prossimi anni per vedere chi tra Texas e Sony la spunterà o se ci sarà un completo abbandono della tecnologia.

i. Sistemi a proiezione singola RealID: Sistema creato da L. Lipton uno dei nuovi pionieri della stereoscopia moderna. Sistema basato su un dispositivo posto davanti alla lente (Z-Screen) che polarizza la luce in modo alternato ad una frequenza di 144 Hz. Si intuisce, in base alle nozioni fornite nei precedenti capitoli, che questo sistema è di tipo circolare ed esso viene sincronizzato con il sistema proiettivo. Sapendo che la frequenza è l’inverso del secondo (frequenza = 1/sec) e considerando una frequenza di immagini al secondo (fps) di 24 fotogrammi (in stereoscopia è il doppio: 48 fps) si deduce che è possibile mostrare alternativamente per tre volte in un solo fotogramma questa alternanza di polarizzazione. E’ il sistema più diffuso, ma il punto negativo è la forte perdita di 77


Capitolo 4

luminosità del percorso della stessa immagine verso l’occhio, infatti l’80% della luce si disperde tra sistema, schermo e occhiali, prima di colpire l’occhio. XpanD: Il sistema XpanD è con lenti attive (shutter) che fanno da polarizzatori in sync con il sistema. Le problematiche degli occhiali shutter e le loro qualità sono già state espresse nella sezione dedicata. Dolby3D: Di questo sistema abbiamo già parlato nei capitoli precedenti. Sistema costoso e con campo visivo limitato, ma comunque valido. Master Image: Merita solo una menzione, ma il suo sistema meccanico, basato su di un disco polarizzatore rotante non lascia presagire importanti sviluppi futuri ed è anche abbastanza delicato e soggetto a polvere.

Immagine 4.13 Un sistema a proiezione doppia di origine Giapponese (fonte: http://blog.planar3d.com)

78


Stato dell’arte della visualizzazione in stereocscopia

ii. Sistemi a proiezione doppia I vantaggi di un sistema a proiezione con due dispositivi separati sono diversi: • Si può avere un guadagno in termini di luminosità grazie all’impiego di due proiettori e quindi due lampade separate. • Si possono impiegare proiettori dal costo relativamente ridotto, accoppiandoli. • Raggiungimento di risoluzioni interessanti. In questo campo la soluzione più conosciuta è rappresentata dall’ IMAX 4K 3D, ma in ambito domestico basterebbe disporre due proiettori proiettabtu immagini in sovrapposizione con lenti polarizzate filtranti per ottenere un effetto molto accettabile.

4.10 I problemi legati al digitale Il digitale ha prodotto una grande innovazione attorno a se, ma come tutte le tecnologie esistenti oltre a presentare grandi vantaggi, ha al suo seguito anche numerosi problemi legati proprio alla sua natura elettronica. Molti di questi problemi sono legati alla qualità dei sensori sia in ambito consumer che professionale. Uno di questi è il conosciutissimo ed impropriamente chiamato “alone”. In realtà è il Purple Fringing che è quell’effetto di sfocatura che si viene a creare quando in una immagine, ripresa con qualsiasi tipo di sensore (il difetto diminuisce con l’aumento di qualità), presenta nelle aree con un brusco passaggio chiaro-scuro. Si viene a creare in diverse situazioni: dalla presenza di più fonti luminose diverse contemporaneamente (diversa temperatura colore) fino alla sovraesposizione dell’ immagine. Altro difetto da elencare è la deperibilità del sensore. Capita, infatti, che molti sensori già dall’inizio della propria vita siano difettati da diodi non funzionanti che genereranno i così detti Dead pixel o Hot pixel, cioè aree dell’immagine in cui ci sarà o luce massima (o colorata in modo anomalo) o spegnimento totale del pixel. Di solito le case produttrici, per mettersi al riparo da eventuali resi, avvertono nelle condizioni di garanzia che potrebbe esserci una certa percentuale di pixel afflitta da questo problema (che si traduce in da 1 a 3 pixel massimi sull’intero sensore) di cui non rispondono ai fini della garanzia. 79


Capitolo 4

Immagine 4.14 Effetto Smear (foto: Nardelli Ermanno)

Altro difetto dei sensori CCD è lo Smear, quella fastidiosa luce che appare quando riprendiamo fonti di luce intense in modo sostanzialmente diretto. Il risultato si traduce in fastidiosissime barre luminose che attraversano le intere immagini. La soluzione è nella giusta regolazione del dispositivo di ripresa. Il rolling shutter infine viene generato dai sensori CMOS (si lascia al lettore l’indagine sulle differenze tra CCD e CMOS) che invece di fare una scansione simultanea dell’intera immagine, la fanno in modo temporale riga per riga. Questo genera effetti di deformazione quando muoviamo, ad esempio, il dispositivo di ripresa molto velocemente in una certa direzione. Altro difetto che porta a questo disturbo è l’illuminazione dell’ambiente con lampade a scarica (neon ad esempio) che purtroppo hanno un’incostante generazione di luminosità. Ultimo, ma non per importanza, è la compressione con perdita di informazione del segnale, problema legato sia alla qualità del dispositivo di ripresa, sia al tipo di codec usato per comprimere la stessa immagine. In una immagine stereoscopica il segnale deve essere di alta qualità. Più un dispositivo comprime il segnale (immagine o video) finale, più il risultato stereoscopico è deludente, a causa della perdita di informazioni non più recuperabili rispetto a formati così detti loss-less, cioè senza perdita di qualità. 80


Stato dell’arte della visualizzazione in stereocscopia

Immagine 4.15 Effetto Rolling Shutter su un sensore CMOS economico (foto: Nardelli Ermanno)

Immagine 4.16 Purple Fringing su di un soggetto luminoso con fondo nero (autore: Nardelli Ermanno)

81


Capitolo 4

4.11 Criticità cinematografiche La critica si lega sostanzialmente alla considerazione che se un film non funziona nella sua trama, allora non ci sarà utilità o nessun valore aggiunto nel concepirlo in stereoscopia. Nonostante il nostro intento sia di chiarire gli aspetti legati al solo campo della stereoscopia non ci possiamo sottrarre a queste considerazioni di tipo cinematografico. Bisogna ricordare che la stereoscopia ha già fallito una volta (anni 50) e potrebbe fallire di nuovo. Il perché è da ricercarsi nell’imporre la stereoscopia a tutti i costi e in tutti i tipi di film solo per attirare grande pubblico. Grazie alle nuove tecniche rivoluzionarie, si è reso questo medium alla portata di tutti, ma allo stesso tempo l’industria ha saturato notevolmente il mercato, creando dei titoli che si fregiano solo del nome del loro essere film in quanto tali. Ultimi esempi più lampanti di un applicazione fuorviante delle tecniche stereoscopiche sono proprio i film italiani, come ad esempio Box Office 3D (2011) in cui l’uso della stereoscopia oltre ad essere inutile e a non fornire nessun valore aggiunto, risulta del tutto fastidioso e di scarsa qualità o in Com’è bello far l’amore di Fausto Brizzi (2012). Insomma il mercato italiano sembra interessato a questo tipo di medium, ma come sempre ne fa un uso disinvolto, sciatto e del tutto inutile ai fini della trama. Non tralasciamo neanche il mercato estero che ormai vanta l’onnipresenza di questa tecnologia nelle più disparate produzioni. La tridimensionalità ha, nonostante tutto, anche un prezzo: i film in cui è integrata sono costellati di cadute, voli, strapiombi, armi e violenti movimenti. In questo momento immaginatevi un film in tridimensionale di quelli avanguardistici in cui i movimenti e le inquadrature sono in stretto contatto con la psiche e la sensazione dei personaggi. Beh, in un certo senso mentre scrivo sto sorridendo, perchè in questo caso il S3D non aggiunge niente di nuovo, anzi, degrada il volere originale del regista. Insomma, la rivoluzione c’è stata è si vede, ma si spera che, come per tutte le grandi novità, il passare del tempo porti a ridimensionare questo nuovo elemento tecnologico per il grande pubblico, così come avviene da sempre nei campi in cui ci sia una novità tecnologica sconvolgente. Partner di questo cambiamento saranno in primis tutti i fruitori con il loro indice di gradimento dei contenuti e dei produttori dei sistemi tridimensionali. Spetta infatti agli stessi produttori il compito di far evolvere il mercato in una dimensione più intima e delicata.

82


Stato dell’arte della visualizzazione in stereocscopia

4.12 Danni visivi nella visualizzazione stereoscopica artificiale: un allarme ingiustificato Quante volte si è sentito parlare di eventuali danni provocati dalla visione di contenuti stereoscopici in modo artificiale? Negli ultimi anni il dilagare di questo fenomeno ha accentuato l’interesse degli studiosi del settore per capire se ci può essere un legame con degenerazioni legate al sistema visivo nella continua fruizione di contenuti stereoscopici. Il dilagare di tecnologie 3D ha interessato tutti i settori, dal cinema alle consolle per videogiochi, fino ai modernissimi smartphone e tablet. Ciò ha diffuso un certo timore nell’uso delle tecnologie stereoscopiche, soprattutto se queste sono sottoposte ad un pubblico formato da bambini ed adolescenti in piena fase evolutiva. Alcuni 3 indicano che la visione prolungata di contenuti 3D, potrebbe portare a disturbi della vista, mal di testa, stanchezza ed ovviamente la visione di contenuti di questo tipo viene sconsigliata a chi soffre di disturbi neurologici, come l’epilessia. In particolare le ricerche hanno potuto constatare che se siamo di fronte ad uno schermo che viene osservato da vicino, i contenuti posti davanti al piano individuato dallo stesso sono più fastidiosi da guardare di quelli posti dietro, invece nel caso di visioni a distanze maggiori (come nelle sale cinematografiche), è il contenuto posto dietro lo schermo, quindi oltre il piano di proiezione, a risultare meno confortevole (anche se Mendimburu, come abbiamo visto, individua una precisa piramide stereoscopica delle zone di comfort e affaticamento). Durante la visione di un contenuto gli occhi si concentrano sullo schermo, perché è la fonte da cui arriva la luce, e nello stesso momento si deve convergere verso il contenuto stereoscopico che non si troverà allo stesso livello dello schermo, questo però secondo Martin Banks 4 . Il fenomeno è già da tempo sotto osservazione anche da parte del Ministero della Salute che il 17 marzo 2010 ha emanato una circolare 5 per regolamentare l’utilizzo 3

I ricercatori della University of California hanno condotto uno studio, pubblicato sulla versione online del Journal of Vision, sottoponendo 24 volontari alla visione di alcuni contenuti tridimensionali, che apparivano sia anteriormente allo schermo, che posteriormente ad esso. 4 Professore di optometria alla University of California e autore dello studio.In Italia 5 Il Ministro della Salute Prof. Ferruccio Fazio ha firmato la Circolare “Occhiali 3D per la visione di spettacoli cinematografici” alla luce delle considerazioni espresse dal Consiglio Superiore di Sanità. Il provvedimento è stato inviato agli esercenti della sale cinematografiche, ai Dipartimenti di prevenzione 83


Capitolo 4

degli occhiali 3D nella visione cinematografica. Anche per quanto riguarda i videogiochi, la raccomandazione per gli adulti è quella di fare mezz’ora di pausa ogni ora di gioco e ridurre, per quanto possibile, la profondità tridimensionale al minimo, come previsto in questo tipo di consolle, tramite un apposita levetta.

delle Asl ed al Comando dei Carabinieri per la tutela della Salute (NAS). Nella Circolare si sottolinea che il Consiglio ha rilevato che in soggetti in tenera età in seguito all’utilizzo di questi occhiali può insorgere qualche disturbo di ordine funzionale (nausea, vertigine ed emicrania), senza tuttavia che si abbiano danni o patologie irreversibili. Tali disturbi sono generalmente legati al fatto che nei bambini più piccoli la visione binoculare non è ancora presente o non del tutto consolidata oppure perché possono sussistere difetti della vista (ad esempio ambliopia) Peraltro, gli stessi disturbi funzionali possono riguardare anche gli adulti se lo spettacolo osservato in visione stereoscopica si prolunga per un tempo eccessivo senza interruzione. In particolare si suggerisce che per la visione di spettacoli cinematografici stereoscopici sia garantita agli spettatori l’informazione che l’utilizzo di occhiali 3D è controindicato per i bambini al di sotto dei 6 anni (Redazione Ministerosalute.it - Data pubblicazione: 17 marzo 2010) 84




5

La tecnica anaglifica applicata all’arte visiva


Io non uso droghe, i miei sogni sono giĂ abbastanza terrificanti. Maurits Cornelis Escher


La tecnica anaglifica applicata all’arte visiva

Introduzione Ora viene da chiedersi, anche in base a quanto affermato nei capitoli precedenti, cosa possa offrire in più la stereoscopia a campi che non sono strettamente legati al mercato cinematografico e se queste tecniche siano, in accordo al budget economico, implementabili da un singolo individuo in un ambito più strettamente domestico o consumer: l’applicazione al campo della arti visive rappresenta una di queste strade percorribili. L’intento di questo lavoro consiste nella sviluppo di un metodo personale, velocemente implementabile, attraverso lo studio teorico dell’argomento, di una ricostruzione tridimensionale di alcuni dipinti “scelti”, che per loro natura fisica si estendono su un unico piano (bidimensionalità), mediante un sistema a basso costo per un eventuale cliente finale. L’immagine stereoscopica può essere prodotta sfruttando software di fotoritocco di livello semi-professionale e professionale (anche Open Source). Il sistema scelto sarà quello della tecnica anaglifica, che ha in se, oltre ai conosciuti difetti già esposti nella sezione dedicata, molti pregi di economicità e facile trasferibilità da un supporto ad un altro. Ciò non cambia in nessun modo l’implementabilità su altri sistemi più costosi in quanto è il mezzo di riproduzione che varia, ma non la base teorica che resta, in ogni caso, sostanzialmente la stessa. La ricostruzione tridimensionale è resa possibile dal calcolo delle informazioni di profondità, derivabili in base alle differenze di posizione dei punti corrispondenti nelle immagini stereoscopiche stesse. L’idea di integrare il 3DS nell’arte visiva nasce dall’esigenza di creare nuovi espedienti per calamitare l’attenzione da parte del pubblico, attraverso la proposta di un’immagine statica, trasportata in una nuova dimensione ottica. Con le nuove tecnologie non ha più senso la fruizione dell’immagine così come è stata concepita e una nuova modalità di fruizione gioverebbe ai dispositivi di visualizzazione portatile, come smartphone e tablet, e alle sempre più crescenti gallerie virtuali che gran parte dei musei mondiali si apprestano ad implementare nella rete inserendo le opere stesse in un contesto ricreato artificialmente. Inoltre l’implementazione di questa tecnologia su dispositivi usati in maggioranza da giovani e giovanissimi, aprirebbe ad un certo numero di appassionati di contenuti stereoscopici una via percorribile,capace di far soffermare per più tempo una persona comune su una singola opera, percependo nuove spazialità che potrebbero aprire 89


Capitolo 5

nuovi scenari di interpretazione e critica all’opera stessa. Rappresenta inoltre anche un’opportunità commerciale da sfruttare in questo momento di forte espansione della visione tridimensionale. Le problematiche maggiori affrontate per ottenere la ricostruzione sono legate principalmente ai fattori di: • Calibrazione delle due immagini create; • Determinazione nello spazio tridimensionale e dei piani di profondità; • Generazione delle due immagini separate (sinistra e destra) partendo da un’unica immagine. La modalità di generazione sarà più chiara una volta che si arriverà alla sezione relativa alla tecnica di realizzazione e sarà esplicitato quanto il procedimento sia realmente efficace sulla generazione dell’immagine stereoscopica.

90


La tecnica anaglifica applicata all’arte visiva

5.1 Il Futurismo In questa sezione apriremo una brevissima parentesi sul futurismo, dato la sua complessità ,e analizzeremo velocemente il contesto in cui si sviluppa il futurismo, esponendo una panoramica storica e analizzando quali sono gli artisti che hanno partecipato allo sviluppo del movimento, sia Italiani che stranieri. Verranno inoltre chiarite le peculiarità del movimento e il motivo per cui il movimento stesso è stato scelto come parte integrante del lavoro pratico finale di questa tesi.

i. Nascita e sviluppo Il futurismo italiano rappresenta il primo movimento di avanguardia. Con il termine, viene indicato un cambiamento che investe nell’arte un interesse ideologico nuovo e che annuncia lo stravolgimento imminente che avverrà nella cultura e nel costume, negando totalmente tutto il passato artistico, sostituendolo con una ricerca metodologica e una nuova sperimentazione a livello sia di stile che di tecnica. Il primo evento a segnare l’inizio del movimento è lo scritto di uno dei suoi più audaci sostenitori, Marinetti, che nel 1910 pubblica il Manifesto del Futurismo in Le Figaro e successivamente in vari giornali italiani,in cui riassume tutti gli aspetti del movimento. Un anno dopo viene pubblicato il Manifesto della pittura Futurista che riassume il pensiero di altrettanti artisti rappresentativi del movimento ovvero Balla, Severini, Russolo, Carrà e Boccioni. Entrambi i manifesti esprimono in sostanza gli stessi principi: la fine di tutte le vecchie ideologie e una fiducia illimitata nel

Immagine 5.1 Fortunato Depero (1892-1960), Filippo Tommaso Marinetti (1876-1944) e Francesco Cangiullo (1884-1977). (foto: Autore sconosciuto - immagine di pubblico dominio)

91


Capitolo 5

progresso, esaltando dinamismo, velocità ed industria. Cenno particolare merita il valore della guerra, intesa come igiene dei popoli (e proprio in essa muoiono due importanti esponenti del futurismo: Boccioni e Sant’Elia). Più tardi Carrà e Severini si evolvono verso una pittura decisamente più cubista che segna lo scioglimento del natale gruppo di Milano e sposta il centro creativo a Roma che avrà come conseguenza la nascita del secondo futurismo. Il secondo futurismo risulta meno interessante dal punto di vista artistico, perché segna un periodo di passaggio, verso il surrealismo, attraversato da legami con il periodo fascista, abbracciando stilemi dell’epoca in cambio di speciali favoritismi da parte del regime. Vale la pena ricordare l’importante contributo fornito da Antonio Sant’Elia nell’elaborazione del Manifesto dell’architettura futurista nel 1914 che altro non è che una rielaborazione in chiave architettonica del Manifesto di Marinetti. Egli idealizza, disegnandole, delle città futuriste in raggruppamenti e masse volumetriche su larga scala, volte a creare un’espressione industriale ed eroica della città. La sua città del futuro è una città meccanizzata, multilivello, interconnessa e compenetrante che è essa stessa la vita della città, relegando all’umano il ruolo di semplice frequentatore. Quello che succede in Italia, in un certo modo influenza anche la pittura russa con la nascita di vere e proprie perle pittoriche ad opera di artisti come Kazmir Malevic (autore tra le altre cose del manifesto del Primo congresso Immagine 5.2 Carlo carrà: Donna al Balcone (1912) - Milano, collezione Futurista russo del 1913). Alcuni cenni privata. vitali arrivano anche dalle altre nazioni (Scansione a colori: Il Futurismo - Fabbri Editori - monografia a cura di Velia Gabanizza - 1976 )

92


La tecnica anaglifica applicata all’arte visiva

europee, attraverso il contributo di vari artisti, come ad esempio, la Francia, ma in questo contesto non ce ne occupiamo in modo specifico, salvo poi valutare la scelta di alcuni interessanti lavori nella fase di produzione.

ii. Il campo artistico Nelle opere futuriste c’è sempre la ricerca della dinamica, creando soggetti mai fermi, ma sempre in estremo movimento. Questo movimento il più delle volte viene enfatizzato con la moltiplicazione e con la sovrapposizione in più piani anche della stessa figura rendendo un movimento simultaneo, continuo e vorticoso. Il fruitore viene messo di fronte ad un’opera che non appare passiva, ma lo rapisce nella sua dinamicità, come se egli stesso fosse parte integrante dell’azione del quadro. Per donare l’idea di questo movimento il pittore futurista si serve delle linee-forza creando degli obblighi visivi psicologicamente direzionali allo spettatore, mentre la divisione in piani e colori diversi non guidano per niente lo spettatore verso un punto preciso, creando ancor meglio quel dinamismo universale tanto ricercato nella pittura futurista. Nonostante tutto, dobbiamo rilevare che il Futurismo, seppur in forte avversione verso le altre forme d’arte, in realtà conserva in se i principi che regolano la scomposizione cubista con piani visivi che poi sono riproposti nella corrente con una scomposizione in cui prevale anche una diversa prospettiva spaziale, raccogliendo in se, quindi, anche una dimensione temporale e quindi il movimento. Proprio questa scomposizione in piani, si sposa benissimo con la tecnica stereoscopica. Questi piani ricreati bidimensionalmente su una tela, ora possono essere scomposti per una nuova fruizione e per indagare nuovi spazi percettivi dell’opera. L’idea di scomposizione rappresenta un nuovo modo di leggere l’opera, soprattutto per chi produrrà l’anaglifo, perché in base a quello sarà interpretata l’opera dal fruitore. La cosa sicuramente più interessante, anche da fare in forma sperimentale, sarebbe quella di lasciare libera creatività ad un gruppo di realizzatori di un anaglifo su una stessa opera, sicuramente si otterrebbero altrettanti risultati spaziali. Un’opera unica, genererebbe in un secondo passaggio, ancora un’opera sicuramente unica nel suo genere. In questo modo oltre ad ottenere diversi risultati, andremmo incontro ad un concetto tanto caro a Walter Benjamin, quello della serialità dell’opera d’arte, ancora del tutto valido, della nostra epoca. 93


Capitolo 5

Ricordiamo che Secondo Benjamin 1, tecniche quali il cinema o la fotografia invalidano la concezione tradizionale di “autenticità” dell’opera d’arte, togliendo il “privilegio” di far percepire un’opera unica nel suo genere. In questo modo si realizzerebbe in parte solo quella perdita dell’aura di un’opera, perché avremmo di fronte a noi un’opera in copia, ma unica nel suo genere per come è stata scomposta nei diversi piani prospettici. Si realizzerebbe quindi un’opera dal duplice aspetto: una produzione fatta per le grandi masse, ma nel contempo unica nel suo genere, in quanto legata esclusivamente al modo di percepire di chi realizza l’immagine stereoscopica. Sarebbe un aspetto molto interessante da indagare in altra sede, come ad esempio negli studi psicologici dell’arte.

5.2 Depht Map Ci avviamo lentamente verso la parte tecnica introducendo il concetto di Depth Map (mappa di profondità). Una DM (così la indicheremo d’ora in poi) non è altro che una immagine in tonalità di grigio che è usata principalmente in computer grafica, contenente informazioni relative alla profondità di una scena dal punto di vista dell’osservatore. Il livello di grigio dell’immagine è proporzionato alla distanza che un determinato oggetto nella scena ha dalla focale di una ipotetica camera (in CG virtual Camera). Il livello di luminanza del grigio indicherà questa distanza: più la luminanza del grigio è minore, più questo sarà distante da noi. I programmi di grafica tridimensionale (come Blender, ottimo programma Open Source) permettono di creare la mappa di profondità a partire dal render finale della scena stessa, inserendolo in un canale separato. Queste mappe vengono usate per molteplici finalità, soprattutto in post-produzione, tra cui: • Simulazione ambientale: Simulare uniformemente effetti di semi-trasparenza all’interno di una scena , come nebbia, fumo o grandi volumi di acqua. • Dof: Regolare artificialmente il depht of field in post-produzione, cioè la profondità di campo, meglio comprensibile osservando qualsiasi immagine fatta regolando 1

94

Nel famoso saggio “L’opera d’arte nell’epoca della sua riproducibilità tecnica” (1936)


La tecnica anaglifica applicata all’arte visiva

opportunamente i valori di fuoco e zoom delle reflex digitali professionali o scattando una foto con macro attivata. • Shadow Map: Mappare le ombre proiettate (calcolata però dal punto di vista delle luci e non dallo spettatore). • Creare autostereogrammi per simulare ambienti tridimensionali (di cui abbiamo parlato ampiamente nella sezione dedicata). • Subsurface scattering: per aggiungere realismo e simulare proprietà di semitrasparenza e traslucenza dei materiali, come ad esempio per la pelle umana. Noi utilizzeremo invece la DM come un traslatore virtuale di camera su una immagine bidimensionale (sostanzialmente quello che fa per noi qualsiasi programma per creare

a b Immagine 5.3 Un primo rudimentale esercizio di realizzazione di una depht-map e della relativa immagine anaglifica risultante in modo manuale effettuata nei primi mesi di studio. Si noti con occhialini indossati come la rivalità retinica del colore CIANO sul cielo azzurro generi rivalità dell’immagine causando fastidio e perdita di informazioni per la profondità percepita. Questo è il motivo per cui tutte le immagini preferibilmente sono realizzate in scala di grigio e non coprono l’intera gamma dei colori, ma danno risultati molto più fedeli. Elaborazione su un dipinto di René Magritte, La voce dei venti (La voix des airs), olio su tela, 1931 (Elaborazione Immagine a-b: Nardelli Ermanno - 2011 )

95


Capitolo 5

autostereogrammi) ricreando artificialmente una seconda immagine da accoppiare alla prima immagine nativa, per ricreare l’anaglifo. Quindi la DM sarà usata in modo del tutto nuovo all’interno di un programma software proprietario di fotoritocco - Adobe® Photoshop® - per poi modificare la tecnica adattandola e riformulandola, per permettere il passaggio ad un software open source di fotoritocco multipiattaforma (GIMP).

5.3 Open Source? Si, grazie Open source è un termine inglese composto, che significa “sorgente aperta” e va ad indicare tutti quei software in cui gli autori o meglio quelli che ne detengono i diritti, permettono e favoriscono a terze persone, di solito programmatori indipendenti, la possibilità di studiarne il codice sorgente e di apportarne modifiche volte a migliorarlo. Tutto ciò è possibile grazie alle licenze d’uso particolari con cui vengono rilasciati tali pacchetti software. Ciò aiuta sia lo sviluppo dei programmi, sia la loro capacità di divenire più complessi e leggeri nello stesso tempo. Il mezzo con il quale l’open source ha ulteriormente acquisito beneficio è stato l’avvento di internet, perché ha dato modo a più programmatori, dislocati in diversi paesi nel mondo, di unirsi e creare dei gruppi di lavoro sugli stessi progetti in modo virtuale e condiviso in tempo reale. Il movimento open source ormai viene assimilato ad una filosofia di vita, di apertura verso ogni diversità e ostile ad ogni forma di chiusura dei software proprietari, considerando invece come valore la condivisione della conoscenza. Uno dei sistemi operativi più conosciuti legati a questa etica è Unix che ha le radici nel 1969 all’interno di una azienda denominata AT&T operante nel campo delle telecomunicazioni. Esso diventò simbolo di questo modo di operare quando una causa antitrust ne vietò l’ingresso nel mondo informatico, facendo si che il sistema venisse distribuito simbolicamente ad un prezzo molto basso alle università, statunitensi inizialmente, che si ritrovarono tra le mani un sistema funzionante, ma privo di supporto tecnico da parte del produttore. Questa mancanza fece in modo di far germogliare attorno al sistema un’enorme rete di sviluppatori in netto contrasto con la politica dei software proprietari. Infatti un software proprietario ha licenza restrittiva e codice segreto al resto del mercato, da rivendere più volte anche supponendo delle piccole modifiche al codice stesso (che non ne giustificano 96


La tecnica anaglifica applicata all’arte visiva

gli alti costi in ogni caso). Con gli anni settanta e la consistente standardizzazione dei sistemi operativi e dei programmi eseguibili, si assiste ad una rivoluzione, in quanto gli stessi cominciano ad essere eseguibili anche su piattaforme hardware differenti. Negli anni ottanta avviene un ripiego dell’open source, infatti nelle aziende software si diffonde l’uso di far firmare accordi ai loro programmatori per non divulgare il codice appena creato. (in inglese NDA: Non-Disclosure Agreement). In questo clima di spionaggio industriale si creano i primi scontri con chi si rifiutava di lavorare per le società private e chi invece sostiene una ricerca condivisa per creare software sempre migliore come Richard Stallman che fonda nel 1985 la FSF (Free Software Foundation) organizzazione no-profit per la distribuzione di software libero e nel dettagli lo sviluppo di un OS capace di comparare UNIX avente licenza libera. Il progetto era il GNU (etica e libertà). Questi programmi oltre a coprire i costi di riproduzione garantivano un servizio di supporto al cliente e l’unica condizione era che tutte le modifiche effettuate da terze parti sul codice sorgente venissero notificate agli sviluppatori. Nasce proprio in questo modo la licenza particolare che caratterizza gran parte dei software aperti ovvero la GNU General Public License (GNU-GPL) che inizia recitando le seguenti parole: « Le licenze, per la maggioranza dei programmi, hanno lo scopo di togliere all’utente la libertà di condividerlo e di modificarlo. Al contrario, la GPL è intesa a garantire la libertà di condividere e modificare il free software, al fine di assicurare che i programmi siano “liberi” per tutti i loro utenti. » I Pc negli anni ottanta evolvono ancora una volta il mercato stravolgendolo, grazie anche ad IBM che per prima comincia ad assemblare sistemi anche con componenti Hardware di terze parti, che genera quel mercato dei componenti hardware ancora in forte sviluppo. Stallman sempre presente con la sua FSF viene messo al bando con grande classe dal sistema capitalistico americano in quanto visto con sospetto. Ne vengono in aiuto B. Perens e Eric S. Raymond e altri personaggi minori che nel 1997 cominciano a pensare ad un sistema lobbystico per contrastare la forte marginalità sociale che cercano di imporre dall’alto sui sistemi e i software liberi coniando per la prima volta il termine open source. L’evento che segnerà questa nuova fase sarà il rilascio del codice sorgente di Netscape che farà ottenere da parte di aziende come la IBM e l’HP la prima vera sostanziale apertura al movimento come sistema metodologico di produzione di software efficace. 97


Capitolo 5

i. In Italia In Italia il primo passo avuto dalle istituzioni è stato quello della costituzione della commissione Meo che nel 2003 ha pubblicato una indagine conoscitiva per capire quale fosse il livello di diffusione dei pacchetti open source in Italia, considerando come parametro l’introduzione e i risparmi notevoli che si avrebbero da una diffusione di sistemi aperti nella pubblica amministrazione, vedendo il valore del software non in termini di costi, ma per il suo impatto positivo sull’economia generale del sistema amministrativo, attraverso la sua affidabilità. Sono apparse invece le prime ricadute a livello legislativo nella “Direttiva Stanca” del 19 dicembre 2003 (Ministero per l’Innovazione e le Tecnologie) poi ratificato nel Decreto legislativo 82/05 con l’intenzionalità di favorire riuso e condivisione all’interno delle PA di sistemi più vantaggiosi e quindi open source. I principali contenuti della Direttiva sono i seguenti (in particolare derivanti dagli articoli 3, 4 e 7): • Analisi comparativa delle soluzioni : la direttiva dispone che le Pubbliche Amministrazioni acquisiscano programmi informatici sulla base di una valutazione comparativa tecnica ed economica tra le diverse soluzioni disponibili sul mercato, tenendo conto della rispondenza alle proprie esigenze. • Criteri tecnici di comparazione : Le Pubbliche Amministrazioni nell’acquisto dei programmi informatici devono privilegiare le soluzioni che assicurino l’interoperabilità e la cooperazione applicativa tra i diversi sistemi informatici della Pubblica Amministrazione, salvo che ricorrano peculiari ed eccezionali esigenze di sicurezza e di segreto. • Rendere i sistemi informatici non dipendenti da un unico fornitore o da un’unica tecnologia proprietaria. • Garantire la disponibilità del codice sorgente per l’ispezione e la tracciabilità da parte delle Pubbliche Amministrazioni. • Esportare dati e documenti in più formati, di cui almeno uno di tipo aperto. Le successive integrazioni rafforzano ulteriormente questa direzione come il fondo da 10 milioni di euro messo a disposizione dalla finanziaria del 2007 per progetti che “utilizzano 98


La tecnica anaglifica applicata all’arte visiva

o sviluppano applicazioni software a codice aperto”. La Commissione Open Source 2007 inoltre, con decreto ministeriale definisce tre obiettivi prioritari: • Un’analisi dello scenario europeo ed italiano del settore; • La definizione di linee guida operative per supportare le Amministrazioni negli approvvigionamenti di software open source; • Un’analisi dell’approccio open source per favorire cooperazione applicativa, interoperabilità e riuso. Tutto ciò confluisce nell’ Open Source Open Ideas for Public Administration - OSPA del 2008, un convegno che per la prima volta ha messo a confronto PA, imprese ed università (6 Università e Centri di Ricerca Nazionali, più di 50 aziende del settore privato ed oltre 250 Amministrazioni Pubbliche) cercando di generare un documento unico e cento casi di studio a livello europeo di eccellenza integrati da una serie di interviste e dibattiti che confluiranno ancora una volta nella presentazione dei risultati all’interno di OSPA 2012.

99


Capitolo 5

5.4 Gimp: Software Open Source per fotoritocco Sviluppato come tesina semestrale per un corso per l’Università di Berkeley nel 1995 da Spencer Kimball e Peter Mattis, la seconda versione viene rilasciata solo nel 2004, quando, dopo la laurea, entrano a far parte del Progetto GNU. Gimp (acronimo di GNU Image Manipulation Program) è un programma di grafica, fotoritocco e manipolazione di immagini Open Source e libero rilasciato sotto licenza GNU GPL che ha il suo equivalente nel mondo proprietario di Adobe® Photoshop®. Si ricorda al lettore che il solo acquisto Immagine 5.4 La simpatica forma del logo di Gimp. Anch’esso sotto licenza GNU della licenza singola per Adobe® Photoshop® per la sua ultima versione CS5 si aggira su circa 400 euro. La domanda immediata che si pone qualsiasi operatore (non come sviluppatore, ma come utilizzatore finale del prodotto) del settore è: • Perché devo pagare una cifra così considerevole quando ho a disposizione un programma che potenzialmente potrebbe svolgere le stesse funzioni? E’ proprio questa la domanda che mi accompagna fin dall’inizio della produzione delle prime immagini in stereoscopia con tecnica anaglifica. Inoltre, in cosa può differire Gimp da un software proprietario? Ho vantaggi solo in termini economici o anche in qualità e velocità di elaborazione nel prodotto finale? Cerchiamo di capire insieme i punti di forza e debolezza di Gimp rispetto ad un software proprietario come Adobe® Photoshop® con due semplici tabelle riassuntive estratte attraverso l’uso personale e attraverso i feedback degli user al programma dei frequentati forum che si trovano in rete,proprio dedicati a GIMP.

100


La tecnica anaglifica applicata all’arte visiva

Vantaggi di The Gimp rispetto ad Adobe® Photoshop®. Modularità gratuita

Le funzioni possono essere ampliate grazie a plug-in di terze parti ampiamente disponibili e del tutto gratuiti.

Supporto tecnico gratuito Supporto da comunità on-line e da forum totalmente gratuito ed immediato Nessun costo di utilizzo

E’ un programma totalmente gratuito per l’utilizzatore finale: non ci sono licenze da pagare se un professionista vuole usarlo per fini commerciali.

Leggerezza esecutiva

Gimp, apparentemente, rispetto ad Adobe® Photoshop®, ha meno peso sulla memoria RAM nel momento in cui viene eseguito a parità di file aperto (in prova sperimentale). La RAM minima consigliata per eseguire GIMP è solo di 128MB, contro l’ormai Gigabyte del concorrente. Inoltre La dimensione dell’installazione di GIMP è inferiore a 20 MB. Quella di Adobe® Photoshop® è di circa 600MB.

Multipiattaforma

Gimp è multipiattaforma. Oltre ai classici sistemi operativi proprietari, Gimp è eseguibile anche all’interno di SO Open source come Ubuntu.

Possibilità di Scripting

Ha il vantaggio di essere equipaggiato per supportare script in vari linguaggi, come Perl,Python, Tlc ed in fase di sviluppo anche l’integrazione di Ruby

Supporto formato PSD

Gimp supporta il formato nativo di Adobe® Photoshop®. Tabella 2

101


Capitolo 5

Svantaggi di The Gimp rispetto ad Adobe® Photoshop®. Assenza di gestione in : - Quadricromia - Colori PANTONE inc.

Purtroppo non supporta l’utilizzo di CMYK e colori Pantone inc., requisiti tutt’altro che trascurabili quando si deve stampare qualcosa di realizzato. Unica soluzione trovata on-line è risultato il Plug-in Separate, creato per separare i colori RGB e convertirli in CMYK con risultati a dir poco deludenti e del tutto non veritieri. Il modello CMYK inoltre è solo simulato in modo nativo e tradotto immediatamente in RGB dentro la memoria. Risultato: meglio lasciare le immagini in RGB e lasciare ai programmi di impaginazione l’interpretazione dell’immagine RGB in quadricromia.

RAW non supportato

GIMP non supporta il RAW e purtroppo i fotografi professionisti amano il RAW e la relativa gestione in Adobe® Photoshop®. Unici plug-in che permetterebbero di gestire il RAW sono dcraw e gimp-ufraw, ma si rimanda al lettore il test dei due plug-in appena menzionati.

Profondità di colore: max 8 bit per Channel

Non supporta spazi di colore a 16 o 32 bit per canale, cosa fondamentale se si lavora spesso con formati RAW o HDR.

Assenza della Lingua Italiana nelle versioni in sviluppo

Per alcuni principianti, potrebbe essere difficile lavorare nella lingua nativa di GIMP. Se già si utilizza Adobe® Photoshop® in lingua inglese il passaggio e la ricerca delle funzioni simili avviene molto più naturalmente. Il vantaggio è che la guida dedicata all’uso del programma è stata recentemente tradotta in italiano e quindi ogni comando ha la sua spiegazione localizzata. Tabella 3

102


La tecnica anaglifica applicata all’arte visiva

Per quanto riguarda lo sviluppo c’è da dire che nella versione attuale (2.6) c’è stato un completo stravolgimento (in positivo) dell’interfaccia con conseguente ristrutturazione dei menù. Si è creato inoltre un gruppo dedicato, denominato GEGL proprio per risolvere i problemi sopra menzionati, come la gestione del CMYK e la possibilità di gestire profondità di colore superiori a 8 bit, implementando anche una funzione di modifica dell’immagine non distruttiva (come Adobe® Photoshop® fa già, mantenendo i livelli in Smart Object ) che sicuramente vedranno la loro luce nell’attesa versione 3.0 di GIMP.

5.5 Dal software proprietario al software Open Source L’idea di esportare il metodo concepito all’interno di Adobe® Photoshop® verso un software open source ha sicuramente il sapore di una sfida personale e a questo punto della trattazione, valutando tutti gli aspetti economici e tecnici, si può dedurre che sia possibile farlo. Nonostante on-line siano presenti numerosi tutorial sull’argomento (infatti la metodologia è tutt’altro che sconosciuta per chi ha doti di finder sui motori di ricerca) nessuno di questi riporta dei passaggi che possano essere implementabili anche su GIMP. La soluzione immediata appare quindi quella di variare il metodo di produzione in GIMP, facendo una prima valutazione degli strumenti a disposizione che potrebbero venirci in contro nella produzione finale. Dopo aver inizialmente implementato il metodo all’interno di Adobe® Photoshop® più volte, attraverso lo studio di varie metodologie sia buone che mediocri, ho cercato di personalizzare il metodo per integrarlo attraverso gli strumenti che mette a disposizione GIMP. Il risultato è molto interessante: con una buona conoscenza degli strumenti del programma proprietario (in lingua inglese) e con un minimo studio dell’interfaccia di GIMP diventa immediato il passaggio verso l’open source e i risultati finali sono molto più che accettabili, anzi si può dire tutto sommato che in taluni casi i risultati sono addirittura più apprezzabili. Ciò sicuramente è dovuto alla diversa gestione che GIMP fa dei suoi strumenti che funzionano anche più velocemente.

103


Capitolo 5

5.6 Tecnica di realizzazione Dopo aver visionato varie tecniche di elaborazione tramite Photoshop, ho cercato in rete un metodo che potesse essere l’esatto clone della metodologia esistente sul programma proprietario. Ho visto molti tutorial ed ho concluso che non esiste una vera e propria metodologia da applicare al relativo prodotto open source: molte di queste procedure si avvalgono di un programma esterno (a pagamento) per collimare le due immagini create. Il mio intento invece è quello di elaborare una metodologia che non si avvalga di nessun appoggio esterno al programma, per non generare un controsenso tra il prodotto open source e l’uso comunque di un relativo prodotto proprietario. Dopo un veloce e attento studio delle caratteristiche di Gimp, durato circa due settimane alternate da lavoro, ho elaborato per piccoli passi una metodologia veloce ed implementabile (anche per me che non sono un esperto disegnatore a mano libera) che possa avvalersi oltre all’uso degli strumenti classici e anche della così detta tavoletta grafica, oggetto ormai acquistabile a prezzi molto modici. Mi limiterò alla sola spiegazione dell’uso di GIMP per la generazione di una immagine anaglifica: il motivo è sia nella tediosa spiegazione del passaggio della tecnica da Photoshop al relativo prodotto open source ed inoltre, con ricerche mirate, potete trovare molti tutorial in rete sull’argomento. La prima operazione da fare è prelevare l’ultima versione di GIMP per il vostro sistema operativo all’indirizzo http://www.gimp.org e se volete potete famigliarizzare con le principali funzioni tramite una esauriente guida in italiano presente all’indirizzo http:// docs.gimp.org/2.6/it . L’ultima versione stabile disponibile al momento è la 2.6. La prima cosa da notare è la leggerezza del pacchetto di installazione, circa 30 Mb che occuperanno altrettanto spazio fisico su disco, niente male. All’apertura di Gimp ci ritroviamo di fronte ad una interfaccia simpatica, ma allo stesso tempo completa. Tutto sommato Gimp rispetta l’interfaccia del suo antagonista commerciale: A sinistra la barra strumenti, menù in alto e controllo impostazioni sulla destra. Le icone sono facilmente riconoscibili e ci fanno subito capire quale sia il loro comando associato. Anche qui la somiglianza con Photoshop è abbastanza palese, così come la gestione livelli, ma devo rilevare una cosa: Gimp ad una rapida occhiata è molto più intuitivo di Photoshop, le icone si trovano subito e le funzioni sono comprensibili quasi immediatamente. Altro importante fattore è il relativo peso nella memoria RAM del programma: circa 30 Mb 104


La tecnica anaglifica applicata all’arte visiva

aperto senza nessuna elaborazione in corso. Photoshop nelle stesse condizioni operative occupa già 80 Mb e questo è un parametro importante per chi non possiede una macchina di ultima generazione.

Immagine 5.5 Interfaccia di Gimp e organizzazione degli strumenti

105


Capitolo 5

Da questo punto in poi cercherò di dividere le azioni per step in modo che possano essere facilmente implementati e rielaborati fino alla loro completa acquisizione, per lavorare in autonomia. Sarà subito chiara la potenzialità di Gimp e la sua relativa flessibilità rispetto alle nostre esigenze. Lavoreremo su una immagine a noi familiare, in modo che i passaggi siano veloci e chiari. Consiglio al lettore di scegliere un’ immagine semplice per poi passare con il tempo ad elaborazioni sempre più complesse.

a. Importazione immagine e impostazione progetto Importiamo la nostra immagine semplicemente trascinandola sulla finestra principale. Io lavorerò su una famosa opera di Antonio Sant’Elia (genio dell’architettura futurista) e precisamente su “Centrale Elettrica” del 1914, immagine di non facile lavorazione a causa della sua natura intrinseca di “schizzo”. Come si vede all’apertura dell’immagine già ci

Immagine 5.6 Importazione immagine

106


La tecnica anaglifica applicata all’arte visiva

vengono forniti alcuni dati dell’immagine e viene creato il primo livello con l’immagine da includere. Purtroppo Gimp non permette di raggruppare i livelli. Ci sarebbe stato molto utile nella lavorazione della mappa di profondità, ma non è un problema vitale ed è una funzione prevista ed integrata nella versione in sviluppo, la 2.7. L’importante è che si riesca a fondere i livelli e questo lo possiamo fare con i livelli mantenuti visibili ed il motivo sarà chiaro quando applicheremo la mappa alla nostra immagine.

b. Divisione dell’immagine in piani A questo punto possiamo cominciare ad individuare i piani visivi. Questa è l’operazione più delicata: dobbiamo immaginare la nostra opera proiettata nello spazio ed individuare su quale livello sarà poggiato il nostro piano virtuale. Possiamo individuare un numero cospicui di livelli grazie alle tonalità di grigio. Il metodo è semplice: man mano che si va verso il fondale dell’opera dovremo usare un grigio via via sempre più scuro fino ad arrivare al nero. Per fare un esempio, in questo caso, il cielo deve essere nero. Attenzione particolare deve essere prestata alla scala tonale di grigi: personalmente lavoro in HSV (tonalità, saturazione e valore), perchè è la scala tonale che più si avvicina alla scala 1

n

Massimo punto di grigio H=0 S=0 V=70

Immagine 5.7 Scala di grigi massima consigliata per la costruzione della mappa di profondità.

107


Capitolo 5

colori percepibile dal nostro occhio. Il secondo motivo è che mantenendo H e S a zero possiamo controllare direttamente il valore V (luminosità) come scala di grigi, dato che ha la qualità di spostare tutti e tre i cursori relativi al grigio in RGB. Tale affermazione ci sarà utile nel momento in cui ci sarà bisogno di riempimenti dove simuleremo la profondità. Cerchiamo di lavorare però su massimo 10/15 livelli di grigio, senza esagerare. Quindi se ipotizziamo la nostra scala al V=70 dobbiamo lavorare con step di di 70/10 e così via. Il motivo per cui non si usa il bianco assoluto è che ciò provocherebbe alla lavorazione della nostra immagine parallasse negativa, quindi limitatevi a darla solo a piccoli porzioni. Con la nostra immagine aperta individuiamo i nostri livelli di profondità identificandoli con un numero progressivo. Si individua con il nero il livello di profondità 1 (o zero) fino al livello più vicino a noi. Si crea a questo punto un livello clone per la lavorazione. In questo passaggio più che alla qualità dovete badare alla percezione di quello che vorrete venga lasciato avanti e quello che invece deve essere lasciato dietro. Lavorando con una certa velocità si ottiene la mappa visiva di come lavoreremo sull’immagine.

Immagine 5.8 Divisione in livelli per la simulazione tridimensionale nel momento in cui si applicherà la mappa di profondità.

108


La tecnica anaglifica applicata all’arte visiva

c. Creazione della mappa di profondità In questa fase produciamo la nostra mappa di profondità. Per prima cosa settiamo un gradiente personale nell’area Gradient, duplicando o creandone uno nuovo: facendo così ci assicuriamo che il nostro gradiente (per simulazioni di piani inclinati) si muova solo tra i colori massimo e minimo settati escludendo il bianco assoluto. Salviamo il nostro gradiente e cominciamo a lavorare sul clone immagine. Il primo strumento ad essere usato è il Paths tool che creerà i tracciati nell’apposita area ben visibile nell’immagine sottostante. Appena creato il tracciato, blocchiamolo con l’apposita spunta a lato del tracciato stesso. Consiglio vivamente di mantenere attiva anche la visualizzazione del tracciato stesso, per scongiurare eventuali errori di ripetizione o dimenticanza di aree che non sono state lavorate. Vedrete che sarà molto più semplice lavorare progressivamente l’immagine con questa tecnica. Noterete in questa fase una migliore gestione dei tracciati di GIMP.

Immagine 5.9 Esempio di creazione di un tracciato e relativa memorizzazione.

109


Capitolo 5

In questa fase cerchiamo di non colorare nessuna parte di grigio, lo faremo alla fine. Cercate infine di nominare tutti i tracciati con il numero progressivo, in modo da procedere più speditamente nella fase in cui produrrete la mappa. Fate ovviamente questa operazione avendo come riferimento il livello originale e non quello diviso. Alla fine della nostra certosina operazione avremo una immagine con tutti i tracciati visibili. A questo punto possiamo comiciare a selezionare i nostri tracciati in modo automatico con l’apposito strumento presente nell’area tracciati. Ogni volta che facciamo un fill in un area disattiviamo la visualizzazione del tracciato in modo da mantenere visibile cosa è stato elaborato e cosa no. Alla fine otteniamo la nostra mappa di profondità elaborata in modo manuale. Sicuramente nell’immagine saranno presenti degli artefatti e delle aree non coperte in modo ottimale. Prendete lo strumento Clone e cominciate a campire i livelli ricoprendoli accurataemente, tenendo d’occhio l’immagine sottostante. Finita questa operazione

Strumento Clone Strumento Fill Strumento selezione automatica tracciato

Immagine 5.10 I tracciati vengono mantenuti visibili nell’immagine per capire se tutte le aree sono state coperte

110


La tecnica anaglifica applicata all’arte visiva

potete procedere nel fondere i livelli. Come abbiamo detto GIMP non ha il comodo raggruppamento per livelli presente in Photoshop, ciò nonostante si possono fondere i livelli mantenuti in modo visibile. Quindi disattiviamo l’immagine originale e fondiamo i livelli che abbiamo campito con le nostre tonalità di grigio. A questo punto possiamo applicare il primo filtro, scegliendolo dal menù filter > blur > Gaussian Blur. Questo filtro ci serve per rendere la mappa più morbida. La regolazione è a vostra discrezione e deve essere applicata anche in base alla dimensione dell’immagine che state elaborando. Se l’immagine è grande il blur lo deve essere altrettanto. Cercate di mantenere un occhio verso il risultato che si presenta ai vostri occhi.

d. Creazione delle immagini destinate ai singoli occhi In questa fase ci avviamo verso la conclusione del lavoro. Duplichiamo la nostra immagine

Immagine 5.11 Fusione dei livelli visibili tramite apposita funzione cliccando con il tasto destro nell’area Livelli.

111


Capitolo 5

Immagine 5.12 La finestra del Channel Mixer

Immagine 5.13 Come devono essere disposti i canali per la fase finale.

112

originale per ben due volte: una immagine sarà mantenuta per sicurezza nella sua forma originale, le altre due ci serviranno per generare l’immagine anaglifica ciano e magenta (rosso). A questo punto potete procedere effettuando un passaggio o tralasciandolo. A causa della rivalità dell’immagine che potrebbe rendere illegibile la vostra immagine, ci sarà la scelta personale di decidere se mantenere l’immagine con i suoi colori originali od optare per la desaturazione delle stesse. Se le mantenete in colore dovete necessariamente donare una certa desaturazione ad entrambe le immagini. Il mio consiglio è di desaturare tramite l’apposito comando nel menù color > hue - saturation riportandolo a valori compresi tra -70 a -30 a seconda dell’immagine e della presenza o meno di colori accesi tendenti al ciano ed al rosso. Se invece vogliamo desaturare le immagini portiamoci nel menù colors > Desaturate e senza toccare niente manteniamo l’opzione lightness spuntata e clicchiamo ok. Facendo così abbiamo desaturato la nostra immagine. Attenzione, le operazioni di desaturazione devono essere identiche per ogni singola immagine. A questo punto possiamo generare le immagini rosso e ciano. Per farlo ci portiamo nel menù colors > components > channel mixer (immagine 5.12), facendo attenzione alla selezione del livello da lavorare. Clicchiamo su reset per scongiurare eventuali memorizzazioni precedenti e procediamo così: • Per il canale rosso: selezioniamo prima il canale di output verde, portiamo il livello green da 100 a 0 e poi selezioniamo il canale blue, facendo la stessa operazione con il cursore blue. • Per il canale ciano: andiamo sulla seconda immagine, riapriamo il channel mixer e facciamo un reset, eliminando i dati appena immessi. Portiamo semplicemente il livello del colore rosso nel canale rosso da 100 a 0 ottenendo così il ciano. A questo punto dovreste trovarvi in una situazione con 4 immagini. Una immagine a tonalità rossa, una a tonalità ciano, l’immagine


La tecnica anaglifica applicata all’arte visiva

originale e la mappa di profondità (per sicurezza potreste mantenere una seconda mappa prima dell’applicazione del blur). Ordiniamo i livelli come in figura 5.13 e andiamo nel menù filters > map > displace. Attiviamo il preview e disattiviamo l’Y displacement: a noi servirà solo la traslazione sull’asse X (è proprio la parallasse di cui abbiamo tanto parlato). Tramite la casella apposita, scegliamo come mappa per il displacement proprio quella che abbiamo creato noi anzitempo (con blur). Scegliamo un valore non grande negativo, -20,00 può già andar bene e diamo l’OK. Selezioniamo il livello con l’immagine rossa e applichiamo come modalità di fusione lo screen in modo che la fusione tra i due livelli rosso e ciano ci riporti i colori originali rilasciati in partenza, tranne nei punti dove le immagini prenderanno i relativi colori rosso e ciano in base alle variazioni che sono state generate dalla mappa di profondità. Indossate gli occhialini e controllate la qualità dell’immagine se il risultato non vi soddisfa, ritornate indietro e variate il displacement X, ripetendo tutta la procedura, finche il risultato non sarà soddisfacente. Se il risultato non c’è, evidentemente avete sbagliato qualche passaggio. Tornate indietro e ricontrollate tutta la procedura. L’alternativa a questo metodo (se qualche cosa non vi soddisfa) è l’uso di Stereophoto Maker, gratuito ma non liberamente utilizzabile per fini commerciali (solo per uso personale).

e. Alternativa: Creazione dell’anaglifo con Stereophoto Maker L’uso di Stereophoto Maker (immagine 5.14 nella successiva pagina) è una alternativa per pigri di natura per la generazione anaglifica, perchè ha risultati tutto sommato accurati come la tecnica manuale. La procedura è leggermente diversa e dovrete in ogni caso fornire al programma le singole immagini: quindi non aspettatevi di risolvere il problema saltando a piè pari tutta la tecnica elaborata finora e quindi l’elaborazione della depht map. In questo caso, applicate solo il displacement (io scelgo sempre valori sempre compresi tra -30 e -20) e salvate le singole immagini separatamente “a colori” in due file separati: come SX l’immagine su cui avete applicato il displacement e come DX l’immagine normale su cui non c’è stata nessuna modifica. Importate tutto in Stereophoto Maker e scegliete dal menù file open left right/image aprendo le rispettive immagini come da richiesta. Dopo l’apertura cliccate su una delle caselle evidenziate nella immagine 5.14 : nel primo menù genererete l’immagine anaglifica in scala di grigi, nel secondo invece potrete generare l’immagine anaglifica a colori. I risultati sono ottimali in entrambi i modi. Negli stessi sottomenù potete osservare che ci sono tante opzioni rispetto all’elaborazione dell’anaglifo. Se 113


Capitolo 5

analizzate e generate l’immagine stereo 3D attraverso queste funzioni potete ottenere le altre tecniche anaglifiche di cui abbiamo parlato nel paragrafo dedicato ai sistemi secondo lo spettro del colore. inoltre ci sono alcune funzioni sperimentali per le tecniche in shutter, previo possedimento di schermo e scheda grafica abilitata a trasmettere questo tipo particolare di segnale. Si lascia al lettore l’indagine di tutte le altre funzioni, soprattutto a quelle relative nel menÚ Adjust. Non mi resta che augurarvi buon lavoro. Armatevi di Gimp e ... tanta pazienza!

Immagine 5.14 L’interfaccia di Stereo Movie Maker e le relative caselle per generare immagini anaglifiche

114


La tecnica anaglifica applicata all’arte visiva

Conclusioni L’elaborato prodotto ha illustrato nel modo più semplice ed esaustivo possibile come possa essere possibile realizzare a costi ridotti un prodotto finale dalle caratteristiche professionali, utilizzando un pacchetto open source di fotoritocco. Si è dimostrato come un prodotto finale apparentemente impossibile da realizzare, possa essere invece alla portata anche dei neofiti, dedicandogli più tempo quello è certo, ma con risultati di certo molto apprezzabili. Bisogna ormai rassegnarsi al fatto che gli open source fanno parte della nostra quotidianità lavorativa e con il passare degli anni saranno sempre più invasivi e migliorati rispetto ai software proprietari. Questo non significa che i software proprietari automaticamente saranno espiantati dal mercato, perché di solito si parla di prodotti standardizzati e integrati all’interno di pacchetti più ampi (come nel caso dell’Adobe) che permettono di inter-scambiare i diversi formati all’interno della stessa suite di software. L’unico modo per garantire una vera concorrenza ai closed quindi, secondo una mia personale opinione, sarebbe quello di integrare i migliori programmi open source di grafica all’interno di un unico pacchetto (mi viene da pensare ad un pacchetto con Gimp, Inkscape, Scribus e Blender ad esempio) con possibilità di interscambiare file con estensioni proprietarie tra i vari programmi. Ma non vogliamo particolarmente esprimere giudizio sull’ open source di fotoritocco Gimp, in quanto è solo un mezzo di produzione degli elaborati in questo contesto, ma sull’essenza del lavoro. Il 3D integrato applicato all’arte visiva si dimostra un potente medium del nostro tempo in grado di calamitare l’attenzione di chi non necessariamente si nutre di arte ogni giorno. La trattazione in oggetto non vuole avere quindi un carattere esaustivo, ma vuole porre le basi per una ricerca da cui partire, di analisi per capire se questo tipo di elaborazioni possa essere un’esca per il grande pubblico, per avvicinarli a opere non necessariamente “famose” e per stimolarli e sensibilizzarli ad una cultura artistica ancora oggi molto limitata. Sta di fatto che l’idea di integrare 3d e mostre non è nuova e sono presenti in rete alcuni esempi di integrazione che hanno ottenuto un buon successo. Tutti questi eventi, non per caso, hanno utilizzato la tecnica anaglifica, per i motivi di cui abbiamo ampiamente parlato precedentemente. Il basso costo relativo degli occhialini e la non necessaria presenza di un supporto elettronico di proiezione (basta una semplice foto o stampa lavorata) ne 115


Capitolo 5

permette la visione ad eventi con grande affluenza e a più persone contemporaneamente. Alcune mostre che hanno già utilizzato la tecnica anaglifica (in ordine cronologico) : L’UOMO... E IL CIBO. DAL PALEOLITICO ALL’IMPERO ROMANO TRA REALTA’ E IMMAGINARIO Teramo, Museo Civico Archeologico “F.Savini” - 5 dicembre 2007 - 31 maggio 2008 COMETE NELL’ARTE E NELLA SCIENZA. DA GIOTTO A ‘GIOTTO’ Padova, Osservatorio Astronomico, 21 dicembre 2008 - 1 gennaio 2009 STEREOSCOPIC DOLOMITES 1907-1934 Bolzano, MESSNER MOUNTAIN MUSEUM di Castel Firmiano, a 7 marzo - 21 novembre 2010 ETRUSCHI IN EUROPA Trento, Museo delle Scienze, 10 settembre 2011 – 9 gennaio 2012

Immagine 5.15 L’immagine finale: l’anaglifo, sia in versione scala di grigi che in versione colore con parallasse di 20 pixel

116




Gallery

Galleria dei lavori


Gallery

Antonio Sant’Elia Centrale Elettrica 1914 120


Gallery

Antonio Sant’Elia Centrale Elettrica 1914 121


Gallery

Kazmir Malevic Stazione di transito di Kuncevo 1911 122


Gallery

Kazmir Malevic Stazione di transito di Kuncevo 1911 123


Gallery

Giacomo Balla Mercurio passa davanti al Sole, visto da un canocchiale 1914 124


Gallery

Giacomo Balla Mercurio passa davanti al Sole, visto da un canocchiale 1914 125


Gallery

Ivan Kliun Grammofono 1914 126


Gallery

Ivan Kliun Grammofono 1914 127


Gallery

Gino Severini Ballerina + mare 1913 128


Gallery

Gino Severini Ballerina + mare 1913 129


Gallery

Antonio Sant’Elia Edificio monumentale 1915 130


Gallery

Antonio Sant’Elia Edificio monumentale 1915 131


Gallery

Giacomo Balla Alberi Mutilati 1918 132


Gallery

Giacomo Balla Alberi Mutilati 1918 133


Gallery

Carlo CarrĂ Manifestazione interventista 1914 134


Gallery

Carlo CarrĂ Manifestazione interventista 1914 135


Gallery

Lyonel Feininger Zircow VII 1918 136


Gallery

Lyonel Feininger Zircow VII 1918 137


Gallery

Gerardo Dottori VelocitĂ (tre tempi). Partenza 1925 138


Gallery

Gerardo Dottori VelocitĂ (tre tempi). Partenza 1925 139



Glossario

Definizioni riguardanti la stereoscopia



Glossario

Accomodazione visiva Meccanismo con cui l’occhio attua la corretta messa a fuoco sul soggetto che si sta osservando. Solitamente si usa la formula “messa a fuoco” Anàglifica Tecnica di rappresentazione tridimensionale in cui le due immagini della stereo-coppia sono stampate sovrapposte utilizzando due differenti colori (solitamente complementari), uno per ogni immagine, in modo che per mezzo di un occhiale dotato di filtri colorati, corrispondenti a quelli della stampa, ognuna delle due immagini viene percepita dal relativo occhio. Normalmente si usano le coppie di colori rosso-ciano o rosso-verde. Convenzionalmente si utilizza il filtro rosso per l’occhio sinistro e il filtro ciano per l’occhio destro, per l’osservazione di immagini in cui si utilizza il colore ciano per la stampa dell’immagine sinistra e il colore rosso per la stampa dell’immagine destra. Anàglifo Immagine stereoscopica realizzata con la tecnica anaglifa. Autostereo (immagine autostereo) Immagine visibile in tre dimensioni senza alcun accessorio ottico in corrispondenza degli occhi. Per estensione: tecnica di rappresentazione di soggetti tridimensionali che non prevede l’utilizzo alcun ausilio ottico in corrispondenza degli occhi (come ad esempio lo stereoscopio, occhiali polarizzati o per anaglifi). Sono autostereo, ad esempio, le stampe ottenute con la tecnica lenticolare. Stereo base o interasse La distanza tra gli assi ottici dell’immagine destra e sinistra nella ripresa delle due immagini di una stereo-coppia. Nelle macchine fotografiche stereoscopiche corrisponde alla distanza di interasse dei due obiettivi. Convergenza Meccanismo di convergenza degli assi ottici dei due occhi per l’osservazione di soggetti vicini e relativamente lontani (fino ad una distanza massima di 30 metri circa).

143


Glossario

Diplopia Fenomeno di doppia visione che si ha quando i punti omologhi di una immagine stereoscopica rimangono separati e non possono essere fusi in una singola immagine. Distanza interoculare E’ la distanza tra i centri ottici delle pupille degli occhi quando sono focalizzati all’infinito. Negli adulti il suo valore è compreso tra circa 55 e 75 mm con un valore medio di 65 mm. Divergenza Meccanismo di divergenza degli assi ottici (per esempio nella fase di passaggio dalla focalizzazione di soggetti vicini a soggetti distanti). E’ l’opposto della convergenza. Finestra stereoscopica E’ la cornice che delimita un’immagine stereoscopica e giace in corrispondenza del piano dei punti che hanno una parallasse nulla. E’ definita in questo modo in quanto nell’osservare l’immagine tridimensionale si ha la sensazione che l’immagine stereoscopia sia vista attraverso una vera e propria finestra, con punti che possono essere davanti ad essa (punti a parallasse negativa), sullo stesso piano della finestra ( punti a parallasse nulla) e oltre la finestra (punti a parallasse positiva). Negli anaglifi la finestra stereoscopica giace sul piano del foglio su cui sono stampati (ed è lo stesso bordo che delimita l’immagine), nelle immagini proiettate giace sullo schermo (ed è il limite stesso dell’immagine). Ghosting o rivalità dell’immagine o cromatica Effetto negativo che si può verificare nella visione stereoscopica (per esempio, anaglifa o polarizzata), quando, in uno o entrambi gli occhi, l’immagine destinata ad un occhio viene percepite anche dall’altro. E’ determinato dalla mancata capacità del filtro colorato dell’occhiale anaglifo, del filtro dell’occhiale polarizzato o dello schermo polarizzato, di eliminare adeguatamente l’immagine che non è destinato a quel determinato occhio.

144


Glossario

Iperstereo (nanismo) Percezione esagerata dell’effetto stereoscopico generata dall’uso di una base stereo più grande di quella normale, che per un obiettivo con angolo di copertura di 45° circa è uguale alla distanza interpupillare. L’effetto accentua il senso di profondità, ma da la sensazione di osservare un modello in scala ridotta dell’originale. Oggi, con la diffusione delle ottiche tele, il concetto è esteso a tutte le riprese che producono un esagerato effetto stereoscopico, quindi anche alle riprese ottenute con base “normale”, ma ottiche tele. L’Iperstereo è’ una tecnica particolarmente usata in ambito fotogrammetrico e architettonico in cui è conveniente accentuare le caratteristiche volumetriche del soggetto. E’ l’opposto di Ipostereo. Ipostereo (gigantismo) Percezione ridotta dell’effetto stereoscopico generata dall’uso di una base stereo più piccola di quella “normale”, che per un obiettivo con angolo di copertura di 45° circa è uguale alla distanza interpupillare. Oggi, con la diffusione delle ottiche grandangolari, il concetto è esteso a tutte le riprese che producono un ridotto effetto stereoscopico, quindi anche alle riprese ottenute con base “normale”, ma ottiche grandangolo. L’effetto riduce il senso di profondità, ma da la sensazione di osservare un modello in scala maggiore dell’originale. E’ l’opposto di Iperstereo. Keystoning Termine usato per descrivere la distorsione causata sull’immagine proiettata quando il piano della pellicola del proiettore (o della matrice LCD) non è parallelo allo schermo di proiezione. Per esteso, il termine viene usato anche per descrivere la distorsione delle due immagini ottenute in una ripresa a due camere, dove gli assi ottici non sono paralleli ma convergenti verso il soggetto. Questa eccessiva convergenza può essere causa di errori di ripresa non più risolvibili in fase di post-produzione ed è questo uno dei motivi per cui si utilizzano camere parallele da convergere poi durante la post-produzione.

145


Glossario

Lenticolare (auto stereoscopia a lenti) Tecnica autostereo di rappresentazione tridimensionale in cui si sfruttano le proprietà rifrangenti delle lenti cilindriche. La tecnica prevede l’uso di fogli costituiti da lenti cilindriche affiancate da sovrapporre e incollare su immagini opportunamente interlacciate, in modo che grazie alla rifrazione delle microlenti ogni occhio veda l’immagine che gli compete, dando così luogo alla visione stereoscopica senza alcuno strumento ottico in corrispondenza degli occhi. In ambito industriale è consuetudine stampare le immagini in offset, direttamente sul retro del foglio lenticolare. Parallasse Differenza orizzontale tra due punti corrispondenti dello stesso elemento in due immagini different grazie ad un punto di vista diverso nello stesso momento oppure dallo stesso punto di vista, ma in momenti successivi: quando la parallasse è data dal movimento del soggetto fotografato. Tutto ciò che ha parallasse 0 giace esattamente sul piano dello schermo. Se la parallasse di un punto è invece negativa, il punto è davanti allo schermo. Se al contrario la parallasse è positiva, il punto è dietro lo schermo. Parallasse verticale (errore di parallasse verticale) Difetto di ripresa o di montaggio di una stereoscopia che consiste nella non eguale posizione orizzontale dei punti omologhi. Nel montaggio di una immagine stereoscopica, per ottenere una stereografia, un anaglifo o qualunque altra immagine stereo, le coppie dei punti omologhi devono essere esattamente sulla stessa linea orizzontale, pena la presenza di fastidiosi conflitti percettivi, tali da rendere sgradevole o intollerabile la visione stereo. Polarizzazione circolare Utilizzando la polarizzazione circolare, due immagini vengono proiettate sovrapposte sul medesimo schermo con filtri di polarizzazione opposta. Lo spettatore indossa occhiali economici con una coppia di filtri polarizzatori circolari montati in senso inverso. La luce destinata al filtro polarizzatore circolare sinistro viene bloccata dal filtro polarizzatore circolare destro, e viceversa. Il risultato è simile a quello prodotto dalla polarizzazione lineare, con la differenza che 146


Glossario

attraverso la polarizzazione circolare, lo spettatore può inclinare la testa senza problemi di sovrapposizione delle immagini. Polarizzazione lineare In ottica è un fenomeno fisico della radiazione elettromagnetica che consiste nell’oscillazione della radiazione su un solo piano, anziché su tutti i piani, come avviene per la radiazione non polarizzata. Il fenomeno è ampiamente utilizzato in stereoscopia. Nel sistema di proiezione, in cui si usano occhiali con filtri polarizzati ad angolo tra loro complementare viene utilizzato per la visione di coppie di immagini proiettate attraverso polarizzatori con angolo corrispondente a quello degli occhiali. Pseudostereoscopia Falso effetto visivo stereoscopico in cui le due immagini di una coppie di immagini sono identiche. L’espediente è stato usato in passato per commercializzare false fotografie stereoscopiche oppure per presentare immagini 2D di grande importanza all’interno di serie stereoscopiche . Punti corrispondenti o omologhi (di una coppie di immagini) Sono i punti corrispondenti delle due immagini di una coppie di immagini, cioè gli stessi punti del soggetto visibili sia su una immagine che sull’altra. Regola del trentesimo Regola per determinare la base stereo di una ripresa stereoscopica, cioè la distanza tra i due centri ottici di una coppia di fotocamere, in funzione della distanza del punto voluto. La regola sostiene che la base stereo è uguale ad un trentesimo della distanza del soggetto più vicino. La regola vale alla condizione che l’obiettivo in uso sia normale, cioè abbia un campo di circa 45°, equivalente al campo di visione dell’occhio umano. Rivalità retinica (Retinal rivalry) Conflitto percettivo presente nell’osservazione di immagini anaglife, quando sono presenti nell’immagine ampie campiture di colore corrispondente ai filtri in uso.

147


Glossario

Stereografia Termine derivato da “Stereograph”, usato in ambito statunitense per definire le immagini stereo da osservare attraverso lo stereoscopio. E’ stato coniato da Wheatstone per definire le immagini tridimensionali ottenute con una coppia di disegni. Stereopsi E’ la visione tridimensionale che origina dalla stimolazione simultanea di punti retinici orizzontali con disparità corrispondente da parte di punti oggetto situati nell’ambito delle aree di Panum. Stereoscopia Dal Greco Stereos=solido e scopos=che guarda. Tecnica per la riproduzione degli effetti tridimesionali della visione binoculare attraverso la fotografia, la cinematografia o altri mezzi grafici. Il termine è anche utilizzato in ambito italiano per definire una qualunque immagine stereoscopica, qualunque sia la tecnica con cui è realizzata. Stereoscopio Strumento dotato di lenti o specchi per la visione delle stereografie (stereocoppie di un’immagine tridimensionale). Stereoscopio a lenti (o lenticolare) Stereoscopio dotato di lenti, anziché specchi, per permettere a ciascun occhio di vedere l’immagine che gli compete. Stereoscopio a specchi Stereoscopio dotato di specchi per permettere a ciascun occhio di vedere l’immagine che gli compete. Stereoscopio di Brewster Visore binoculare messo a punto dal fisico scozzese David Brewster intorno al 1849, che semplifica la versione a specchi dello stereoscopio di Wheatstone. Si tratta di un piccolo visore di legno con due lenti su un lato e un’apertura sull’altro lato, in cui va posta la stereocoppia da osservare (che può essere una stereografia su carta, su vetro o un 148


Glossario

dagherrotipo, illuminabile grazie ad una opportuna apertura sulla parte superiore dello strumento). Stereoscopio di Holmes Nome usuale con cui viene definito un particolare ed essenziale stereoscopio a mano in legno, messo a punto sul finire degli anni cinquanta dell’Ottocento dal medico e scrittore americano Oliver Wendell Holmes, autore di tre importanti saggi sulla visione stereoscopica. Visione incrociata ( cross eye ) Meccanismo di osservazione di una stereocoppia che consiste nel porre le due immagini destra e sinistra in posizione invertita (con l’immagine sinistra a destra e la destra a sinistra), per essere osservate con gli assi ottici dei nostri occhi incrociati, in modo che ciascun occhio veda l’immagine opposta e fonda le due immagini, ottenendo così una visione stereoscopica corretta. Visione parallela ( parallel Eye ) Meccanismo di osservazione di una coppia stereo che consiste nel porre le due immagini di una stereocoppia in posizione sinistra-destra corretta, per essere osservate con gli assi ottici dei nostri occhi paralleli in modo da fondere le due immagini e ottenere così una corretta visione stereoscopica. Visore binoculare Dispositivo ottico dotato, nella forma più semplice, di due lenti o due specchi in grado di permettere a ciascun occhio di vedere individualmente la corrispondente immagine di una stereocoppia, consentendo così la percezione tridimensionale. Il visore binoculare più comune è lo stereoscopio a lenti.

149



Fonti

Bibliografia e sitografia



Bibliografia

Bibliografia • Andrea Bottino e Chiara Boeri, Stereoscopia: Teoria e stato dell’arte, tesi di laurea del Politecnico di Torino, 2010 • Autori vari, Cinema e tecnologia. La rivoluzione digitale: dagli attori alla nuova stagione del 3D, Le Mani-Microart’S (collana Cinema. Saggi), 2011 • Benjamin Walter, L’ opera d’arte nell’epoca della sua riproducibilità tecnica, Einaudi, 1928 • Bernard Mendiburu , 3D Movie Making: Stereoscopic Digital Cinema from Script to Screen , Focal Press, 2009 • Carlo Alberto Zotti Minici, Il fascino discreto della stereoscopia, Collezione Minici Zotti, 2006. • Claud Alley Worth , Squint : its causes, pathology and treatment, Blakiston, 1903 (manuale online liberamente consultabile all’indirizzo: http://www.archive.org/details/ squintitscausesp00wortrich ) • Claudio Magalotti, Studio e implementazione di un sistema di proiezione video in stereografia 3D, tesi di laurea dell’università di Bologna, 2008 •

Daniel Arijon, L’A B C della regia, Dino Audino Editore, 1999

• Davide Romeo Meraviglia, Pensare in stereoscopia: metodi e strumenti per progettare le immagini S3D, tesi di laurea del Politecnico di Milano, 2010 • Dott. Diego Vecchi (Specialista in Oculistica), Bambini: il cinema 3d può danneggiare la loro vista?, elle-di | centro di medicina tradizionale e complementare, editoriale 2010

153


Bibliografia

• Easter Coen, Futurismo 100 Illuminazioni Avanguardie a confronto: Italia - GermaniaRussia, catalogo della mostra al MART di Rovereto, 2009 •

Francesco Siddi, Cinema stereoscopico, Apogeo, 2011

• Giuseppe Colace e Ing. Marzio Barbero, Televisione stereoscopica: le basi della tecnica stereoscopica, Rai: Centro Ricerche e Innovazione Tecnologica, Torino 2004 •

Henry Le Lieure, Il mondo in stereoscopia, Electa Mondadori, 1996

• Ianir Ideses and Leonid Yaroslavsky, Three methods that improve the visual quality of colour anaglyphs, journal of optics a: pure and applied optics, 2005 • Ing. Mario Muratori, Che cosa è, come funziona: La tecnologia 3D-HDTV basata su DLP, Rai: Centro Ricerche e Innovazione Tecnologica, Torino 2007 • Ing. Mario Muratori, Distorsioni nella stereoscopia tradizionale, Rai: Centro Ricerche e Innovazione Tecnologica, Torino 2007 • Ing. Mario Muratori, La ripresa stereoscopica, Rai: Centro Ricerche e Innovazione Tecnologica, Torino 2007 • Ing. Mario Muratori, Tecniche di visualizzazione stereoscopica basate sulla frequenza: anàglifo e Infinitec, Rai: Centro Ricerche e Innovazione Tecnologica, Torino 2007 • Ing. Mario Muratori, Tecniche per la visione stereoscopica, Rai: Centro Ricerche e Innovazione Tecnologica, Torino 2007 • Ing. Mario Muratori, Televisione stereoscopica: l’effetto Pulfrich, Rai: Centro Ricerche e Innovazione Tecnologica, Torino 2004 • Ing. Mario Muratori, TV stereoscopica, la terza dimensiona aggiunta alla HDTV, Rai: Centro Ricerche e Innovazione Tecnologica, Torino 2007 154


Bibliografia

• Ing. Mario Muratori, Tv tridimensionale: sarà la volta buona?, Rai: Centro Ricerche e Innovazione Tecnologica, Torino 2006 • Ing. Marzio Barbero ed Ing. Mario Muratori, Stereoscopia Origini, cinema, televisione, Rai: Centro Ricerche e Innovazione Tecnologica, Torino 2004 • John Waldsmith, Stereo Views - An Illustrated History & Price Guide, Krause Publications, 2002 • Keith Claworthy, The Collectable Stereo Viewers Guide, W. W. Norton & Company, 2006 • Lenny Lipton, Foundation of the stereoscopic cinema: a study in depth, Van Nostrand Reinhold Company, 1978 • Marzio Barbero e Natasha Shpuza, Che cosa è, come funziona: display a cristalli liquidi auto stereoscopici, Rai: Centro Ricerche e Innovazione Tecnologica, Torino 2004 •

Maurizio Calvesi, Le due avanguardie : dal futurismo alla pop art, Laterza, 1998

Rolando Alberti, Il cinema sta male? fategli una stereoscopia, Editoriale 2010

Stephen Pinker, How the Mind Works, W. W. Norton & Company, 1999

Velia Gabanizza, Il futurismo: testo e ricerca iconografica, Fabbri editore, 1976

155


Bibliografia

Sitografia Sulla teoria stereoscopica • • • • • • • • • • • •

http://en.wikipedia.org/wiki/Anaglyph_image http://fc.units.it/ppb/visione/Stereopsi/Stereopsi1.html http://it.wikipedia.org/wiki/Visione_binoculare http://microservo.altervista.org/documenti/relazione2/distanze.html http://stereoscopicgioconda.blogspot.com/ http://teoria-del-colore.blogspot.com/ http://www.adcom.it/evento_detail.php?id=42 http://www.crit.rai.it/IT/home.htm http://www.funsci.com/fun3_it/stsc/stsc.htm http://www.stereoscopic.org/library/index.html http://www.stereoscopic.org/library/index.html http://www.tredimed.uniba.it/programmi/pagina.php?id=4

Sulla storia e sul movimento Futurista • • • •

156

http://www.centenariofuturismo.it http://www.centroarte.com/ http://www.futurismo.altervista.org/arte.htm http://www.settemuse.it/arte/corrente_futurismo.htm


Bibliografia

Dedicati al Software free ed Open Source • • • • • • •

http://cue.yellowmagic.info/softwares/separate-plus/index.html http://docs.gimp.org/it/index.html http://grafica.html.it/guide/leggi/15/guida-gimp/ http://registry.gimp.org/node/10217 http://sperimentazioni.wordpress.com/2007/11/21/gimp-vs-photoshop-i-parte/ http://www.3dphoto.net/forum/index.php?topic=1679.0 http://www.3dphotopro.com/soft/depthmap/help.htm

Programmi di generazione secondo la tecnica anaglifica, previo possesso di stereo-coppia • • • • passi/ •

http://alfa.magia.it/3DGugle/indexITA.htm http://dvdvideosoft.com/it/products/dvd/Free-3D-Photo-Maker.htm http://stereo.jpn.org/eng/index.html http://www.n2h.it/software/come-convertire-un-video-2d-in-3d-in-10-semplicihttp://www.opentutorial.com/Make_3d_images

Risorse sui procedimenti di generazione di un anàglifo • http://help.adobe.com/en_US/aftereffects/cs/using/WS2bacbdf8d487e5827a9ae7f112de8fcfcfb-7fff.html • http://ideasnextdoor.com/2010/11/03/2d-to-3d-anaglyph-3d-da-una-singolaimmagine-2d/ 157


Bibliografia

• http://www.alexrobete.com/photoshop-cs5-tutorial-create-a-stereoscopicpicture-using-a-single-image • http://www.computergrafica3d.com/public/cinema4d/lofiversion/index. php?t16064.html • http://www.creareonline.it/2010/02/come-creare-video-in-3d-software-e-guidaper-realizzare-anaglifi-come-nel-film-avatar-005369.html • http://www.digitaltutors.com/11/training.php?pid=3612 • http://www.opentutorial.com/Make_3d_images • http://www.studentirovereto.it/forum/viewtopic.php?t=15049 • http://www.swell3d.com/tips/ • http://www.visfxschool.com/tutorials/stereoscopic-3d-camera-rig-in-after-effects/ • http://www.youtube.com/watch?v=27Z1Q8Bc2SQ • http://www.youtube.com/watch?v=8TyzhHpF-UM • http://www.youtube.com/watch?v=cXp2e-Ocdwc • http://www.youtube.com/watch?v=fyhqLwCokn0 • http://www.youtube.com/watch?v=gfYMe_vYhu4 • http://www.youtube.com/watch?v=gx8eqRH5BWU • http://www.youtube.com/watch?v=HVSf22VT1t4 • http://www.youtube.com/watch?v=KvTMv90GOXk • http://www.youtube.com/watch?v=UCy3ewlLqH0 • http://www.youtube.com/watch?v=WRuUFbyHUWQ&NR=1 • http://www.youtube.com/watch?v=wRWjuYGmAtk • http://www.youtube.com/watch?v=yVaqagWibBE

158


Bibliografia

Per chiarire particolari aspetti • http://independent.academia.edu/MaurizioMartinelli/Papers/581360/ Passato_e_futuro_del_3D_archeologico._Dalle_foto_stereoscopiche_al_computer_ per_larchitettura_antica • http://www.archiviostereoscopicoitaliano.it/mostrein3d.htm • http://www.happyblog.it/post/8200/dipinti-famosi-in-3d • http://www.psdbox.com/tutorials/photoshop-depth-maps-realistic-depth-offield/ • http://www.redbaron85.com/tutorials/55-blender-25/1395-renderingstereoscopico-animato-in-blender-3d-basi-25-tutorial-versione-testuale.html • http://www.stereo3d.com/stereocam.htm • http://www.tomshw.it/cont/articolo/cinema-3d-fai-da-te-giocare-sul-grandeschermo/26216/1.html • http://www.videomakers.net/forum/viewtopic.php?f=50&t=72596&sid=e5757c5 4b8e58af890fdc8e199aa90d6&start=15 • http://www.videomakers.net/index.php?option=com_content&task=view&id=30 93&Itemid=33 • http://www.visionedeltempo.it/la_mostra.html • http://www.youtube.com/watch?v=mfzxsZaS_NQ&feature=related • http://www.youtube.com/watch?v=ZUBvYnlD7YE&feature=youtube_gdata_ player

159


Ringraziamenti Ringrazio il mio relatore, professore ed architetto Tommaso Empler, che sempre mi ha dato grande libertà di lavoro ed ha contribuito involontariamente a formare quella “sicurezza nei propri mezzi” di cui ho sempre tanto bisogno, permettendomi di realizzare questo secondo lavoro di tesi di nuovo insieme a lui e alla sua professionalità. Ringrazio la mia famiglia che ha contribuito a formare la persona che sono oggi, insegnandomi il valore della legalità e dell’onestà. Ringrazio Chiara, perchè, nonostante tutto, c’è e ci sarà sempre a colmare quel vuoto di ottimismo di cui tanto ho bisogno. Ringrazio i miei colleghi di lavoro, Fabio Fontana, Pino Maggiore, Francesco Ricci, Andrea De Ruggieri e Pignalberi (esperto di open source) per avermi permesso di portare a termine questo percorso di studio grazie alla loro flessibilità oraria sul posto di lavoro. Ringrazio in particolare Antonio Brocco e Federica Mari per la loro continua presenza e disponibilità nonostante i mille impegni personali. Ringrazio i miei colleghi di studio Raffaella Cropanese, Mino Parisi con cui ho avuto modo di condividere esami, cibo, notti insonni e giornate intere e rientrano ufficialmente nelle amicizie che non perderò di vista nei prossimi anni. Ringrazio infine L’ADISU, l’agenzia per il diritto allo studio universitario del Lazio, per avermi permesso di portare a termine gli studi senza gravare economicamente sul mio nucleo famigliare. Dedico infine la mia tesi a tutti gli studenti universitari e non che per un motivo od un altro sono costretti a lavorare e a studiare contemporaneamente e a ritardare il loro percorso di studi. A loro una dedica particolare con una famosa frase di un libro di Sepulveda: “Vola solo chi osa farlo”

Finito di stampare nel mese Marzo 2012 presso la Tipografia - I&G service - Petilia Policastro (KR) - http://www.iegservice.it/


Sommario

161


Università degli studi di Roma La Sapienza Facoltà di Architettura Corso di Laurea Magistrale Interfacoltà (Facoltà di Scienze delle Comunicazione) in Design, Comunicazione Visiva e Multimediale (LM-12) a.a. 2011/2012

Candidato: Ermanno Nardelli

Relatore: Tommaso Empler


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.