Modelli 3d per i beni culturali
Giulia Nascimbeni Angelo Rubino Fotografia per i Beni culturali II – Fotografia 3d per i beni culturali Diploma di II livello in Grafica per le Immagini
2015
Introduzione La creazione di modelli virtuali è fondamentali in moltissimi campi di studio dalla prototipazione di modelli in scala che verranno successivamente introdotti sulla filiera produttiva, ai fini di studio e documentazione dei rilievi in campo architettonico e ambientale. La modellazione 3d consiste nella rappresentazione matematica della superficie tridimensionale di un oggetto attraverso software dedicati. Il modello è costruito tramite una geometria e può generare immagini bidimensionali (3d rendering) oppure essere usato per la simulazione di fenomeni fisici tridimensionale e impiegato successiviamente per la la creazione fisica del modello stesso attraverso l’impiego di stampanti 3d. A conclusione del corso di Fotografia 3d per i Beni culturali tenuto dal Prof. Angelo Raffaele Rubino presso l’ISIA Urbino – sono state raccolte in questo volume alcune nozioni riguradanti le modalità di acquisizione e rielaborazione dei dati nell’ambito della fotogrammetria per i beni culturali della regione Marche. Le riprese fotografiche sono state eseguite presso la Biblioteca Oliveriana di Pesaro e presso il Mausoleo dei Duchi in Urbino; i software impiegati per le rielaborazioni tridimensionali e di seguito approfonditi sono Camera raw (Adobe), Photoscan (Agisoft), Meshlab (SourceForge).
p21
p06
Metodologie di elaborazione
1 2 3 4
Tecniche di rilievo: la fotogrammetria
p23
Passaggio ad Agisoft Photoscan
p11
3d Models for Cultural Heritages Ing. Matteo delle Piane, isti-cnr Pisa
7
Busto Ettore Gambarara, Mausoleo dei Duchi, Urbino
p39
Bassorilievo Biblioteca Oliveriana, Pesaro
IN I
C D
6
Bibliografia
5
p43
p33 Passaggio a Meshlab
E
1
Tecniche di rilievo: la fotogrammetria
Capitolo 1 – 06 – La fotogrammetria
La fotogrammetria è una tecnica di rilievo e documentazione che trova fondamento nella volontà di ricostruire in modo rigoroso le corrispondenze geometriche tra oggetto virtuale ed oggetto reale partendo dalle immagini fotografiche. La corrispondenza avviene tracciando nello spazio dei raggi di proiezione tra i punti immagine, i centri di presa e i punti oggetto, secondo il modello della prospettiva centrale.
Le tecniche tridimensionali eseguite antecedentemente la fotogrammetria 3d (a 3 immagini)sono: la fotogrammetria monoscopica (a 1 immagine) e la stereofotogrammetria (a 2 immagini). Nel primo caso si esegue una proiezione ortogonale dell’elemento in questione. Qualora si tratti di archi e volte a botte o a schifo si procede ponendosi parallelamente la superficie inquadrata e con un’acquisizione a frammenti in modo da ottenere lo sviluppo in piano di una superficie curva (spaccato). La tridimensionalità e la curvatura vengono rappresentate sul piano bidimensionale dall’indicazione della sezione dell’elemento in questione. Per rendere il modello misurabile si ricorre alla triangolazione: vengono poste sull’elemento reale dei punti di riferimento (mire), se ne misura manualmente o empiricamente la distanza reale e successivamente si trasferisce il reticolo formato sul modello virtuale opportunamente scalato.
Capitolo 1 –
Più piccole sono le sezioni dello spaccato e migliore è lo sviluppo in piano. La stereofotogrammetria viene eseguita a partire da più visioni per creare la tridimensionalità di oggetti sferici e si basa sui criteri di profondità di campo1 e iperfocalità2. Per eseguire tale ripresa è necessario utilizzare una stazione totale che colloca l’oggetto nello spazio fornendo le coordinate x; y; z di ogni punto. La sovrapposizione tra le camere che compongono la bicamera3 dev’essere almeno del 30% e gli assi convergenti con un’ampiezza di 75°: aumentando l’angolo diminuisce la profondità. Il punto di rilievo viene scelto arbitrariamente; è necessario essere completamente paralleli all’oggetto per evitare acquisizioni false, un corretto posizionamento può essere determinato dal distanziometro.
07
es: [distanza camera oggetto: 6 m] scatto I: centro scatto II: 6 m a destra scatto III: 6 metri a sinistra Varie sono le applicazioni della fotogrammetria e le acquisizioni possono essere così categorizzate: a volo, impiegata in campo architettonico: un raggio colpisce la superficie dell’oggetto e ritorna al punto di partenza. Il calcolo è basato sulla distanza che intercorre tra i due punti; a differenza;
– La fotogrammetria
Queste due tecniche sono state superate dalla fotogrammetria 3d4 in cui il rilievo non è necessario ma basta avere la distanza dalla macchina all’oggetto. La camera viene fissata al centro di una barra e per ogni punto di ripresa decisi sulla base della distanza stessa tra oggetto e camera vengono eseguiti tre scatti:
a triangolazione, definita dalla deformazione del raggio laser; a luce strutturata, ovvero attraverso un pattern proiettato; microscan dotato di braccio per rilevare i sottosquadra; a luce stroboscopica. Queste tipologie di acquisizione saranno approfondite successivamente nel prossimo capitolo.
Capitolo 1 –
La fotogrammetria trova ampia applicazione nel settore dei beni culturali poichè – citando M. Fondelli5 – “Le modalità [...] consentono descrizioni grafiche e numeriche più pertinenti [di altre tecniche, n.d.r.]e assicurano la possibilità di istituire periodici e sistematici controlli dei loro stati di consistenza ai fini della salvaguardia e conservazione”.
08 – La fotogrammetria
La profondità di campo era maggiore nelle pellicole perchè stratificate piuttosto che nei sensori rgb dove viene fatta una media arbitraria.
1.
Minima distanza di messa a fuoco ad un dato diaframma con fuoco al’infinito.
2.
3. Le strumentazioni utilizzate devono essere accompagnate da un certificato di calibrazione dell’ottica per poter conoscere l’errore di distorsione presente. Posizionamento dei punti di ripresa:
assi paralleli:
assi convergenti:
4. Per ottenere un modello tridimensionale a basso costo, si può ottenere un risultato analogo con Photoshop: I. duplicazione del livello II. eleiminazione del canale del rosso nel livello duplicato da “stili di livello” III. traslazione del livello: con l’ausilio di occhialini 3d posso vedere l’immagine tridimensionale.
M.Fondelli, Trattato di fotogrammetria urbana e architettonica, Ed. Laterza
5.
2
3d Models for Cultural Heritages Ing. Matteo delle Piane, isti-cnr Pisa
011 – 3D models for cultural heritages
L’acquisizione procede a partire da una misurazione del reale che può avvenire tramite strumentazione a contatto con l’oggetto (non molto praticata nei beni culturali perchè potrebbero danneggiare i reperti o talvolta presentare un vero e proprio limite fisico) o con strumentazioni a distanza ottici (attivi/passivi) o non ottici (es. tac). Della strumentazione a distanza passiva fanno parte tutte quelle teconologie in cui viene interpretato il visibile; per le strumentazioni attive invece si procede attraverso la lettura e l’interpretazione dell’interazione di un pattern precedentemente proiettato con la superficie in questione. Vengono cioè interpretate le deformazioni superficiali. I tipi di dispositivi che impiegano questa teconologia appartengono alla famiglia dei 3d scanner, che variano a seconda della dimensione. A. Acquisizione dati a strumentazione a distanza ottica passiva Sfruttano i principi di stereovisione e paralasse: capire la distanza e la posizione nello spazio attraverso i punti comuni tra due visioni a differente punto di ripresa. In quest’ottica si inserisce bene l’argomento della fotogrammetria con camera calibrata: prendendo i punti comuni tra due immagini con punti di vista
Capitolo 2 –
La fotogrammetria si occupa di rilevare misure e coordinate degli oggetti nello spazio partendo dalla fotografia di oggetti stessi. Quando si parla di oggetti tridimensionali è necessario definire e distinguere aquisition e modelling. Ebbene il primo termine fa riferimento ad un processo semiautomatico di acquisizione dati in cui si ottiene un modello metrico di cui conosciamo l’ordine di grandezza del margine di errore e l’accuratezza dell’acquisizione stessa, ma non potendo fisicamente avere tutti i dati a disposizione si avranno sempre modelli incompleti. Il secondo termine invece identifica quel processo manuale che parte da dati reali dell’oggetto in questione per poi modellarlo a mano. L’oggetto viene scomposto in questo caso in primitive, ovvero elementi semplici, nell’ottica di ottenere modelli complessi completi.
leggermente differenti viene calcolata la posizione nello spazio dei punti. L’errore risulta essere inferiore al decimo di millimetro e per completare il rilievo è sufficiente un numero di punti compreso tra 10 e 120, punti in cui il modello risulterà molto preciso a differenza di tutti gli altri in cui verrà approssimato per interpolazione. L’acquisizione si esegue sia per rotazione che per traslazione affinchè il computer possa creare l’algoritmo necessario.
Capitolo 2 – 012 – 3D models for cultural heritages
B. Acquisizione dati a strumentazione a distanza ottica attiva Questi strumenti funzionano per triangolazione e sono costituiti da un emettitore laser e da una camera. La misurazione si ottiene conoscendo la distanza tra camera e oggetto dal laser e l’angolo tra la camera e l’oggetto. Si ottiene un’immagine dove ogni pixel non è un valore di colore bensì un valore di profondità. I buchi e le mancanze sono dovute al fatto che questa metodologia acquisisce solo ciò che vede sia la camera che lo scanner quindi per ottenere un buon livello di completezza ed evitare il cono di cecità è necessario fare più acquisizioni da vari punti di vista. Solitamente queste camere – che registrano una porzione di circa 30 x 30 cm – hanno un ottica fissa 50 mm e per avere tutto a fuoco la distanza di lavoro dovrà essere costante a 10-15 cm di distanza; tutto ciò che andrà oltre alla profondità di campo non potrà essere acquisito con certezza. Scanner di buona qualità sono Nextengine dotato di livella laser e diedro per collocare l’oggetto nello spazio e Breukmann gmbh, caratterizzato da un’accuratezza elevata e da un errore al di sotto del decimo di mm e le cui acquisizioni coprono fino a 70/80 cm. Essendo dotata di luce strutturata e non di luce laser l’acquisizione può essere estesa ad altri materiali e la resa finale migliora sensibilmente. Il kinect della xbox è un esempio di laser scanner low cost in cui la limitazione principale è dovuta alla distanza di lavoro che dev’essere sempre costante e al materiale da acquisire che non
Si procede dando degli input al computer affinchè trovi delle corrispondenze puntuali tra le immagini; il calcolatore è poi in grado di calcolare un algoritmo che permette di migliorare via via l’allineamento. I punti coincidenti delle immagini sono contrassegnate da marker e vengono posti in punti tattici. L’allineamento presenterà sempre un margine di errore quindi una volta raccolti una serie di dati verrà fatta una media. Questa può essere fatta tramite due metodi: – zippering ovvero creare tra le varie parti di giunzione una serie di triangolini che, componendo una toppa, completano il buco creato
013 – 3D models for cultural heritages
C. Registrazione delle scansioni Questa operazione consiste nel trovare la più corretta traslazione che comporti l’allineamento di tutte le geometrie.
Capitolo 2 –
dev’essere nero, traslucido/trasparente, riflettente (questo vale per tutti i dispositivi che impiegano tale tecnologia). Affinchè l’acquisizione avvenga il materiale dev’essere solido, opaco e rigido cioè la cui superficie non cambi. Per quanto riguarda le acquisizioni di edifici ed altre architetture, si ricorre al tof (tecnologia in tempo di volo) e all’interferenza di fase. Questo metodo non è accurato quanto la triangolazione ma si riesce ad ottenere dati metrici in base al tempo che passa tra l’emissione luminosa, l’oggetto e il ritorno del segnale. Viene acquisita una panoramica a 360° allontanandosi da 1 a 60 m rispetto al soggetto: la nuvola di punti che corrispondono ai dati acquisiti diventa via via meno densa. A differenza della triangolazione che richiede condizioni di luce particolare in quanto la lettura dei laser può essere confusa dalla temperatura, questo tipo di tecnica funziona bene anche in luce ambientale. Esistono poi i lidar/slr: laser montati sui satelliti per rilevare i pianeti in grado di mappare la vegetazione. L’aquisition planning, cioè l’acquisizione delle singole porzioni che verranno poi allineate, si effettua prima delle acquisizione vera e propria.
Capitolo 2 – 014 – 3D models for cultural heritages
dai dati mancanti; – approccio volumetrico cioè facendo una media delle linee nei punti (pixel, voxel) in cui esse si sovrappongono. Si procede tramite compromessi in accordo con la tecnologia impiegata: non conviene unire pezzi aventi una risoluzione più bassa del margine di errore dello scanner impiegato altrimenti si ricostruirebbe l’errore; inoltre è necessario tenere conto che a pixel grandi corrisponde un’accuratezza bassa, a pixel piccoli una grande quantità di dati; – approccio di superficie globale o metodo di Poisson ovvero trovando la superficie matematica che meglio si avvicina al dato acquisito, attingendo a tutti i suoi dati. Mentre il metodo volumetrico lavora unicamente sul dato acquisito e mantiene molti più dettagli, il metodo globale procede per approssimazione dei dati ma procedendo attraverso una media dei dati elimina il rumore. Dal 2005 l’allineamento automatico funziona attraverso sottrazione di punti, partendo da una moltitudine e scremando riuscendo a raggiungere quelli più giusti. I programmi che usano questo approccio sfruttano tre operazioni principali: 1) a. matching: ogni immagine viene scomposta in punti interessanti (features) e analizzata; b. quantificare il nemero di features per ogni gruppo/coppia di immagini possibili; c. sift1 ovvero descrizioni di pixel 2) stima dei parametri di camera attraverso i matching bidimensionali si fanno delle ipotesi sulle posizioni delle camere nello spazio: a. stima della posizione relativa b. ottenere la nuvola di punti che rappresenta già una rappresentazione tridimensionale approssimativa della scena, attraverso i matching che ritornano da un punto nello spazio. 3) densificazione della scena: ottenere un modello completo attraverso l’unione dei punti tramite triangolazione. 1.
algoritmi sift e exif approfonditi a pag. 023
– gli oggetti da riprendere devono essere ricchi di features differenti, a scala diversa, non ripetitivi e densi. Per ottenere una bella immagine del modello si deve girare attorno all’oggetto alla stessa distanza, se sto fermo e ruoto su un punto fisso il sift impazzisce; – la rotazione attorno all’oggetto dev’essere di massimo 30° (20 acquisizioni); – nel caso si impieghi un piano rotante lo sfondo non deve’essere nero altrimenti si perderebbero un sacco di dati e il software non funzionerebbe correttamente; – in fase di rielaborazione, le immagini vanno scontornate ma non croppate; – sulle superfici piatte viene creato maggiore rumore rispetto alla realtà; – la risoluzione della camera può essere tranquillamente compresa tra i 12 e i 15
mila megapixel dev’essere dotata di buone lenti che ne diminuiscono le distorsioni; – le immagini sfocate sono un danno; – non necessariamente tante immagini fanno un bel modello; – se le condizioni di illuminazione cambiano non va bene, quindi spesso è meglio lavorare indoor e creare situazioni di illuminazione ideali in modo da avere le stesse condizioni in ogni punto di vista; – agli algoritmi manca il valore di scala, quindi le acquisizioni sono montate secondo una scala che non rappresenta le dimensioni reali dell’oggetto e pertanto si ha la necessità di almeno una misura reale e della misura corrispondente sul modello 3d in modo da poter poi dividere i due valori ed ottenere il fattore di scala da applicare al modello per poi riportarlo da una misura arbitraria ad una utilizzabile; – nella modalità virtuale ho bisogno di una misura reale che ricavo ponendo nella scena un oggetto di cui si conoscono le dimensioni effettive, e poi si attua un calcolo proporzionale.
015 – 3D models for cultural heritages
– il 3d imaging comporta numerosi vantaggi in termini di tempo e costi ma comporta limitazioni sul materiale da acquisire: gli oggetti non possono essere riflettenti poichè il punto di riflessione cambierebbe al variare del punto di vista, nè trasparenti, inoltre se l’oggetto si ripete sempre uguale a sè stesso, il software non riesce a montarlo;
Capitolo 2 –
Note:
Capitolo 2 – 016
D. Il colore La definizione del colore che si traduce come luce, è più complicata dell’acquisizione della geometria. Servirebbe una funzione a 12 varianti, mai stata scritta perchè troppo complessa. Il colore viene tradotto attraverso una funzione a 8 varianti (8d bssrdf) che definisce la traslucentezza del colore e che per poter essere calcolata è necessario avere circa un migliaio di immagini dello stesso materiale secondo più punti di vista e più fonti luminose. Esistono device appositi. C’è una forte limitazione sia per gli oggetti registrabili che per il tempo d’acquisizione. La funzione a 6 varianti (6d svbrdf) tralascia la traslucentezza in cui per ogni porzione dell’oggetto ho un’effetto diverso: nei materiali lucidi si vede la variazione spaziale, nelle parti opache un punto fisso. La funzione a 4 varianti (4d brdf) presenta una ulteriore limitazione: non c’è variazione spaziale. Nella ripresa dei Beni culturali è necessario rimanere su un sistema a 6 varianti.
– 3D models for cultural heritages
E. Trasferimento sull’oggetto tridimensionale i colori di una foto 1) allineare modello e informazioni fotografiche del colore 2) proiettare i pixel sull’immagine L’allineamento avviene manualmente oppure tramite marker che fanno corrisponder un punto sulla geometria ad un punto sull’immagine; si devono porre almeno 7 corrsipondenze ma se sono 15 è meglio. Lalgoritmo precedentemente impiegato per il raffinamento del modello non è valido. Si può usare un approccio statistico che quantifichi la porzione di informazioni uguali tra loro. L’algoritmo muove il modello contraendolo fino ache la mutual informazione non da il valore più alto a permettere la convergenza dell’intero modello. Per ogni parte della superficie c’è un algoritmo che esprime quale immagine si avvicina maggiormente ai parametri di buon senso dati e si ottiene una buona descrizione ma restano visibili i bordi di giunzione tra le immagini eliminabili tramite blending, ovvero una sfumatura che rende omogenea la mappa colore (metodo Meshlab);
017 – 3D models for cultural heritages
F. Immagine reilluminabile (rti) Sonoquelle immagini in cui posso variare, attraverso una funzione, la luce sul modello 3d e questo rende visibile e meglio comprensibile la geometria sfruttando gli effetti di specularità si ottengono maggiori informazioni sui dettagli. Questa tecnica è molto utilizzata sulle monete e sugli oggetti di piccole dimensioni poichè è necessario inserire l’oggetto in una semisfera isolante dalla luce da cui si ottengono circa 60 foto per ogni prova di luce. Per oggetti di grande dimensione è utile mettere accanto al reperto una sfera riflettente tipo palla da biliardo così da avere il controllo della direzione della luce: il punto di riflessione è sempre il punto di intersezione tra la normale e il piano ed è impiegato dal software affinchè riesca ad effettuare lo stitching. L’esposizione, il bilanciamento del bianco, il diaframma e la messa a fuoco devono essere costanti in ogni scatto ed è fondamentale che l’oggetto e la sfera rimangano immobili durante tutta la durata della ripresa perchè non avvenga sovrapposizione.
Capitolo 2 –
oppure attraverso una media ragionata sempre per sfumature ottenendo un risultato buono e omogeneo. Come si salva la mappa colore? 1) Texture mapping la texture viene salvata in un’immagine esterna che viene avvolta al modello 3d. Vengono aggiunti al modello geometricamente scarso (se fosse complesso la parametrizzazione sarebbe troppo complicata) una moltitudine di di dettagli colore; 2) Colore per vertice viene associato in valore di colore ad ogni vertice. Queesto metodo è molto comodo per modelli di geometrie complesse. La qualità del colore dipende dalle foto di partenza. E’ necessario creare una foto il più piatta possibile affinchè vengano espresse solo le info colore e non quelle relative alla luce.
Capitolo 2 – 018 – 3D models for cultural heritages
G. Metodologie online: WebGL è usato dai browser per visualizzare dati tridimensionali; attraverso la multirisoluzione è possibile visualizzare da internet un modello tridimensionale non presente sul pc in modo da non sovraccaricare il computer e da proteggere il dato da frodi. Ariadne è un web service di multirisoluzione. La visualizzazione avviene tramite previo salvataggio del modello in .slh, .ptl, .ply e può essere mantenuta come privata. Il service prende il file e lo trasforma in multirisoluzione, crea la pagina e invia il link a cui si accede dopo aver scaricato il file zip. Questo sistema si basa su 3dhop: una piattaforma che offre una serie di strumenti utilizzabili per creare una buona presentazione del modello. E’ inoltre possibile creare una sola pagina indice con immagini che rimandano ad altri modelli, o creare degli hotspot, punti caldi di interesse che vengono ingranditi al passare del cursore. Questo sistema si può usare sia per l’alta risoluzione, che per modelli 3d che per nuvole di punti.
021 – Metodologie di elaborazione
I software dedicati alla modellazione a partire da immagini utilizzano due algoritmi denominati exif e sift che consentono la generazione di modelli a partire dalla rielaborazione di dati. L’algoritmo exif (exchangeable image file format) rappresenta l’insieme di tutte le informazioni di scatto salvate all’interno dell’apparecchio di ripresa quali la data di scatto, il tempo di otturazione, il tipo di sensore, la lunghezza focale, la lente, il diaframma, ed altri dati forniti da software specifici ad esempio Photoshop. Contiene anche le informazioni radiometriche riferite ad ogni pixel sul suo contenuto spettrale, ciò rende possibile il riconoscimento dei punti omologhi in scatti differenti. L’algoritmo sift (scale invariant feature transform) era impiegato inizialmente in campo militare ed è stato aperto al pubblico dominio a partire dal 1995. Attraverso il riconoscimento dei punti omologhi permette – nel campo della computer vision e di tutti i software che creano modelli dalle immagini – di rilevare le caratteristiche locali delle geometrie. L’algoritmo permette di determinare attraverso la sovrapposizione delle immagini (≥30% più elevata è la sovrapposizione più alta è la qualità) sia l’orientamento interno della macchina nello spazio (orientamento globale) sia – tramite le distanze tra questi due elementi – l’orientamento esterno (orientamento relativo) dell’oggetto rispetto lo sfondo. I punti di interesse e i due posizionamenti costituiscono la base per
Capitolo 3 –
3
Metodologie di elaborazione:
022
Le riprese Le riprese devono essere eseguite: in senso orario e sempre nello stesso verso; l’orientamento deve rimanere invariato e con esso anche la distanza; la rotazione della camera dev’essere massimo di 10°. L’inclinazione dall’alto verso il basso e viceversa consente di registrare anche i sottosquadra. Per minimizzare le deformazioni e garantire una buona luminosità è consigliabile utilizzare un’ottica normale di 50 mm e impostare iso non superiori al 200 per ridurre il rumore.
–Metodologie di elaborazione
Capitolo 3 –
la triangolazione attraverso la quale si può creare la nuvola di punti. Si procede dunque effettuando un riconoscimento dei punti noti; riconoscimento dei punti spaziali; triangolazione per determinare la spazialità della superficie.
Passaggio in Adobe Camera Raw Il passaggio a Camera Raw consente di effettuare piccoli aggiustamenti di esposizione, luci ed ombre senza però modificare i contrasti. Le immagini vengono poi salvate in jpeg per l’import nel software di modellazione.
023 – Passaggio in Agisoft Photoscan
Agisoft Photoscan è un prodotto software stand-alone che esegue l’elaborazione fotogrammetrica di immagini digitali e genera dati spaziali 3d impiegati in applicazioni gis, documentazione beni culturali, e per la produzione effetti visivi nonché per misure indirette di oggetti di varie scale. Con l’acronimo gis (Geographic Information System) si intende un sistema operativo computerizzato che permette l’acquisizione, la registrazione, l’analisi, la visualizzazione e la restituzione di informazioni derivanti da dati geografici. Il gis è l’ambiente software che permette l’elaborazione e manipolazione dei dati geometrici ed è costituito da informazioni di tipo geometrico, topologico e riguardanti altri dati numerici riferiti all’oggetto in questione. Software come Photoscan sono utili in queste applicazioni poichè permettono l’acquisizione di informazioni metriche a partire da immagini per la resa di modelli 3d in scala. Di seguito verrà analizzato la metodologia di elaborazione dati di tale software che attraverso meshes poligonali costruite sulla nuvola densa di punti, va a costruire virtualmente l’oggetto in questione in questo caso un bassorilievo, conservato nel cortile della Biblioteca Oliveriana di Pesaro, e un busto in bronzo di Ettore Gambara, milite della democrazia, conservato presso il Mausoleo dei Duchi in Urbino.
Capitolo 4 –
4
Passaggio a Agisoft Photoscan
p32
p30
Allineamento delle immagini e definizione dei limite dei punti chiave
1 2 3 4
Importare le immagini jpeg rielaborate a Camera Raw
Scontornare immagini con lazo magnetico
p33
p31
Creazione della nuvola di punti
p35
p34
Creazione della texture ed esportazione del modello in .ply
5 6
Creazione della mesh: unione della nuvola di punti tramite poligoni
F
R
W O K LO W
Capitolo 4 – 026 – Passaggio in Agisoft Photoscan Importare le immagini jpeg rielaborate a Camera Raw, le immagini possono essere importate con Drag&Drop o direttamente dal programma.
Capitolo 4 – 027 – Passaggio in Agisoft Photoscan
Scontornare immagini con lazo magnetico. Tenendo premuto CTRL mentre si usa il lazo dalla barra degli strumenti, questo diventa magnetico. È preferibile restare all’interno del contorno evitando di prendere lo sfondo. Una volta concluso lo scontorno bisogna invertire la
selezione (selection inverted) e aggiungerla (add selection).
Capitolo 5 – 028 – Passaggio in Agisoft Photoscan Allineamento delle immagini e definizione dei limite dei punti chiave. La limitazione dev’essere vicina a 10000 per consentire una buona riuscita del modello.
Capitolo 3 – 029 – Passaggio in Agisoft Photoscan
Creazione della nuvola di punti, la dense cloud è un insieme di punti caratterizzati dalla loro posizione in un sistema di coordinate e da eventuali valori di intensità (colore, profondità, ecc.). È auspicabile impostare una qualità alta e una profndità di filtraggio aggressiva, ma se il calcolo ci impiega più di 3
ore convinene abbassare di livello i parametri impostati per non sovraccaricare troppo il calcolatore.
Capitolo 4 – 030 – Passaggio in Agisoft Photoscan Creazione della mesh, ovvero l’unione della nuvola di punti tramite poligoni. Qui vengono impostate il numero di facce che deve avere il modello: solitamente per avere una buona resa senza lacune è necessario impostare il doppio del numero dei vertici dei punti. Il numero dei vertici viene visualizzato all’interno della
finestra di lavoro in basso a sinistra al momento in cui si preme l’apposita icona nella barra degli strumenti.
Capitolo 4 – 031 – Passaggio in Agisoft Photoscan
[prima della texture è auspicabile salvare il modello nudo e decimarne i punti: tools> mesh> decimazione a 5 milioni] Creazione della texture di dimensioni 8192 x 1, questo valore va scelto in base alla scheda grafica che si possiede. Si pùo scendere della metà, ma non al di sotto del valore suddetto.
È meglio disabilitare le correzioni di colore nella texture perchè qualcora fossero rimaste parti di sfondo il colore della texture potrebbe essere inquinato.Si esportano colori, normali e texture in jpeg. Il modello viene esportato in .ply per essere inserito all’interno di Meshlab.
Capitolo 5 – 033 – Passaggio in Meshlab
Aprire il modello .ply in Meshlab e qualora fosse scuro è possibile togliere le informazioni di colore sui vertici andando a modificare i parametri relativi a contrasto, gamma, luminosità dei vertici. Per avere laggiore dettaglio è possibile proiettare la texture sui vertici stessi.
Capitolo 5 – 034 – Passaggio in Meshlab Dopo aver orientato l’oggetto e averne salvato la posizione nello spazio, con lo strumento di manipolazione (manipulator) visualizzare la griglia di riferimento (quoter box) e fissarla.
Capitolo 5 – 035 – Passaggio in Meshlab
Con lo strumento di misura traccio le linee orizzontali e verticali, a seconda delle misure reali che ho preso e visualizzo la misura virtuale del bassorilievo.
Capitolo 5 – 036 – Passaggio in Meshlab Si procede con la scala metrica: la misura reale, presa sull’originale al momento della ripresa viene divisa per la misura virtuale calcolata nel passaggio precedente. Il rapporto che ne deriva va inserito come valore dell’asse di riferimento. Qualora si prendano le misure su assi differenti è opportuno togliere
l’incremento uniforme per evitare che i dati inseriti entrino in conflitto creando deformazioni.
Capitolo 6 –
039
–Bassorilievo Biblioteca Oliveriana, Pesaro
Capitolo 6 –
041
–Busto Ettore Gambarara, Mausoleo dei Duchi, Urbino
https://it.wikipedia.org/wiki/Scale-invariant_feature_transform 06/05/2015 08:46 https://it.wikipedia.org/wiki/Nuvola_di_punti 25/06/2015 00:26
http://dormonosullacollina.myblog.it/tag/mazziniani/
043 –Sitografia
http://www.agisoft.com/ https://it.wikipedia.org/wiki/Mesh_poligonale 30/04/2015 08:45 http://meshlab.sourceforge.net/
Capitolo 7 –
7
Sitografia